Connect with us
TELE1 TV CANLI YAYIN

Popüler

İnsanları çıplak gösteren uygulama hakkında yeni gelişme

DeepNude

Giyinik insanları çıplak gösteren ‘DeepNude’ isimli uygulama faaliyetlerine son verdiğini açıkladı. Şirket, “Dünya henüz DeepNude’ye hazır değil” diyerek projeyi sonlandırdıklarını açıkladı.

Twitter hesabından bir açıklama yapan DeepNude, bir kaç ay önce başlatılan uygulamanın eğlence amaçlı yapıldığını açıkladı.

Rizespor’lu futbolcunun eşi, yatakta çıplak pozlarını paylaştı

Her ay kontrollü olarak satış yaptıklarını ifade eden şirket yetkilileri, kötü niyetli insanların uygulamayı eğlencenin dışında kullanmaya başladığına dikkat çekerek, “Bu şekilde para kazanmak istemiyoruz. DeepNude’nin bazı benzerleri paylaşılmaya başlanacak. Biz bunların yaygınlaşmasını ve satılmasını istemiyoruz. Yazılımı başka kaynaklardan indirmek ya da paylaşmak suç olacaktır. Bundan sonra DeepNude sürümleri yayımlanmayacak ve kimseye kullanım izni verilmeyecek” dedi.

Çıplak fotoğraflarını savundu: Sanatı ayıplayarak bitiremezsiniz

İnsan beyninin bilgi işleme tekniğinden esinlenerek geliştirilen yapay sinir ağları teknolojisini kullanan DeepNude programı, uygulamaya yüklenen fotoğraftaki kişileri çıplak gösterdiğini ileri sürüyordu. Yazılımla ilgili olarak Vice’ta yayınlanan haberin ardından tüm dünyada geniş yankı uyandıran uygulama, hem kişisel mahremiyeti hiçe sayması hem de ahlaki olarak yoğun bir şekilde eleştirilmişti. Uygulamanın sadece kadın fotoğraflarında çalışması ise tartışmanın boyutunu daha da alevlendirmişti.

Kişisel mahremiyet savunucuları, “Bu yazılım tam anlamıyla korkunç. Artık herkes, çıplak fotoğrafları olmasa dahi intikam pornosunun bir kurbanı olabilir. Bu teknoloji halka açılmamalı” açıklamaları yapmıştı. DeepNude uygulamasının ücretsiz sürümünde çıplak fotoğraflardaki cinsel bölgeler, siyah bir bant ile kapatılırken; 50 dolarlık ücretli sürümünde ise tamamen çıplak fotoğraflar, ‘Fake‘ (sahte) ibaresiyle gösteriliyordu.

Ayasofya’da soyunan Belçikalı model yine soyundu: Görenler polisi aradı!

Yeni nesil skandallar geliyor

Yapay zekanın her geçen gün daha da ilerlemesi beraberinde bazı sorunları da getiriyor. sahte fotoğraf ve video oluşturmak isteyenler için de artık giderek artan oranda bir araç olmaya başladı. Bu tarz fotoğraf ve video uygulamalarında, genel olarak Deepfake teknolojileri kullanılıyor.

Bu yüzden DeepNude bu alanda yaşanan ne ilk ne de son skandal olacak gibi duruyor. Bu tarz uygulamaların sadece müstehcenlik alanında değil, politik skandallarda bile kritik rol oynaması muhtemel.