Güney Kore Devlet Başkanı genç kadıları hedef alan deepfake cinsel ilişki videolarının yaygınlaşması sonrası sıkı önlemler alacağını duyurdu. Başkan ulusal acil durum ilan etti.
Yetkililer, yakın zamanda üyelerinin cinsel içerikli "deepfake" görüntüler oluşturduğu ve paylaştığı çok sayıda sohbet grubu tespit etti. Bu görüntüler arasında reşit olmayan kız çocuklarına ait görüntülerin de yer aldığı belirlendi. Güney Kore, söz konusu tespitlerin ardından acil toplantısı düzenledi.
ÇOĞUNLUKLA SINIF ARKDAŞLARI VE ÖĞRETMENLERİ HEDEF ALINIYOR
Çoğunlukla genç öğrencilerden oluştuğu tespit edilen kullanıcıların, tanıdıkları kişilerin (hem sınıf arkadaşları hem de öğretmenler) fotoğraflarını yüklediği ve diğer kullanıcıların da bunları cinsel içerikli deepfake resimlere dönüştürdüğü ortaya çıktı.
https://tele1.com.tr/deepfake-ile-nasil-basa-cikilir-874067/
ULUSAL ACİL DURUM
Cumhurbaşkanı Yoon, kabine toplantısında yaptığı açıklamada, "Son zamanlarda sosyal medyada, sayısız kişiyi hedef alan deepfake videoları hızla dolaşmaya başladı. Kurbanlar çoğunlukla küçük yaştaki çocuklar, failler ise çoğunlukla gençlerden oluşuyor. Bu durum artık ulusal bir acil durum haline geldi ve sıkı bir çalışma başlatacağız. Sağlıklı bir medya kültürü inşa edebilmek için daha doğru eğitim vereceğiz." ifadelerine yer verdi.
YAPAY ZEKA KULLANILIYOR
Deepfake'ler yapay zeka kullanılarak üretiliyor ve çoğunlukla gerçek bir kişinin yüzüyle sahte bir vücudun birleştirilmesiyle oluşturuluyor.