Haberler
Giriş Tarihi : 21-10-2020 15:57   Güncelleme : 21-10-2020 15:57

Yüz Binlerce Kadının Fotoğrafı Rızaları Dışında Pornografik İçeriğe Dönüştürülüyor

Rapora göre son bir yılda yüz binlerce kadına ait kişisel fotoğraflar, rızaları ve haberleri olmadan yapay zeka programı ile pornografik içeriğe dönüştürüldü.

Yüz Binlerce Kadının Fotoğrafı Rızaları Dışında Pornografik İçeriğe Dönüştürülüyor

Deepfake konusunda araştırmalar yapan Sensity'nin yayımladığı rapora göre, bu teknolojiyle birlikte son bir yılda yüz binlerce kadına ait fotoğraf, kadınların haberleri ve rızaları dışında yapay zeka programı ile pornografik içeriğe dönüştürüldü.

Rapora göre en az 104 bin kadına ait fotoğraf, algoritma aracılığıyla yapay olarak pornografikleştirildi. Sensity tepe yöneticisi Giorgio Patrini ise "Burada yenilik yapay zeka teknolojisinin geldiği durum değil. Bunun artık herkese kolayca ulaşabilmesi" şeklinde konuştu.

Çocuklar da Hedef Alındı

Uygulama ile hedef alınan kadınların yüzde 70'inin ünlü olmayan kişilerden oluştuğu, bazı durumlarda 18 yaşını geçmemiş çocukların hedef alındığı saptandı.

Herkes Tarafından Çok Kolay Ulaşılabiliyor

Fotoğraflardaki kıyafetleri kaldırarak yerine yapay olarak çıplaklık getiren uygulamalar uzun süredir zaten vardı fakat bunun artık cep telefonlarından ve hiçbir teknik bilgi gerektirmeden tüm herkes tarafından ulaşılabilir olması, insan hakları savunucuları tarafından da endişeyle karşılandı.