Yapay zekânın, özellikle üretken yapay zekânın, çocuklara zarar vermek için kullanılabildiğine dair çok sayıda örnek ve haber karşımıza çıkıyor. Son olarak IWF, binlerce çocuğun deepfake görseller kullanılarak taciz ve istismara sürüklendiğini ortaya çıkarmıştı. Yapay zekâ devleri şimdi bir araya gelerek çocukların korunması için çalışacaklarına söz verdi.
OpenAI, Microsoft, Google, Meta gibi teknoloji devleri başta olmak üzere pek çok firma, CSAM (Child sexual abuse material - çocuk cinsel istismar materyali) adı verilen ve çocuklara zarar vermekte kullanılan görsellerin üretilmesinde kendi araçlarının kullanılamayacağına dair taahhüt verdi.
Çocukların korunması için yol haritası belirlenmişti
Taahhütün de hayata geçmesine liderlik eden kâr amacı gütmeyen Thorn ve All Tech Is Human platformları yapay zekâ devlerinden gelen destekten memnun. Konuyla ilgili açıklamasında Thorn, bu taahhütün "çocukların cinsel istismardan korunmasının bir yapay zekâ özelliği olması için önemli bir adımı temsil ettiğini ve sektör için devrim niteliğinde olduğunu" ifade etti. İnisiyatif, yapay zekâ aracılığıyla çocuk istismar görselleri oluşturulmasına engel olmayı ve oluşturulmuş görsellerin de arama motorlarından ya da sosyal medyadan kaldırılmasını amaçlıyor.
2023 yılında sadece ABD'de 104 milyon dosya çocuk istismarı şüphesiyle incelenmişti. Thorn ayrıca "Üretken Yapay Zekâ İçin Tasarımda Güvenlik: Çocukların Cinsel İstismarı" isimli bir makale yayımlayarak izlenebilecek stratejileri de açıklamıştı. Bu kapsamda bazı firmalar şimdiden eğitim setlerinde çocukları ve yetişkinleri ayırmaya başladı.