Nahrimed Haber

Yapay Zekâ’nın Liderleri, Çocukların Çevrim İçi Güvenliğini Koruma Sözü Verdi

Yapay Zeka - 11 gün önce 0 Yorum
Yapay Zeka Yapay Zekâ’nın Liderleri, Çocukların Çevrim İçi Güvenliğini Koruma Sözü Verdi
OpenAI, Microsoft, Google, Meta ve diğer yapay zekâ teknolojisi geliştiren firmalar, çocukların çevrim içi ortamlarda güvenliğini sağlamak üzere söz verdi.

Yapay zekânın, özellikle üretken yapay zekânın, çocuklara zarar vermek için kullanılabildiğine dair çok sayıda örnek ve haber karşımıza çıkıyor. Son olarak IWF, binlerce çocuğun deepfake görseller kullanılarak taciz ve istismara sürüklendiğini ortaya çıkarmıştı. Yapay zekâ devleri şimdi bir araya gelerek çocukların korunması için çalışacaklarına söz verdi.

OpenAI, Microsoft, Google, Meta gibi teknoloji devleri başta olmak üzere pek çok firma, CSAM (Child sexual abuse material - çocuk cinsel istismar materyali) adı verilen ve çocuklara zarar vermekte kullanılan görsellerin üretilmesinde kendi araçlarının kullanılamayacağına dair taahhüt verdi. 

Çocukların korunması için yol haritası belirlenmişti

AI tech

Taahhütün de hayata geçmesine liderlik eden kâr amacı gütmeyen Thorn ve All Tech Is Human platformları yapay zekâ devlerinden gelen destekten memnun. Konuyla ilgili açıklamasında Thorn, bu taahhütün "çocukların cinsel istismardan korunmasının bir yapay zekâ özelliği olması için önemli bir adımı temsil ettiğini ve sektör için devrim niteliğinde olduğunu" ifade etti. İnisiyatif, yapay zekâ aracılığıyla çocuk istismar görselleri oluşturulmasına engel olmayı ve oluşturulmuş görsellerin de arama motorlarından ya da sosyal medyadan kaldırılmasını amaçlıyor. 

2023 yılında sadece ABD’de 104 milyon dosya çocuk istismarı şüphesiyle incelenmişti. Thorn ayrıca "Üretken Yapay Zekâ İçin Tasarımda Güvenlik: Çocukların Cinsel İstismarı" isimli bir makale yayımlayarak izlenebilecek stratejileri de açıklamıştı. Bu kapsamda bazı firmalar şimdiden eğitim setlerinde çocukları ve yetişkinleri ayırmaya başladı. 


Yorumlar (0)

Yorum Yap