Yapay zeka tarafından üretilen çocuk pornografisi araştırmacılara yeni zorluklar sunuyor

Oyseon

Active member
6 Kas 2020
1,515
0
36
CDU/CSU parlamento grubundan gelen küçük bir araştırmaya yanıt olarak federal hükümet, yapay zeka tarafından oluşturulan çocuk cinsel istismarı tasvirlerine ilişkin değerlendirmeleri ve mevcut rakamlar hakkında bilgi sağlıyor. Olayın var olduğu ve sayısının giderek arttığı biliniyor. Ancak federal hükümet şu anda genel kapsam için geçerli rakamların bulunmadığı yanıtını verdi.

Reklamcılık



Bunun bir göstergesi, Ulusal Kayıp ve İstismara Uğrayan Çocuklar Merkezi (NCMEC) tarafından bildirilen içerik olabilir: ABD'deki özel kurum, yapay zeka tarafından oluşturulan istismar tasvirlerine ilişkin yaklaşık 4.700 rapor bildirdi. NCMEC'e bilgiler büyük ölçüde Meta veya Google gibi özel platform operatörleri tarafından sağlanır. Büyük yapay zeka sağlayıcıları, internette etik filtreler olarak adlandırılan bu filtreleri atlatmaya yönelik stratejiler ve talimatlar olmasına rağmen, güvenlik mekanizmalarıyla üretimi engellemeye çalışacaklardır.

Federal Meclis'in CDU üyesi Catarina dos Santos-Wintz, yapay zekanın çocuk ve gençlik pornografisi içeren fotoğraf ve film materyalleri oluşturmak için giderek daha fazla kötüye kullanıldığına dair korkularının doğrulandığını görüyor. “Özellikle açık kaynaklı yazılımlarda, suçla ilgili materyallerin oluşturulmasını önleyecek sözde etik filtreler bulunmuyor.” Bu nedenle, bu tür içeriğin oluşturulmasını önlemek için açık kaynaklı yapay zekanın bu tür filtreleri kullanmasını da gerektirir.

Federal hükümet cezai sorumlulukta boşluk görmüyor


Ancak federal hükümete göre, yapay zeka operatörlerinin ve geliştiricilerinin bu tür materyallerin oluşturulmasını en başından engellemeye yönelik doğrudan bir yasal yükümlülüğü yok. Bu nedenle Almanya'da cinsel istismarın gerçekçi tasvirlerinin dağıtımı, bulundurulması ve yaratılması cezalandırılabilir, ancak yaratımın kendisi cezalandırılamaz. Buradaki hukuki durum yapay zekayı bu amaçlar için araçsallaştıran faile yöneliktir. Ancak Federal Hükümet, bir sağlayıcının en azından geçici olarak bu içeriğe sahip olmadan nasıl yasaklı içerik oluşturmak istediği konusunda yorum yapmıyor. Her halükarda, şu anda Alman hukukunda cezai sorumluluk konusunda bir boşluk görmüyor, ancak sürekli olarak “mevcut ve özellikle yeni teknolojik gelişmeler nedeniyle yasal işlem yapılmasına ihtiyaç olup olmadığını” incelediğini belirtiyor.

CDU'lu siyasetçi dos Santos-Wintz, hukuki durumdaki farklılıkların başka bir sorun olduğunu belirtiyor. Özellikle, Japonya'nın hukuki durumu cezai sorumluluk açısından önemli ölçüde farklılık göstermektedir ve bu da içeriğin uluslararası düzeyde kullanılabilirliği konusunda sorunlara neden olmaktadır. “Federal hükümet, yapay zeka tarafından oluşturulan (çocuk ve gençlik) pornografisiyle bağlantılı çeşitli Japon web sitelerinin farkındadır. Oradaki hukuki duruma göre bu içerik, Almanya'dakinin aksine kanunen cezalandırılamaz” diyor federal hükümetin cevabı.

Yapay zeka tarafından oluşturulan içerik, araştırmaları daha da karmaşık hale getiriyor


Bununla birlikte yapay zekanın istismar görüntü ve videolarını oluşturması, araştırmacılara tamamen yeni bir zorluk türü sunuyor: Gerçek mağdurlarda amaç, yalnızca mağdurları korumak ve onları daha sonraki eylemlerden korumak için bulmak değilse, bu, AI ile kısım atlanır. Gerçek görüntülere dayalı olarak oluşturulmadığı sürece sık sık içerik oluşturuldu. Dolayısıyla karmaşıklık artmaya devam ediyor. Soruşturma makamlarının yapay zekanın yardımıyla ele aldığı çok sayıda rapor göz önüne alındığında, AB yapay zeka yönetmeliğinde öngörüldüğü gibi yapay zeka tarafından oluşturulan içerik için bir etiketleme gerekliliği potansiyel olarak işi kolaylaştırabilir. Ancak dos Santos-Wintz, bunun her şeyden önce bir umut olduğunu söylüyor: “Suç niteliğindeki materyaller muhtemelen çoğu durumda işaretlenmeyecektir.”

Yapay zeka olasılıklarının failler ve buna uygun eğilimlere sahip kişiler üzerinde ne gibi bir etkiye sahip olduğu bilinmiyor. Federal hükümet, “bu konuyu özel olarak ele alan kanıta dayalı hiçbir çalışmanın bulunmadığı” yanıtını verdi.


(vardır)



Haberin Sonu