GPT & Co: Büyük yapay zeka modellerinin kendi kendini düzenlemesine karşı veri koruma görevlileri

Oyseon

Member
6 Kas 2020
901
0
16
Yapay zekaya ilişkin hukuki belirsizlik vatandaşlara ve şirketlere zarar veriyor. Bu, Federal ve Eyalet Veri Koruma Yetkilileri Konferansı (DSK) tarafından belirtilmiştir. Buna göre, yapay zekaya ilişkin planlanan AB düzenlemesinin tüm değer zinciri boyunca “sorumlulukların uygun şekilde dağıtılmasını” içermesini talep ediyor. Almanca: Şirketlerin “yapay zeka risklerinin yönetilebilir kalması için” yasal sorumluluklarına ilişkin açık yönergelere ihtiyacı var.

Reklamcılık



Bu nedenle AB düzenlemesi, GPT, LaMDA veya LLaMA gibi temel modellerin üreticileri ve sağlayıcıları da dahil olmak üzere ilgili tüm tarafların hangi gereksinimleri karşılaması gerektiğini belirtmelidir. DSK, temyiz başvurusuyla federal hükümete karşı çıkıyor. Almanya, Fransa ve İtalya hükümetleri, geniş bir veri tabanı üzerinde eğitilmiş ve çok çeşitli farklı görevlere uyarlanabilen yapay zeka modelleri için yaptırımsız bir öz düzenleme konseptini teşvik ediyor.

Üç hükümete göre Open AI, Google veya Meta gibi operatörlerin yalnızca geniş bir kitleye yönelik modeller hakkındaki temel bilgileri özetleyen teknik dokümantasyonu sağlamaları gerekecek. Ancak bu girişim İspanya’nın Bakanlar Kurulu Başkanlığı ve AB Parlamentosu’nda pek hoş karşılanmadı. Milletvekilleri, sağlayıcıların veri kalitesi, açıklanabilirlik, sürdürülebilirlik ve siber güvenlikle ilgili belirli minimum gereksinimleri karşılamasını istiyor.

DSK, “Yasal sorumluluğun tek taraflı olarak değer zincirinin son aşamalarına kaydırılması, veri koruma ve ekonomik açıdan yanlış bir seçim olacaktır” diye vurguluyor. “Yalnızca gerekli güvenilirlik ile yapay zeka ile ilgili fırsatların yüksek düzeyde kabul görmesi mümkün olacaktır.” Bir yapay zeka sisteminden belirli riskler ortaya çıkabiliyorsa, bunlarla başa çıkma düzenlemeleri sorumluluktan muaf alanlar yaratmamalıdır. Yapay zeka uygulamalarının operatörleri ve kullanıcıları, “işlevsellik, yapay zeka eğitiminde yer alan veriler ve optimizasyon hedefleri hakkında güvenilir bilgi” almalıdır. Sistemlerle ilişkili riskleri doğru şekilde tanımlayabilmelerinin tek yolu budur. Bu, veri koruma etki değerlendirmeleri ve tasarım ve varsayılan olarak gizlilik gerekliliklerinin karşılanması için gereklidir.

Uzlaşma aranıyor


Avrupa “Yapay Zeka Yasası”na ilişkin Bakanlar Konseyi, Parlamento ve Komisyon arasında üçlü olarak adlandırılan müzakerelerin 6 Aralık’ta tamamlanması bekleniyor. Milletvekillerinin baş müzakerecilerinden biri olan Dragoș Tudorache, Çarşamba günü Brüksel’de o zamana kadar bir uzlaşma bulma şansının 50:50 olduğunu söyledi. Rumen, temel modellerin geliştirilmesinin Avrupa ekonomisinin odak noktası olmadığını, bunun enerji ve bilgi işlem yoğun bir süreç olduğunu açıkladı. Avrupa’da odak noktası uygulamalardır. Konseye göre, daha küçük temel modeller için istisnalar yapmak orta yol olabilir.

Bir diğer önemli çekişme noktası da kolluk kuvvetleri gibi alanlarda otomatik yüz tanımanın kullanılması gibi biyometrik kitlesel gözetlemenin yasaklanmasıdır. Avrupa Parlamentosu böyle bir yasağı yönetmeliğe dahil etmek isterken, AB ülkeleri biyometrik kitlesel gözetlemeden yana. Avrupa Dijital Hakları’nın (EDRi) da aralarında bulunduğu sivil toplum kuruluşlarından oluşan bir ittifak, Çarşamba günü biyometrik uzaktan tanımlama tekniklerinin kamusal alanlarda tamamen yasaklanması yönünde bir kez daha çağrıda bulundu. Müfettişler veya sınır muhafızları için hiçbir istisna olmamalıdır. Ancak parlamento müzakerecileri yüz tanıma konusunda ilk tavizleri zaten verdiler.


(ds)



Haberin Sonu