Yapay Zeka Yasası: Yapay zeka düzenlemesine ilişkin AB müzakereleri ertelendi

Oyseon

Member
6 Kas 2020
901
0
16
AB Komisyonu, üye devletlerin temsilcileri ve Parlamento arasında yapay zekaya ilişkin bir Avrupa düzenlemesine (AI Yasası) ilişkin müzakerelerin çıkmaza girdiği görülüyor. Dün geceki yirmi saatlik maraton müzakeresinden sonra bile müzakereciler ortak bir versiyon üzerinde anlaşamadılar. AB Komiseri Thierry Breton Perşembe günü yaptığı açıklamada, sözde üçlü müzakerelerin kesintiye uğradığını ve Cuma sabahı devam edeceğini duyurdu ve “çok ilerleme”den bahsetti. Biyometrik verilerin kullanımı ve temel modellerin düzenlenmesi konusunda devam eden tartışmalar var gibi görünüyor.

Reklamcılık



Veri kullanımı sorunu


Yapay Zeka Yasası, Avrupa Birliği Yapay Zeka stratejisinin bir parçasıdır. Bu aynı zamanda yapay zekanın tanıtımını da içerir. Yüz tanıma gibi biyometrik verilerin işlenmesi uzun zamandır tartışma konusu olmuştur. ChatGPT ve görüntü oluşturucular gibi hizmetlerin temelini oluşturan üretken yapay zeka ve temel modeller, kanun taslağı hazırlanırken başlangıçta çok az dikkate alındı, çünkü bunlar piyasada o kadar güçlü veya yaygın olarak mevcut değildi. Ancak son zamanlarda bu yapay zeka modellerinin düzenlenmesinin gerekip gerekmediği ve ne ölçüde düzenlenmesi gerektiği konusunda büyük bir tartışmaya ihtiyaç duyuldu.

Prensip olarak, yapay zeka (AI) yasası teknolojinin kendisini değil, yapay zekanın kullanıldığı uygulamaları düzenlemek istiyor. Bu amaçla AB risk temelli bir yaklaşım seçmiştir. Bu da bir piramit gibi yapılandırılmıştır. Düzenleme gerektirmeyen geniş bir hizmet tabanı vardır. Bu, örneğin yapay zekanın e-posta programlarındaki veya video oyunlarındaki spam filtrelerinde kullanımını içerir.

Chatbot gibi hizmetler “şeffaflık” düzeyi veya “sınırlı risk” olarak listeleniyor. Şimdiye kadar kullanıcıların bir makineyle konuşma konusunda bilgilendirilmesi gerektiği söyleniyordu. Yapay zeka tarafından oluşturulan veya yapay zeka tarafından düzenlenen metinler ve görseller söz konusu olduğunda ve bunların etiketlenmesinin gerekip gerekmediği sorusu sorunlu hale geliyor. Çağrı merkezlerinde mevcut olanlar gibi duyguları tanımaya yönelik derin sahtekarlıklar ve sistemler de bu kategoriye girer.

“Yüksek riskli” alan, tıbbi ve hukuki uygulamaları, işe alım yani işveren başvuru süreçlerini, trafik gibi kritik altyapıları ve Schufa puanlama sistemleri gibi insanların hayatını etkileyebilecek hizmetleri içermektedir. Bu uygulamaların piyasaya çıkmadan önce AI Act sertifikalı olduğu söyleniyor. Ayrıca sonrasında sürekli kontroller gerektirirler. Biyometri toplayan ve değerlendiren sistemlerin bu potansiyel riskli seviyede olduğu değerlendirilmektedir.

Piramidin tepesi, riski çok yüksek olarak sınıflandırılan ve bu nedenle kullanılamayan yapay zeka sistemlerinden oluşuyor. Buna Çin’de kullanılana benzer sosyal puanlama da dahildir.


(emw)



Haberin Sonu