ChatGPT & Co.: AB veri koruma görevlisi veri minimizasyonunu savunuyor

Oyseon

Active member
6 Kas 2020
1,033
0
36
Pazartesi günü, AB veri koruma komiseri Wojciech Wiewiórowski, AB yönetimi için üretken yapay zeka (AI) ve kişisel verilere ilişkin yönergeler yayınladı. Bunlarda, sohbet robotları ve dil modelleri çağındaki gizlilik sorununun yanı sıra Genel Veri Koruma Yönetmeliği'ndeki (GDPR) veri minimizasyonu ilkesiyle olan çelişkiyi de ele alıyor.


Reklamcılık



Wiewiórowski, yapay zeka çağında veri minimizasyonu ilkesinin geçerliliğini yitirdiğinin yanlış bir kanı olduğunu açıklıyor. Sonuçta işlenen kişisel verilerin ulaşılmak istenen amaç için “yeterli ve amacına uygun” ve “gerekli olanla sınırlı” olmasını sağlamaktır.

Kalite ve Miktar


Wiewiórowski makalede şöyle yazıyor: “Üretici bir yapay zeka sistemini eğitmek için büyük miktarlarda veri kullanmak, mutlaka daha fazla etkinlik veya daha iyi sonuçlar anlamına gelmez.” Önemli olan “iyi yapılandırılmış veri setlerinin dikkatli tasarımı”, nicelikten ziyade nitelik ilkesi, iyi izlenen bir eğitim süreci ve sonuçların düzenli olarak izlenmesidir.

Bu nedenle sorumlular, kişisel verilerin toplanmasını ve diğer şekilde işlenmesini gerekli olanla sınırlamak ve ayrım gözetmeksizin hareket etmemekle yükümlüdür. Kontrolöre göre AB kurumları, üretken yapay zeka modellerinin geliştirilmesinde ve kullanılmasında kişisel verilerin kullanımını en aza indirmeye yönelik mevcut prosedürlerin dikkate alınmasını sağlamalıdır.

Wiewiórowski, kişisel bilgilerin üretken yapay zeka sistemleri bağlamında işlenmesinin GDPR uyarınca “yasal bir temel gerektirdiğini” vurguluyor. Yasal bir yükümlülüğün uygulanması söz konusu ise bunun dayanağının AB hukukunda açık ve kesin bir şekilde tanımlanmış olması gerekir. GDPR'nin tüm gereksinimlerinin karşılanması gerektiğinden, rızanın yasal bir dayanak olarak kullanılması dikkatle incelenmelidir.

Yönetmelik ayrıca, “bireylerin temel hak ve özgürlüklerine yönelik yüksek risk oluşturması muhtemel” herhangi bir işleme faaliyeti öncesinde veri koruma etki değerlendirmesinin yapılmasını da zorunlu kılıyor. İlgili riskler, özellikle daha sonraki geliştirmeler ve güncellemeler sırasında, “üretken yapay zeka sisteminin yaşam döngüsü boyunca tanımlanmalı ve ele alınmalıdır”.

AI halüsinasyonları GDPR ile uyumlu değil


Wiewiórowski, operatörlerin büyük azaltma çabalarına rağmen “üretken yapay zeka sistemleri hâlâ hatalı sonuçlar üretme eğiliminde” diye yazıyor. Bu aynı zamanda temel haklar üzerinde olumsuz bir etkiye sahip olabilir ve GDPR'nin veri doğruluğu gerekliliğini ihlal edebilir. Bu odaklanmayla AB kurumlarının da yapay zeka sistemlerini sürekli izlemesi gerekecek.

Teknolojinin karar alma süreçlerini desteklemesi amaçlanıyorsa, AB kurumlarının yasallığı, adaleti ve ayrımcılık riskini dikkate alması gerekecektir. Bilgi edinme hakkı uyarınca, profil çıkarma ve otomatik karar verme durumunda, etkilenenlerin bunların mantığı, anlamı ve olası sonuçları hakkında anlamlı bilgiler alması gerekecektir.


(vbr)



Haberin Sonu