Güvenlik: ABD ve İngiltere yapay zekayı birlikte test etmek istiyor

Oyseon

Active member
6 Kas 2020
1,515
0
36
Hem ABD hem de Birleşik Krallık'ın yapay zeka modelleri için kendi yönergeleri vardır. Bu aynı zamanda güvenlik açısından da kontrol edilmeleri gerektiği anlamına gelir. Artık iki ülke yapay zekayı olası risklere karşı izlemek ve test etmek için en az bir ortak test geliştirmek ve yürütmek istiyor.

Reklamcılık



Ortak incelemelere ek olarak, tüm bilgilerin yakın bir şekilde paylaşılması ve birbirlerinin uzmanlarıyla iletişime geçme fırsatlarının da olması gerekir. Birleşik Krallık hükümetinin bir basın açıklamasında, “Yapay zeka hızla gelişmeye devam ediyor ve her iki hükümet de teknolojinin ortaya çıkan risklerine ayak uydurabilecek yapay zeka güvenliğine yönelik ortak bir yaklaşım sağlamak için hemen harekete geçme ihtiyacının farkında” dedi. ABD ile İngiltere arasındaki anlaşma iki ülkeyle sınırlı kalmamalı. Dünyadaki tüm ülkelerle daha fazla ortaklık planlanmaktadır.

ABD, İngiltere ve AB'deki yapay zeka düzenlemeleri


Bu nedenle ortak enstitünün görevleri, geçen Kasım ayında Yapay Zeka Güvenliği Zirvesinde tartışılan gerekli görevlere de karşılık geliyor. Çok sayıda ülkeden temsilciler ve bazı büyük yapay zeka sağlayıcıları, teknolojinin fırsatları ve riskleri hakkında konuşmak için bir araya geldi. Sonuç, ABD, İngiltere, Avrupa ülkeleri, Suudi Arabistan ve Çin'in yanı sıra 28 ülkenin imzaladığı “Bletchley Deklarasyonu” oldu. Bildirinin temel amacı toplumsal etkileri olan güvenlik risklerini belirlemektir.

ABD'de Başkan Joe Biden yapay zekayı düzenlemeyi amaçlayan bir kararname yayınladı. Ancak başlangıçta yapay zeka modellerini test etmesi gereken federal yetkilileri hedef alıyor. Bunun için öncelikle testler ve standartlar geliştirip potansiyel riskleri tanımlamaları gerekiyor. Büyük Britanya çok sayıda yapay zeka programı başlattı. Bu aynı zamanda düzenleyici otoritelerden yapay zeka ile nasıl başa çıkılacağına dair konseptleri Nisan ayında sunmalarının istendiği anlamına da geliyor. Örneğin, veri koruma yetkilisi yapay zeka sistemlerinde veri güvenliğinin nasıl olduğunu ve nelerin dikkate alınması gerektiğini sunmalıdır.

Avrupa Yapay Zeka Yasası yakın zamanda AB Parlamentosu tarafından reddedildi. Bazı durumlarda zaten biraz daha spesifik düzenlemeler sağlamaktadır. Sosyal puanlama, yani yapay zeka kullanan vatandaşların sistematik olarak izlenmesi gibi özellikle riskli bazı yapay zeka sistemleri kullanılmayabilir bile. Diğer sistemler yalnızca ulusal güvenliğin risk altında olduğu gerçek zamanlı biyometrik gözetim gibi istisnai durumlarda kullanılabilir. Öte yandan Genel Amaçlı Yapay Zeka (GPAI) olarak adlandırılan yapay zeka çok az düzenlemeye tabidir. Ancak: Burada da standartlar ve izleme mekanizmaları geliştirilmeye devam ediliyor. GPAI'nin risklerinin ne olduğu henüz kesin olarak müzakere edilmemiştir.


(emw)



Haberin Sonu