ChatGPT operatörü OpenAI, yapay zeka (AI) için planlanan AB düzenlemesinin önemli bölümlerinin zayıflatılması ve ABD şirketinin gereksinimlerinin azaltılması için kampanya yürüttü. Bu, Microsoft ortağı tarafından Eylül 2022’de ABD dergisi Time’ın bilgi edinme özgürlüğü talebi temelinde aldığı ve yayınladığı bir lobi makalesinden ortaya çıkıyor. OpenAI bu nedenle birkaç durumda, AB Parlamentosu’nun geçen hafta dünya çapında gözlemlenen yasama girişimi konusundaki pozisyonunda kabul ettiği ilgili değişiklikleri önerdi.
OpenAI, AB politikacılarına yönelik yedi sayfalık belgede, sonbaharda piyasaya çıkacak olan büyük dil modeli GPT-3’ün “kendi başına yüksek riskli bir sistem olmadığını” iddia ediyor. En iyi ihtimalle, “yüksek riskli kullanım durumlarında potansiyel olarak kullanılabilecek yeteneklere” sahiptir. Firma, genel amaçlı AI sistemleri etrafında önerilen ifadelerin yanlışlıkla tüm OpenAI modellerinin varsayılan olarak yüksek riskli olarak sınıflandırılmasına neden olabileceği konusundaki endişelerini dile getirdi. Şirket ayrıca eğitim ve istihdamda ChatGPT gibi üretken yapay zekanın belirli uygulamalarını etkinleştirme seçeneklerini de savundu. AB Komisyonu, orijinal yasa taslağında bu sektörleri yapay zeka için genel yüksek riskli kullanım durumları olarak gördü.
Becerikli kullanıcılar kilitleri kırar
Rapora göre Mart ayının sonunda OpenAI temsilcileri, AB yasa koyucuları ve düzenleyicileri ile yaptıkları bir toplantıda chatbot’un yarattığı tehlikelerin yönetilebilir olduğunu da iddia ettiler. AI’ya verilen talimatlar “örneğin, tehlikeli maddelerin üretimi hakkında bilgi vermeyi reddedecek şekilde” uyarlanabilir. Öte yandan, becerikli kullanıcılar ve araştırmacılar, bu tür programlanmış kilitlerin, belirli sorularla sözde hızlı enjeksiyonlarla kolayca geçersiz kılınabileceğini defalarca göstermiştir. Buna rağmen OpenAI, “sistemlerimizin genel amaçlı doğasından kaynaklanan riskleri azaltma yaklaşımımızın sınıfının en iyisi olduğundan” emin olduğunu söyledi.
Halk temsilcilerinin müzakerecilerinin şu anda Bakanlar Kurulu ve Komisyon ile nihai bir uzlaşmaya varmaya çalıştıkları, Avrupa Parlamentosu Üyeleri tarafından kabul edilen kursa göre, ChatGPT & Co. yüksek riskli teknoloji olarak sınıflandırılmamaktadır. baştan beri. Bununla birlikte, büyük miktarda kategorize edilmemiş veri üzerinde geniş ölçekte eğitilmiş ve genel bir çıktı için tasarlanmış yapay zeka temel modellerinin operatörleri, bunları sağlık, güvenlik, temel haklar, çevre, demokrasi ve hukukun üstünlüğüne yönelik öngörülebilir riskler açısından kontrol etmelidir. ve gerekirse bunları hafifletin. ChatGPT gibi üretici yapay zeka kategorisine girerlerse, ek şeffaflık gereksinimlerini karşılamaları ve AB yasalarını ihlal eden veya dezenformasyon ve “sahte haberler” yayan içerik oluşturmaya karşı uygun güvenlik önlemleri almaları gerekir.
OpenAI istediğini aldı mı?
Avrupa Dijital Haklar (EDRi) sivil haklar grubu politika danışmanı Sarah Chander, Time’a “İstediklerini aldılar” dedi. Lobi raporu, OpenAI’nin – birçok büyük teknoloji şirketi gibi – yapay zekanın kamu yararına ilişkin argümanı kendi “düzenlemeyi gevşetmedeki mali çıkarını” gizlemek için kötüye kullandığını gösteriyor. Access Now’dan Daniel Leufer, ChatGPT operatörünün temel olarak “Bize güvenin, biz kendimizi düzenleriz” dediğini ekliyor. OpenAI patronu Sam Altman, genel kuruldaki oylamadan önce teknolojinin spesifikasyonlarını defalarca talep etmişti. Öte yandan, AB’de hizmet vermeyi bırakmakla tehdit etti. Ama kendini bundan hızla uzaklaştırdı.
(mki)
Haberin Sonu
OpenAI, AB politikacılarına yönelik yedi sayfalık belgede, sonbaharda piyasaya çıkacak olan büyük dil modeli GPT-3’ün “kendi başına yüksek riskli bir sistem olmadığını” iddia ediyor. En iyi ihtimalle, “yüksek riskli kullanım durumlarında potansiyel olarak kullanılabilecek yeteneklere” sahiptir. Firma, genel amaçlı AI sistemleri etrafında önerilen ifadelerin yanlışlıkla tüm OpenAI modellerinin varsayılan olarak yüksek riskli olarak sınıflandırılmasına neden olabileceği konusundaki endişelerini dile getirdi. Şirket ayrıca eğitim ve istihdamda ChatGPT gibi üretken yapay zekanın belirli uygulamalarını etkinleştirme seçeneklerini de savundu. AB Komisyonu, orijinal yasa taslağında bu sektörleri yapay zeka için genel yüksek riskli kullanım durumları olarak gördü.
Becerikli kullanıcılar kilitleri kırar
Rapora göre Mart ayının sonunda OpenAI temsilcileri, AB yasa koyucuları ve düzenleyicileri ile yaptıkları bir toplantıda chatbot’un yarattığı tehlikelerin yönetilebilir olduğunu da iddia ettiler. AI’ya verilen talimatlar “örneğin, tehlikeli maddelerin üretimi hakkında bilgi vermeyi reddedecek şekilde” uyarlanabilir. Öte yandan, becerikli kullanıcılar ve araştırmacılar, bu tür programlanmış kilitlerin, belirli sorularla sözde hızlı enjeksiyonlarla kolayca geçersiz kılınabileceğini defalarca göstermiştir. Buna rağmen OpenAI, “sistemlerimizin genel amaçlı doğasından kaynaklanan riskleri azaltma yaklaşımımızın sınıfının en iyisi olduğundan” emin olduğunu söyledi.
Halk temsilcilerinin müzakerecilerinin şu anda Bakanlar Kurulu ve Komisyon ile nihai bir uzlaşmaya varmaya çalıştıkları, Avrupa Parlamentosu Üyeleri tarafından kabul edilen kursa göre, ChatGPT & Co. yüksek riskli teknoloji olarak sınıflandırılmamaktadır. baştan beri. Bununla birlikte, büyük miktarda kategorize edilmemiş veri üzerinde geniş ölçekte eğitilmiş ve genel bir çıktı için tasarlanmış yapay zeka temel modellerinin operatörleri, bunları sağlık, güvenlik, temel haklar, çevre, demokrasi ve hukukun üstünlüğüne yönelik öngörülebilir riskler açısından kontrol etmelidir. ve gerekirse bunları hafifletin. ChatGPT gibi üretici yapay zeka kategorisine girerlerse, ek şeffaflık gereksinimlerini karşılamaları ve AB yasalarını ihlal eden veya dezenformasyon ve “sahte haberler” yayan içerik oluşturmaya karşı uygun güvenlik önlemleri almaları gerekir.
OpenAI istediğini aldı mı?
Avrupa Dijital Haklar (EDRi) sivil haklar grubu politika danışmanı Sarah Chander, Time’a “İstediklerini aldılar” dedi. Lobi raporu, OpenAI’nin – birçok büyük teknoloji şirketi gibi – yapay zekanın kamu yararına ilişkin argümanı kendi “düzenlemeyi gevşetmedeki mali çıkarını” gizlemek için kötüye kullandığını gösteriyor. Access Now’dan Daniel Leufer, ChatGPT operatörünün temel olarak “Bize güvenin, biz kendimizi düzenleriz” dediğini ekliyor. OpenAI patronu Sam Altman, genel kuruldaki oylamadan önce teknolojinin spesifikasyonlarını defalarca talep etmişti. Öte yandan, AB’de hizmet vermeyi bırakmakla tehdit etti. Ama kendini bundan hızla uzaklaştırdı.
(mki)
Haberin Sonu