İlkelerin ihlali: OpenAI, bir seçim kampanyası adayının ChatGPT botunu engelliyor

Oyseon

Member
6 Kas 2020
897
0
16
Cuma günü OpenAI, geliştiricilerin ABD'li Demokrat Dean Phillips ile konuşmaları simüle eden bir yapay zeka için kullanılan ChatGPT'ye erişimini engelledi. Yapay zeka, Phillips'i resmi olarak destekleyen bir kampanya organizasyonu (Super PAC) olan “We Deserve Better” adına ABD'li startup Delphi'den geldi. Bu Washington Post tarafından bildirildi.

Reklamcılık



İlgilenen taraflar, Dean.Bot adı verilen yapay zeka ile gerçek zamanlı görüşmeler yapabilir. Daha önce, gerçek başkan adayıyla değil, bir yapay zekayla konuştukları konusunda bilgilendirilmişlerdi; bunu kabul ettiklerini onaylamaları gerekiyordu.

Lobicilik ve siyasi kampanyaların yasaklanması


Ancak bu OpenAI için yeterli değil: Şirket sözcüsü Lindsey Held, yapay zekanın ABD seçim kampanyası için belirlenen ilkeleri ihlal ettiğini söyledi. OpenAI'nin yakın zamanda ABD başkanlık seçimleri için belirlenen ilkeleri, ChatGPT'nin siyasi kampanyalar ve lobi faaliyetleri için kullanılmasını yasaklıyor. Chatbotların gerçek kişi veya kurummuş gibi davranmasına da izin verilmiyor.

Kampanya organizasyonu Silikon Vadisi girişimcileri Matt Krisiloff ve Jed Somers tarafından kuruldu. Phillips yapay zekanın OpenAI düzenlemelerini ihlal ettiğine dair ilk belirtilere yanıt olarak Krisiloff, Delphi'den yapay zekayı açık kaynak tekniklerine dönüştürmesini istedi. Ancak OpenAI, Delphi'nin geliştirici erişimini engelledikten sonra Delphi, botu tamamen çevrimdışı duruma getirdi. Yasak, Salı günü New Hampshire'da yapılacak ABD ön seçimlerinden kısa bir süre önce yürürlüğe girecek.

Yapay zeka destekli kampanya botlarının savunucuları, bu tür araçların potansiyel seçmenleri daha iyi bilgilendirdiğini vurguluyor. Rakipler, araçların şeffaf bilgilerle bile tehlikeli olduğundan korkuyor. Örneğin, aradığınız seçmenlerin partilerin gerçek adaylarıyla konuştuklarına inanabilecekleri toplu telefon görüşmeleri yapmak için bunu kullanabilirsiniz.


(Evet)



Haberin Sonu