OpenAI, AI endüstri derneğinin ve yeni güvenlik ekiplerinin başına geçti

Oyseon

Member
6 Kas 2020
897
0
16
Frontier Model Forum, Google, Anthropic, OpenAI ve Microsoft tarafından kurulan bir endüstri birliğidir. Kuruluş, sözde “sınır yapay zeka modelleri”nin güvenli ve sorumlu bir şekilde geliştirilmesi ve kullanılmasıyla ilgilenmelidir. Chris Meserole artık İcra Direktörü olarak atandı. OpenAI’de yeni bir “Hazırlık Ekibi”nin yanı sıra 10 milyon dolarlık bir fon da açıklandı. Duyurular Birleşik Krallık Yapay Zeka Güvenliği Zirvesi’nin başlamasından hemen önce geldi.

Reklamcılık



“Sınır Yapay Zeka Modelleri” aynı zamanda yapay zeka öncü modelleri olarak da bilinir. OpanAI’nin blog gönderisine göre Meserole, yeni teknolojilerin ve gelecekteki uygulamaların kontrolü ve güvenliği alanlarında birçok deneyim getiriyor. Son olarak Washington DC’deki bir tür düşünce kuruluşu olan Brookings Enstitüsü’nde Yapay Zeka ve Gelişen Teknoloji Girişimi’nin direktörlüğünü yaptı. Sorumlulukları arasında öncü modellerin potansiyel risklerini en aza indirmek, güvenlik prosedürlerini belirlemek ve politika yapıcılar, bilim insanları, sivil toplum ve diğerleriyle bilgi paylaşımını teşvik etmek yer alıyor. Aynı zamanda “toplumun en büyük zorluklarının üstesinden gelmek için yapay zekayı kullanma” çabalarını destekleme yönündeki asil hedefi de takip etmelidir.

İklim değişikliğini durdurun, kanseri tespit edin ve yapay zeka sistemlerini test edin


Endüstri derneği 2023 yazında kuruldu. Dört kurucu şirket, kitlesel pazar, üretken yapay zeka ürünlerinin ana sağlayıcıları olarak güvenle görülebilir. ChatGPT, Bing, Bard ve Claude ücretsiz olarak mevcuttur ve milyonlarca kişi tarafından kullanılmaktadır. Tüm ortaklar tarafından ayrı ayrı yayınlanan basın bültenlerine göre, Frontier Model Forum’un dört temel hedefi var: Yapay zeka güvenlik araştırmalarını teşvik etmek, model geliştirme ve kullanıma sunma süreci için en iyi uygulamaları belirlemek, güven ve Güvenlik riskleri hakkındaki bilgileri paylaşmak ve destek sağlamak için harici taraflarla işbirliği yapmak. “Toplumun en büyük zorluklarına çözüm bulmak” için yapay zeka modellerinin geliştirilmesi; bu, örneğin iklim değişikliği ve kanserin erken teşhisi anlamına geliyor.

OpenAI ayrıca yeni bir fonun da duyurusunu yapıyor ve şunları söylüyor: “Geçtiğimiz yıl boyunca sektör, yapay zeka yeteneklerinde önemli ilerlemeler kaydetti. Bu ilerlemeler hızlandıkça, yapay zeka güvenliği alanında yeni akademik araştırmalara ihtiyaç var.” Fonun dünya çapındaki bağımsız araştırmacıları desteklemesi amaçlanıyor. Frontier Model Forum’un kurucu üyelerine ek olarak, finansman taahhütleri aynı zamanda “hayırsever ortaklar”dan, Patrick J. McGovern Vakfı’ndan ve David ve Lucile Packard Vakfı’ndan da geliyor.

Forum üyeleri, sistemlerindeki güvenlik açıklarını bildirmeyi kolaylaştıran gönüllü bir yapay zeka taahhüdü imzaladı. Fon da bu amaçla kullanılacak. Ancak, kırmızı ekip oluşturma, yani sistemlerin kontrol edilmesi ve değerlendirilmesi üzerinde odaklanılmalıdır. Bu amaçla OpenAI hemen hemen her disiplinden insanları arıyor. “Geçtiğimiz birkaç ay boyunca Forum, temel bir anlayışa sahip olabilmemiz için bir dizi ortak terim, kavram ve süreç tanımı geliştirmeye çalıştı. Bu, araştırmacıların, hükümetlerin ve diğer endüstri meslektaşlarının şu konulardaki tartışmaları desteklemesine olanak tanıyacak: Yapay Zeka -Güvenlik ve yönetişim sorunları aynı başlangıç noktasından başlar.”

OpenAI’den Hazırlık Ekibi


OpenAI ayrıca kırmızı takım oluşturma gibi şeylerle ilgilenecek yeni bir ekip kurdu. “Hazırlık ekibi, Aleksander Madry’nin liderliği altında, öncü modeller için beceri değerlendirmesi, değerlendirmeler ve dahili kırmızı ekip oluşturmayı yakından entegre edecek.” Bu, yakın gelecekte geliştirilecek modeller için, AGI düzeyinde yeteneklere sahip olanlara kadar geçerlidir. Ekibin özel görevleri arasında siber güvenlik, kimyasal, biyolojik, radyolojik ve nükleer tehditlerin yanı sıra otonom kopyalama ve adaptasyon (ARA) da yer alıyor. OpenAI ayrıca bu ekip için çalışanlar arıyor.

Yapay zeka sistemlerinin güvenliğine yönelik bu yatırım, çok sayıda politikacının, şirketin ve sivil toplum temsilcisinin yapay zeka düzenlemelerini tartışmak üzere bir araya geleceği Birleşik Krallık’taki Yapay Zeka Güvenliği Zirvesi’nin hemen öncesinde gerçekleşiyor. OpenAI şöyle yazıyor: “Zirveye katkılarımızın bir parçası olarak, gönüllü taahhütlerimiz kapsamındaki çalışmalar da dahil olmak üzere sınır yapay zeka güvenliği konusundaki ilerlememizi ayrıntılı olarak anlattık.”


(emw)



Haberin Sonu