Ester Dyson: “Yapay zeka anlamadığımız bir şey”

Oyseon

Member
6 Kas 2020
902
0
16
Ester Dyson, yapay zekayla başa çıkma stratejileri olarak bağımlı iş modellerinin daha iyi anlaşılmasını ve daha iyi düzenlenmesini öneriyor. Bu yıl Münih'te düzenlenen Dijital Canlı Tasarım Konferansı'nda internet öncüsü, insanlara sevilen yapay zekaları eğitmenin yanı sıra bebekleri de eğitmeyi unutmamaları çağrısında bulundu. Haberler çevrimiçi sordu.

Reklamcılık



çevrimiçi Haberler: Yapay zeka konferans programlarına hakimdir, DLD de bir istisna değildir. Çalışma tanımları nedir?

Esther Dyson: En iyi işe yarayan tanım 'Yapay zeka henüz tam olarak anlamadığımız şeydir'. Anladığımız şeylere Transformers veya Büyük Dil Modelleri (LLM) gibi başka isimler veriyoruz, hatta ondan önce mantıksal sistemler veriyoruz. Yapay zeka biraz insan zekasına benziyor. O kadar çok oyun türü var ki. Matematiksel düşünebiliyorsunuz, nedenselliği fark edebilme yeteneğine sahipsiniz. Örneğin, bir Yüksek Lisans, oynadığımız metaforları anlamıyor.

Yapay zeka ile görüntü tanıma, otomatik çeviri veya eski güzel Nesnelerin İnterneti gibi şeyler arasındaki çizgiyi nerede çiziyorsunuz?

Veya robotlardan. Yapay zekanın gelişen bir iş fikri olduğuna inanıyorum. Herkes bunun hakkında konuşuyor. Kârınızı artırmak veya insanları bir şeye inandırmak istiyorsanız, ihtiyacınız olan tek şeyin yapay zekayı kontrol eden insanlar üzerinde kontrol sahibi olmak olduğunu ilan edersiniz.

DLD kurucusu Steffy Czery'e göre “Yapay zekaya değil çocuklarımıza yatırım yapalım” konusunu tartışmayı önerdiniz…

Orijinal başlığım şuydu: “Yapay zekalarımızın eğitimi konusunda bu kadar telaş yapmamalıyız. Bebeklerimizi eğitelim” dedi. Panel ağırlıklı olarak örgün eğitime ilişkindi. Ondan önce başlamak istiyorum. Dünyayı tanımayı ve onun hakkında düşünmeyi ebeveynlerimizden nasıl öğreniriz? Kısacası çocukları iyi bir eğitime hazırlamak zorundayız.

Yapay zeka iyi bir öğretmen midir?

Evet ama insanların aynı zamanda insan yetiştiricilerine de ihtiyacı var. Çocukların kendilerinin ve başkalarının motivasyonlarını anlamayı öğrenmeleri gerekir. Şüphecilere güveniyor olmalılar. Bir yandan anlama ve güvende hissetme yeteneği, diğer yandan da birisi bana neden bir şey anlatıyor diye sorabilme yeteneği. Gerçekten ne istiyor ve ayrıca neden beni mutsuz eden bu kişiyi dinliyorum – bu çok yararlı bir araçtır.

Kritik muhakemeyi kaybedersek, örneğin yazılım tasarımında, bir kodlayıcının kullandığı yapay zeka sisteminin neden kendisi için belirli bir şekilde bir yazılım parçası yazdığını artık bilmemesi riskiyle karşı karşıya mıyız?

Esther Dyson: Evet, tam da bu noktada dikkatli olmamız gerekiyor. On vakadan dokuzunda, birisinin bana bir şeyi daha iyi satmak için, olası zararı düşünmeden bir şeyde ince ayar yapması riskiyle karşı karşıyayız.

Benim için kod üreten bir makineye bağımlı olmaktan nasıl kaçınırsınız?

İnsanların öğrenmesi gereken şey budur. Sağlıklı şüpheciliği sürdürmeli, sonuçları kontrol etmeli ve tehlikeli iş modellerini yasaklamalılar, kurallara aldırış etmeyin. Kodun oynadığı rol çok açık değil. Sonuçlara bakmak lazım.

Yapay zekanın aşılandığı bir gelecek için en kötü senaryonuz nedir?

Bu yapay zeka ilerici bir kaos getiriyor, giderek daha fazla insan kendini yetersiz hissediyor, giderek daha fazla şüpheleniyor ve 'Her' filmindeki gibi yapay zekalara aşık olmaya başlıyor. Az önce insanların yapay zekalarına nasıl aşık olmaya başladıklarından bahseden bir Google mühendisiyle konuştum. Bunun iyi olduğunu çünkü onu mutlu ettiğini söyledi. Böyle bir şey beni derinden korkutuyor. Yapay zekanızın size ihtiyacı yok, bu iki yönlü bir ilişki değil. Toplumumuz parçalanıyor, özellikle de pek çok insanın giderek mutsuz olması ve psikolojik sorunlar yaşaması nedeniyle. Bu durum ABD'de özellikle kızlar ve erkekler arasında hızla artıyor. Çevre onarılsa bile insanlığa yine çok büyük zarar verilecek. Hiçbir şekilde yapay zekaya veya onun kullanımına karşı değilim. Ama bunun, gerçekten soyguna yönelik iş modellerini ve siyasi modelleri güçlendirdiği fikrine kesinlikle karşıyım.

Bu düzenlenmeli mi?

Zorundayız. Ancak daha önce de belirtildiği gibi iş modellerine, bunların ne gibi etkilere sahip olduğuna ve hangi hedefleri takip ettiğine odaklanılmalıdır. Çok fazla insanın zarar gördüğünü gördüğümüz şirketleri, alkolü veya TikTok'u düzenlememiz gerekiyor. İş modelleri ile müşteri etkileri arasında korelasyon oluşturmak için yapay zekayı kullanabiliriz. Teşhisin yapay zeka kullanılarak mı konulduğu ya da Filipinler'deki işçilerin bunu yapıp yapmadığı umurumda değil, eğer müşterilerin psikolojik sorunları varsa, buna uygun teklifleri düzenlemek zorundayız.

İş modellerini düzenlemek kulağa pek Amerikanvari gelmiyor. Aleph Alpha gibi start-up'lar DLD'yi kapasiteyi inovasyondan uyumluluğa yönlendirebileceği konusunda uyarmasına rağmen AB Yapay Zeka Yasasının hayranı mısınız?

Bu, emniyet kemerlerinin çok pahalı olduğunu söylemek gibi bir şey. Hiçbir şey yapmamanın maliyetini düşündüğünüzde bu sadece bir bahanedir. AB Yapay Zeka Yasasını yorum yapacak kadar iyi bilmiyorum.

ayrıca oku

Daha fazla göster



daha az göster




Yapay zeka denetimi hakkında konuştuğunuzda bunu kim yapmalı? Yeni kurumlar, otoriteler mi?

Hükümetlere ihtiyacımız var. Aynı zamanda bu hepimiz için kolektif bir görevdir. Yeni yapay zeka düzenleyicilerine ihtiyacımız olduğunu düşünmüyorum. Sağlık sorunlarından, çevre sorunlarından, gıda ürünlerinden ve daha birçok şeyden sorumlu yetkililerimiz var. Yapay zeka tabanlı iş modellerini ve bunların sosyal etkilerini de hesaba katmalarını sağlamalıyız.

Bu, anlayışın ve yeniliğin (halüsinasyon yaratan şey) tamamen insani kaldığı anlamına mı geliyor?

Şimdilik evet. Eğer elektronik ve insanlardan daha iyi bir şey ortaya çıkarsa, insan şovenisti olmak istemiyorum. Ancak bunun için yeni bir röportaja ihtiyacımız var.


(emw)



Haberin Sonu