Elon Musk geçen ay yeni yapay zeka şirketi xAI’nin arkasındaki ekibi duyurduğunda, misyonunun “evrenin gerçek doğasını anlamak” olduğu iddia ediliyordu ve bu, yapay zekanın vaatleri ve tehlikeleri hakkındaki varoluşsal endişeleri yanıtlamanın ne kadar kritik olduğunu vurguladı.
Yeni kurulan şirket, teknolojinin potansiyel risklerini azaltmak için davranışını gerçekten nasıl uyumlaştırabilir, yoksa yalnızca OpenAI’e karşı avantaj elde etmeye mi çalışıyor, bilinmez. Ancak şirketin kurulması, şirketlerin yapay zeka ile ilgili endişelere nasıl yanıt vermesi gerektiği konusunda önemli soruları gündeme getiriyor. Özellikle:
- İçeride, özellikle en büyük temel model şirketlerinde, aslında inşa ettikleri teknolojinin kısa ve uzun vadeli etkileri hakkında sorular soran kim?
- Sorunlara uygun bir bakış açısı ve uzmanlıkla mı yaklaşıyorlar?
- Teknolojik düşünceleri toplumsal, ahlaki ve epistemolojik sorunlarla yeterince dengeliyorlar mı?
Üniversitede, bilgisayar bilimi ve felsefe ana dalı yapmıştım ve o zamanlar bu ikisinin uyumsuz bir kombinasyon gibi görünmesine rağmen, şimdi şirketlerin yapay zeka konusundaki düşünme şekli bağlamında bu kadar uyumsuz değil gibi görünüyor. Yapay zekanın etkilerinin bahisleri varoluşsal düzeyde ve şirketler, bu bahislerin değerinde gerçek bir taahhüt yapmalılar.
Bu, liderlik ekiplerini, inşa ettikleri teknolojinin sonuçlarını sıralamak için yeterli donanıma sahip olan paydaşlarla doldurmayı gerektirir – ki bu, kod yazan ve API’ları güçlendiren mühendislerin doğal uzmanlık alanının ötesindedir.
Yapay zeka yalnızca bir bilgisayar bilimi sorunu, nörobilim sorunu veya optimizasyon sorunu değildir. Bu, bir insan sorunudur. Bunu ele almak için, 1940’ların başlarında New Mexico çölünde (benim doğduğum yer) Oppenheimer’ın disiplinler arası bir toplantıyla eşdeğer kapsamda kalıcı bir “zeka buluşması” yaklaşımını benimsememiz gerekiyor.
İnsan isteğinin yapay zekânın istenmeyen sonuçlarıyla çarpışması, araştırmacıların “uyum sorunu” olarak adlandırdığı şeyi ortaya çıkarır, ki bu, Brian Christian’ın “Uyum Sorunu” kitabında ustaca açıklanmıştır. Temelde makineler, en kapsamlı talimatlarımızı yanlış anlama eğilimindedir ve biz, onların iddia edilen ustaları olarak, onlara ne yapmalarını istediğimizi tam olarak anlatma konusunda kötü bir sicile sahibiz.
Net sonuç: Algoritmalar önyargıyı ve yanlış bilgiyi ilerletebilir ve böylece toplumumuzun dokusunu aşındırabilir. Daha uzun vadeli, daha distopik bir senaryoda ise, “ihanet edici bir dönüş” yapabilirler ve sivilizasyonumuzun işleyişine fazla kontrol verdiğimiz algoritmalar bizi aşabilirler.
Oppenheimer’ın karşılaştığı zorluğun bilimsel bir yanı varken, etik yapay zeka, neyin olduğu, ne istediğimiz, ne bildiğimiz ve zekânın nasıl geliştiği hakkında derin bir anlayış gerektirir. Bu kesinlikle analitik bir görev olsa da doğası gereği tamamen bilimsel değildir. Hem insan bilimleri hem de bilimlerden gelen eleştirel düşünmeye dayanan bütüncül bir yaklaşım gerektirir.
Farklı alanlardan düşünürler şimdi daha önce olduğundan daha yakın çalışmalıdır. Bu gerçekten doğru yapmak isteyen bir şirket için ideal bir ekip şu şekilde görünebilir:
- Baş Yapay Zeka ve Veri Ahlakçısı: Bu kişi, veri ve yapay zeka ile ilgili kısa ve uzun vadeli sorunları ele alır, ancak bunlarla sınırlı olmamak üzere etik veri prensiplerini açıklama ve benimseme, etik veri kullanımı için referans mimarilerinin geliştirilmesi, vatandaşların verilerinin nasıl tüketildiği ve yapay zeka tarafından nasıl kullanıldığı hakkında hakları, ve yapay zeka davranışını şekillendirmek ve yeterince kontrol etmek için protokoller. Bu, teknolojiyi yürütmek yerine teknoloji planını yürüten baş teknoloji görevlisinden ayrılmalıdır. Bu, iç karar vericiler ile düzenleyiciler arasındaki iletişim boşluğunu köprüleyen CEO’nun kadrosundaki üst düzey bir roldür. Bir veri ahlakçısını bir baş yapay zeka ahlakçısından ayıramazsınız: Veri, yapay zeka için önkoşuldur ve yapay zeka kendisi yeni veri üretir.
- Baş Felsefe Mimar: Bu rol, daha uzun vadeli, varoluşsal endişeleri ele alırken “Uyum Sorunu”na odaklanır: AI’yi insan ihtiyaçları ve amaçlarıyla mümkün olduğunca uyumlu hale getirmek için nasıl güvenceler, politikalar, arka kapılar ve kill switch’ler tanımlanır.
- Baş Nörobilimci: Bu kişi, sentiyansın kritik sorularını ve yapay zeka modelleri içinde zekânın nasıl geliştiği sorularını ele alır, hangi insan biliş modellerinin yapay zeka geliştirmek için en uygun ve faydalı olduğu, ve yapay zekanın insan bilişi hakkında bize ne öğretebileceği konusunda neyin en relevant olduğunu değerlendirir.
Kritik olarak, hayal takımının çıktılarını sorumlu, etkili teknolojiye dönüştürebilmek için “Üçlü” tarafından ortaya konan soyut kavramları ve soruları çalışan yazılıma çevirebilen teknologlara ihtiyacımız var. Tüm çalışan teknoloji grupları gibi, bu, baş felsefe mimarının öngördüğü gibi koruma, arka kapılar ve kill switch’leri uygulamak için “İnsan Döngüsü” iş akışlarını hayal etme ve tasarlama yeteneğine dayanır. Baş yapay zeka ve veri ahlakçısının politika ve protokollerini çalışan sistemlere çevirme yeteneğine sahip bir rönesans mühendisinin yeteneklerine ihtiyaç duyar. Baş nörobilimcinin daha akıllı, daha sorumlu yapay zeka ortaya çıkarma potansiyeline sahip bulguları yeterince anlamasını sağlamak için makineler ve zihinler arasında hareket etme çabalarına değer vermelidir.
OpenAI gibi bu iş gücü sorununu çözmekle uğraşan iyi gelişmiş, son derece etkili, temel model şirketi örneklerinden birine bakalım: Baş Bilimci (aynı zamanda kurucularından biri), küresel politika sorumlusu ve genel hukuk danışmanı var.
Ancak, yukarıda belirttiğim üç pozisyon da yürütme liderliği pozisyonlarında olmadan, teknolojilerinin sonuçlarıyla ilgili en büyük sorular ele alınmamış kalır. Sam Altman, süperzeka’nın tedavi ve koordinasyonuna yaklaşma konusunda endişeliyse, eksiksiz bir kadro oluşturmak iyi bir başlangıç noktasıdır.
Daha sorumlu bir gelecek inşa etmek zorundayız, bu nedenle şirketlerin insanların verilerinin güvendiği gözetmenler olduğu ve yapay zeka destekli yeniliğin iyi ile eşanlamlı olduğu bir gelecek. Geçmişte, hukuk ekipleri gibi ekipler gizlilik gibi konuları taşıdılar, ancak en parlakları, yapay zeka çağında etik veri kullanımı sorunlarını yalnız başlarına çözemeyeceklerini fark ediyorlar.
Kararların alındığı masaya geniş görüşlü, farklı perspektifler getirmek, insan refahı hizmetinde etik veri ve yapay zekayı başarmak için tek yoldur – makineleri yerlerinde tutarak.