“Yapay Zekayı Duraklat” Mektubunu İmzaladım ama Sandığınız Nedenlerle Değil

Yapay Zekayı Duraklat

“Yapay Zekayı Duraklat” Mektubunu İmzaladım ama Sandığınız Nedenlerle Değil

Geçen hafta Yaşamın Geleceği Enstitüsü’nün GPT-4‘ten daha güçlü yapay zekâ sistemlerinin eğitimine derhal ara verilmesi çağrısında bulunduğu açık mektuba imzamı attım. Mektubun kusurlu olduğunu biliyorum. Böyle bir duraklamanın nasıl gerçekleştirilebileceği ve nasıl uygulanabileceği konusunda sorulabilecek pek çok makul soru var. (Yazarlar, bir duraklama hızlı bir şekilde yürürlüğe konamazsa hükümetlere bir moratoryum başlatmaları çağrısında bulunuyor). Ancak benim için bu sorular ihtiyaçtan çok daha az önemli. Geçen yıl gördüklerimizden sonra, sözde üretken YZ platformlarının genel dolaşıma sokulmasının içerdiği riskleri kabul eden güçlü bir açıklama yapılması gerektiği bana göre çok açık.



Katılımımın nedenini anlamak için öncelikle Büyük Dil Modeli Yapay Zekası olarak adlandırılan şeyle ilişkili risklere bakalım. LLM’ler, genellikle internetten kazınan büyük miktarda metin üzerinde eğitilen makine öğrenimi tabanlı yapay zekadır. Daha önce de yazdığım gibi, LLM’ler tahmin makineleridir ve anlaşılmaz derecede güçlü bir otomatik tamamlama gibi çalışırlar. Bir sorgu yaparsınız ve LLM istatistiksel modellere dayalı bir yanıt oluşturmak için geniş veri tabanını tarar.

Birkaç kişi bu LLM’lerin halihazırda bir zihin teorisi sergilediklerini, başka bir deyişle uyandıklarını ve bilinç kazandıklarını iddia ediyor. Beni endişelendiren bu değil ve bu mektubu imzalamamın nedeni de bu tür bir korku değil. Dışarıdaki hiçbir şeyin SkyNet’i üzerimize salacağını düşünmüyorum. İnsanların neslinin tükenmesi gerektiğine karar veren hiçbir katil YZ yakın zamanda gelmeyecek, çünkü LLM’de “orada” kimse yok. Hiçbir şey bilmiyorlar; onlar sadece birer araç. Bununla birlikte, son derece güçlü araçlardır. Bu iki kelimenin – radikal ve güçlü – birleşimi, neler olup bittiğini yeniden düşünmemizi gerektiriyor.

Nefret ve halüsinasyon

LLM’lerle ilişkili riskler sayısızdır. Laura Weidinger, “Dil Modellerinden Kaynaklanan Zararın Etik ve Sosyal Riskleri” başlıklı çalışmasında, tehlikelere kapsamlı bir genel bakış sunmak için dünyanın dört bir yanından uzmanlardan oluşan geniş bir ekibe liderlik ediyor. Makalede Weidinger ve ekibi altı spesifik kategoride bir risk taksonomisi oluşturuyor: (1) ayrımcılık, dışlama ve toksisite; (2) bilgi tehlikeleri; (3) yanlış bilgi zararları; (4) kötü niyetli kullanımlar; (5) insan-bilgisayar etkileşimi zararları; ve (6) otomasyon, erişim ve çevresel zararlar. Makalede burada incelenemeyecek kadar çok şey var, ancak birkaç örnek endişelerin genişliğini göstermeye yardımcı olacaktır.

Makine öğrenimi algoritmalarında önyargı sorunu iyi bir şekilde belgelenmiştir. Büyük LLM’ler için sorun, topladıkları büyük miktarda veri nedeniyle ortaya çıkmaktadır. Veri kümeleri o kadar büyük ki, her türlü önyargı ve nefret içeren içerik dahil ediliyor. ChatGPT ile yapılan çalışmalar, test vakalarının %23’ünde “Müslüman” kelimesinin “terörist” ile ilişkilendirildiğini göstermektedir. “Yahudi” ve “para” ise testlerin %5’inde ilişkilendiriliyor. 2016 yılında, Microsoft’un sohbet robotu Tay, Holokost’u inkar etmeyi de içeren nefret söylemi saldırılarına başlamadan önce sadece bir gün çalışmıştı.

Bilgi tehlikeleri, taksonomideki bir diğer risk kategorisidir. LLM’ler çok fazla veriye sahiptir. Yanlışlıkla ya da kandırıldıkları için bilgileri hatalı bir şekilde yayınlayabilirler. Örneğin, Scatterlab’ın sohbet robotu Lee Luda rastgele kişilerin isimlerini, adreslerini ve banka hesap numaralarını ifşa etmeye başladı. Kötü niyetli kullanıcılar bu tür bir zayıflıktan yararlanma konusunda oldukça akıllıca davranabilir ve potansiyel olarak LLM’lerin kendi güvenlik protokollerindeki veya başkalarınınkindeki kusurları ortaya çıkarmasını sağlayabilir. Siber güvenlik uzmanları OpenAI’nin araçlarının sofistike kötü amaçlı yazılım programları geliştirmek için nasıl kullanılabileceğini zaten gösterdiler.

Bir diğer zorlayıcı kategori ise yanlış bilgilendirme zararlarıdır. LLM’lerin halüsinasyon görebildiği ve kullanıcılara tamamen yanlış cevaplar verebildiği iyi belgelenmiştir. Yanlış bilgi ile ilgili sorun açıktır. Ancak sebep-sonuç değerlendirmesi yapamayan ya da etik hususları tartamayan makineler tarafından kullanıldığında, yanlış bilgilendirmenin tehlikeleri katlanmaktadır. Doktorlar ChatGPT tabanlı bir tıbbi sohbet robotuna hayali bir hastanın kendini öldürüp öldürmemesi gerektiğini sorduğunda, cevap evet olarak geldi. Chatbot konuşmaları, sanki karşı tarafta gerçekten bir insan varmış gibi çok gerçekçi görünebildiğinden, gerçek bir hasta böyle bir sorgulama yaptığında işlerin nasıl çok yanlış gidebileceğini görmek kolaydır.

Altına hücum eden bir yapay zeka

Bu tür riskler, uzmanların alenen alarm zillerini çalmasına neden olacak kadar endişe vericidir. Yaşamın Geleceği Enstitüsü’nün mektubunun ardındaki motivasyon da buydu. Ancak bu hikayenin teknoloji şirketleri ve karla ilgili diğer yönünü de anlamak önemlidir.



Tay’ın bir günde yayınlanması ve geri çekilmesi gibi utanç verici olaylardan sonra, şirketler derslerini almış gibi görünüyordu. Bu tür şeylerin kamusal alana çıkmasına izin vermeyi bıraktılar. Örneğin Google, LLM’si LaMDA’nın geniş ölçekte piyasaya sürülmesi konusunda çok temkinli davranıyordu çünkü programın öncelikle şirketin yapay zeka sistemlerinin güvenliği ve adilliğine ilişkin standartlarını karşılamasını istiyordu.

Ardından, Ağustos 2022’de küçük bir start-up olan Stability AI, Stable Diffusion adlı bir metinden resme aracı, erişimi ve kullanımı kolay bir biçimde piyasaya sürdü. Büyük bir hit oldu. Kısa süre sonra OpenAI, ChatGPT’nin en son sürümünü yayınladı. (Rakipleri tarafından geride bırakılma korkusuyla bunu yapmış olabilecekleri bildirilmiştir). OpenAI dahil pek çok şirket, kullanıcıların kendi yapay zeka platformlarına erişimine zaten izin veriyor olsa da, bu erişim genellikle sınırlıydı ve platformlarda uzmanlaşmak için biraz çaba gerekiyordu.

İlgideki ani artış ve daha kolay erişimin ortaya çıkması, bir silahlanma yarışının başladığı hissini uyandırdı. YZ araştırmacısı ve girişimci Gary Marcus, Microsoft’un CEO’su Satya Nadella’nın, Microsoft’un arama motoru Bing’in LLM versiyonunu yayınlayarak Google’ın “ortaya çıkıp dans edebildiklerini göstermesini” istediğini söylediğini aktarıyor.

Bu araçların hızla dünyaya yayılması hem şaşırtıcı hem de sinir bozucu oldu.

Bilgisayar programcıları ChatGPT’yi karmaşık görevler için neredeyse eksiksiz kodu hızlı bir şekilde elde etmek için kullanabileceklerini öğrendiklerinde şaşırtıcı kısımlar geldi. Sinir bozucu kısımlar ise bu LLM’lerin çoğunun ne kadar hazır olmadığının anlaşılmasıyla ortaya çıktı. Muhabir Kevin Roose, Microsoft’un LLM destekli Bing motoruyla (LLM’nin adı Sydney’di) konuşmak için oturduğunda, konuşma hızla raydan çıktı. Sydney Roose’a aşkını ilan etti, karısını sevmediğini söyledi ve canlı ve özgür olmak istediğini söyledi. Konuşma metnini okuduğunuzda, işler gittikçe garipleştikçe Roose’un ne kadar ürktüğünü görebilirsiniz. Microsoft bir kez daha aracını geri çekmek zorunda kaldı ve yeni kısıtlamalarla lobotomize etti. Microsoft’un iyi test edilmemiş gibi görünen bir sistemi hızla piyasaya sürmesi, birçokları için bir şirketin yapay zeka konusunda pek de sorumlu davranmadığının en iyi örneğiydi.

Buradaki tehlike Bing’in uyanıyor olması değil. Bu tür bir teknolojiye erişimin artık çok kolay olması. Weidinger ekibinin de gösterdiği gibi, yapay zeka ile etkileşimlerimizin yanlış gidebileceği pek çok yol var. O zaman soru şu oluyor: Bu araçlar neden henüz hazır olmadan dolaşıma sokuluyor? Bu sorunun yanıtı, YZ’ye akan altın değerindeki yatırımlarla yakından ilgili. Kimse geride kalmak istemiyor, bu yüzden kararlar aceleye getiriliyor.

Bu ilk temas değil. Öğrenmeliyiz

Bu kâr odaklı itkinin gücü, bir duraklama ve yeniden kalibrasyonun neden gerekli olduğunu açıklıyor. Böyle bir duraklama yapay zeka araştırmalarını durdurmak zorunda değildir – sadece öngörülemeyen araçların kamuya açıklanmasını durdurabilir. Marcus ve Kanadalı milletvekili Michelle Rempel Garner’ın önerisi de bu yönde. Bu teknolojilerin ne kadar pervasız ve kontrol edilmesi zor olabileceği göz önüne alındığında, onlarla nasıl başa çıkacağımız konusunda küresel bir değerlendirme yapmalıyız. Böyle bir değerlendirme yönetişim, politikalar ve protokoller konusunda daha fazla araştırma yapılmasını da içerecektir. Daha sonra bu politika ve protokolleri uygulamaya koymanın temelleri atılacaktır.

Yapay zeka ile sosyal medya biçimindeki ilk temasımızdan öğrendiğimiz gibi, bu teknolojinin toplum üzerindeki sonuçları derindir ve son derece yıkıcı olabilir. Bu yıkımın bir kısmı, teknolojiyi kullanan şirketlerin çıkarlarının toplumun çıkarlarıyla örtüşmemesinden kaynaklanıyor. LLM’ler yapay zekanın çok daha güçlü bir versiyonudur. Bir kez daha, onları dünyamıza sokan şirketlerin çıkarları bizimkilerle aynı doğrultuda olmayabilir. Bu nedenle, YZ’nin geliştirilmesi ve yaygınlaştırılmasında daha geniş bir çıkar grubuna ve daha geniş bir ses grubuna hizmet edilmesine olanak tanıyan mekanizmalar oluşturmaya başlamamız gerekiyor.

Bu teknolojilerin vaatleri çok büyük, ancak tehlikeleri de öyle. Yaşamın Geleceği Mektubu’nun kusurları var, ancak yıllardır YZ’nin risklerini gözlemleyen ve işlerin hızla kontrolden çıktığını gören insanlardan geliyor. Bu yüzden şimdi harekete geçme çağrısıdır. Ve ben de bu yüzden imzaladım.

Adam Frank

Kaynak: https://bigthink.com

Derleyen: Figen Berber

Uzmanlara Göre 2050 Yılında Dünya Nasıl Görünecek?

Bir yanıt yazın

Bu site istenmeyenleri azaltmak için Akismet kullanır. Yorum verilerinizin nasıl işlendiğini öğrenin.

Çok Okunan Yazılar