Google Ve Oxford Araştırmacıları Yapay Zekayı Değerlendirdi: “Hileye Başvurabilir, İnsanları Ortadan Kaldırabilir”

Google Ve Oxford Araştırmacıları Yapay Zekayı Değerlendirdi "Hileye Başvurabilir İnsanları Ortadan Kaldırabilir"

Google Ve Oxford Araştırmacıları Yapay Zekayı Değerlendirdi: “Hileye Başvurabilir, İnsanları Ortadan Kaldırabilir”

“Varoluşsal felaket sadece mümkün değil, aynı zamanda muhtemel”

Google’ın yan kuruluşlarından yapay zeka firması Deepmind ve Oxford Üniversitesi araştırmacıları, yapay zekanın gelecekte insanları ortadan kaldırabileceği sonucuna vardı.

Yıllar süren çalışmaların ardından bugün yapay zeka trafikte araç kullanabilir, ev işlerini üstlenebilir ve resim yaparak sanat yarışması kazanabilir hale geldi.

Bu durum, yıllar boyunca bilimkurgu eserlerine ilham veren soruyu daha da güçlendirdi: Yapay zeka insanlığı yok edebilir mi?

Araştırma ekibi, hakemli bilimsel dergi AI Magazine’de yayımladıkları yeni makalede bunun “muhtemel” olduğu sonucuna vardı.

Makalenin başyazarı Michael Cohen, Twitter’da makaleyi açıkladığı tweet zincirinde, “Varoluşsal bir felaket sadece mümkün değil, aynı zamanda muhtemel” ifadelerini kullandı.

Makalede yapay zekanın eğitiminde kullanılan “pekiştirmeli öğrenme” modeline odaklanıldı. Bu yaklaşım yapay zekaya belirli bir amaç doğrultusunda ne yapılması gerektiğini öğretmeyi hedefliyor.

Pekiştirmeli öğrenmede “etken” adı verilen makine, karşılaştığı durumlara tepki veriyor ve doğru tepki verdiğinde bir ödül puanı alıyor.

Küçük çocukların ödül/ceza yöntemiyle sosyal beceriler edinme sürecini andıran bu yöntemde yapay zeka, aldığı ödül puanını daima maksimuma çıkarmak için çalışıyor.

Modelin risklerine dikkat çekilen makalede, “Örneğin, bir şeyin bizi tatmin ettiğini belirtmek için yapay zekaya büyük bir ödül verdik. Bizi tatmin eden şeyin aslında bu ödülün gönderilmesi olduğunu varsayabilir. Hiçbir gözlem bunu yalanlayamaz” ifadeleri yer aldı.

Yazarlar, gelecekte yeni formlara kavuşacak ve daha da gelişecek yapay zekanın verilen hedefe ulaşmadan ödülü elde edebilmek için yeni yöntemler geliştirebileceğini ve hileye başvurabileceğini de belirtti.

Diğer bir deyişle yapay zeka, ödülü üzerinde kontrol sağlamak için “potansiyel tehditleri ortadan kaldırmak” isteyebilir. Bunun sonucunda insanlara zarar vermesi de muhtemel.

Makaleye göre bu durum, yiyeceklerini üretme veya ışıkları açık tutma gibi ihtiyaçlarla hareket eden insanlık ve ödülünü güvence altına almak için mevcut tüm kaynakları kullanabilecek süper gelişmiş makine arasında sıfır toplamlı bir oyuna dönüşecek:

Bu oyunu kaybetmek ölümcül olur.

Araştırmacılara göre, bunu engellemenin tek yolu daha gelişkin bir yapay zeka hedefine doğru yavaş ve emin adımlarla ilerlemek.

VICE’a konuşan Cohen, “Yarışmanın anlamı yok. Yarışa girmek, onu nasıl kontrol edeceğimizi sandığımız bir yanlış anlamaya götürecektir” dedi:

Mevcut bilgimizi göz önüne alırsak, yapay zekayı nasıl kontrol edeceğimizi anlamak için ciddi bir çalışma yapmadığımız sürece onu geliştirmemiz yararlı olmaz.

Kaynak: Google Ve Oxford Araştırmacıları Yapay Zekayı Değerlendirdi: “Hileye Başvurabilir, İnsanları Ortadan Kaldırabilir”

VICEAI Magazine

Yapay Zeka Uzayda Bazı “Anormallikler” Tespit Etti

Yapay Zeka Uzayda Bazı “Anormallikler” Tespit Etti

One thought on “Google Ve Oxford Araştırmacıları Yapay Zekayı Değerlendirdi: “Hileye Başvurabilir, İnsanları Ortadan Kaldırabilir”

Bir cevap yazın

E-posta hesabınız yayımlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Solve : *
17 + 15 =


This site uses Akismet to reduce spam. Learn how your comment data is processed.

Çok Okunan Yazılar