Öldürmeye Karar Verebilen Yapay Zeka

Öldürmeye karar verebilen yapay zeka. Küçük bir drone, yapay bir Orta Doğu köyünün üzerinde gezerek camiye benzer bir yapının etrafını alıcılarıyla tarıyor. Drone’u kontrol eden bir insan yok. Amazon’dan satın alınabilecek bu sıradan drone, ABD ordusunun üstün yapay zeka yazılımıyla donatıldı. Yapay köyde elinde Kalaşnikof bulunan 6 kişiyi arıyor.

Cihaz hafifçe alçalınca video görüntüsünde mor bir kare yanıp sönmeye başlıyor. Drone gölgelerin arasında saklanan bir adama kilitlendi. Üzerinde bir saldırı ekipmanı olsaydı adamı öldürmesi çok kolay olabilirdi. Neyse ki bu sadece bir prova.

Modern savaş stratejisinin merkezinde

Pentagon, dışarıya pek duyurmadan, yapay zekayı modern savaş stratejisinin merkezine yerleştirdi. Bu stratejinin ABD’nin askeri üstünlüğünü korumasına yardımcı olacağı düşünülüyor. Aralarında otonom silahların da bulunduğu teknolojileri geliştirmek için Pentagon üç yıl içinde harcanmak üzere 18 milyar dolar bütçe ayırdı.

Yeni silahlar insanların erişemeyeceği hız ve isabet yeteneğine sahip. Bu da savaş alanına daha az asker sokmak ve muhtemel ölümleri ya da uzuv kayıplarını önlemek anlamına geliyor. Pentagon’u uğraştıran nokta ise bu silahların insanlar için potansiyel bir tehditten ziyade, güvenilir birer partner olmasını sağlamak.

Pentagon konu ile ilgili yaptığı açıklamalarda bu silahların askerlere problem çözme ve yeni yöntemler geliştirme konusunda yardımcı olacağını, onların yerine geçmeyeceğini söylüyor. Savunma sekreteri Robert O. Work “Üstün yetenekli bilgisayarlar, sıradan komutanları birer usta taktisyene dönüştürebilir. Amerikan askerleri robotlarla yan yana hatta robotların içinde savaşan birer süper insana dönüşebilir.” diyor. Bu tanım, otonom robotlar ve silahlar konusunda sık sık örnek olarak verilen Terminatör’den ziyade, çizgi roman kahramanı Demir Adam ve onun üstün teknolojili kostümü ile uyuşuyor.

Yüzlerce bilimci ve uzman bu konuda endişelerini dile getirmek için geçtiğimiz yıl tüm savunma sanayisine bir açık mektup yazmıştı. Bu mektupta, “En düşük seviyede bile bir akıllı silah geliştirmeye kalkışmak, bu alanda küresel bir silahlanma yarışını tetikleme riski taşıyabilir” deniyordu. Görünen o ki ABD’nin bu uyarıları dinleyecek vakti yok.

Hataları da var becerileri de

Denemede kullanılan drone’u çalıştıran yazılım yaklaşık bir yıldır geliştiriliyor ancak mükemmel olmaktan oldukça uzak. Binanın etrafında dolanırken drone bir ara caminin minaresini, silahını havaya doğrultmuş bir adam gibi algıladı.

Yine de yapay zekanın insanlardan üstün olduğu alanlar yok değil. Drone, algıladığı insan figürlerinde askerleri ve sivilleri birbirinden ayırt etmede oldukça başarılıydı. Sadece bu özellik bile savaş sırasında hayatını kaybeden sivil sayısını azaltmak için faydalı olabilir. Bunun dışında drone, hareket halindeki arabaların içinde ya da duvarların arasında saklanan askerleri kolayca tespit etti. Hatta kamerasını drone’a doğrultmuş bir savaş muhabirinin asker olmadığını anlayabildi. Bu durum geçmişte askerlerin muhabirleri öldürmesi ile sonuçlanmıştı.

Silahla donatmak zor değil

Drone şimdilik sadece hedefleri tespit ediyor. Tespit işleminin ardından herhangi bir eylemde bulunmuyor. Ancak bu cihazı silahla donatmak oldukça kolay bir işlem. Zaten günümüzde belirli hedefleri seçip sadece onlara saldıran silahlar bulunuyor.

Pentagon dışındaki uzmanlarsa ABD’nin yapay zeka kullanarak uluslararası alanda üstünlüğünü koruyabileceğini düşünmüyor. Savunma sanayisi eskiden olduğu gibi araştırmaların merkezi konumunda değil ve Pentagon bu alanda en son teknolojiyi üreten tek kurum özelliğini yitirdi. Artık en son makine öğrenimi teknolojileri Silikon Vadisi’ndeki, Avrupa’daki ya da Asya’daki girişimlerden geliyor. Askeri teknoloji artık genellikle internetten sipariş edip alabileceğiniz teknolojileri yıllarca geriden takip ediyor.

38 yaşındaki askeri pilot Brian Healy, ABD’nin en gelişmiş uçağı F-35‘i kullanıyor. Pilota göre F-35’lerde bulunan sesli komut sistemi radyo kanalını değiştirmek dışında çok fazla işe yaramıyor. Healy “Apple ya da Google’dan bu konuda yardım alabilmek çok güzel olurdu” diyor.

Cevaplanması çok güç sorular

Öte yandan, işin ahlaki ve hukuki boyutu da henüz bir sonuca ulaşmış değil. Pek çok cevapsız soru ortaya çıkıyor: Bir makineye insan öldürme yeteneği verilmeli mi? Eğer bir robot bir hastaneye ya da okula saldıracak olursa bunun sorumlusu kim olacak? Bir insan yerine bir makine tarafından öldürülmüş olmak insanlık onuruna yapılmış daha büyük bir saldırı mıdır?

Tüm bu tartışmalar ışığında Pentagon elbette bazı ahlaki kuralları çiğnemeyeceğini ve uluslararası savaş kurallarına uyacağını belirtecektir. Ancak Çin, Rusya ya da bir başka muhtemel tehdit bu silahları kullanma yeteneğine ulaşırsa ABD harekete geçmeyecek mi?

İkinci Dünya Savaşı öncesi onlarca yıl süren adil denizaltı kullanımı tartışmaları konusunda ABD uluslararası anlaşmalara imza atmıştı. Buna göre denizaltılar sadece düşman savaş gemilerine karşı kullanılabilecekti. Ancak Japonya 7 Aralık 1941’de Pearl Harbor‘a saldırdığında, onlarca yıl süren tartışmaların unutulması sadece 6 saat sürdü. ABD deniz altıları Pasifik Okyanusunda sivil Japon gemilerini bir bir batırmaya başladı. O savaşın sonunda Japonya’nın iki şehrinin atom bombasıyla yerle bir edildiğini de unutmamak lazım. Yani eyleme geçmek gerektiğinde ABD ordusunun verdiği sözleri ne kadar tutacağını bilmek pek mümkün değil.

Kaynak: New York Times

Alıntı:http://www.dunyahalleri.com

Bir yanıt yazın

Bu site, istenmeyenleri azaltmak için Akismet kullanıyor. Yorum verilerinizin nasıl işlendiği hakkında daha fazla bilgi edinin.

Çok Okunan Yazılar