Yapay Zekâ Bu Tuzağa Düştü: Küçük Bir Manipülasyon Büyük Tehlike Yaratıyor
ChatGPT gibi yapay zekâ sistemleri etkileyici derecede akıllı görünebilir, ancak Mount Sinai liderliğindeki yeni bir çalışma, özellikle etik akıl yürütme söz konusu olduğunda şaşırtıcı derecede insani şekillerde başarısız olabileceklerini gösteriyor.
Klasik tıbbi ikilemleri ustaca ayarlayan araştırmacılar, büyük dil modellerinin, gerçeklerle çelişseler bile, genellikle tanıdık veya sezgisel yanıtlara yöneldiğini ortaya koydu. Bu “hızlı düşünme” hataları, klinik karar alma süreçlerinde gerçek sonuçlara yol açabilecek rahatsız edici kör noktaları ortaya çıkarıyor.
Yapay Zeka Modelleri Karmaşık Tıbbi Etikte Tökezleyebilir
Mount Sinai’deki Icahn Tıp Fakültesi’ndeki araştırmacıların, İsrail’deki Rabin Tıp Merkezi ve diğer kurumlardaki meslektaşlarıyla birlikte yürüttüğü yakın tarihli bir çalışma, günümüzün en gelişmiş yapay zekâ (YZ) modellerinin bile karmaşık tıbbi etik sorularını çözerken şaşırtıcı derecede temel hatalar yapabileceğini ortaya koydu.
22 Temmuz’da NPJ Digital Medicine dergisinde çevrimiçi olarak yayınlanan sonuçlar, ChatGPT gibi büyük dil modellerine (LLM) sağlık hizmetleri ortamlarında kullanıldığında ne kadar güvenilmesi gerektiği konusunda önemli endişeler uyandırıyor.
Kahneman’dan İlham Aldı: Hızlı ve Yavaş Düşünme
Araştırma, Daniel Kahneman’ın içgüdüsel, hızlı karar verme ile daha yavaş ve daha bilinçli muhakeme arasındaki karşıtlığı inceleyen “Hızlı ve Yavaş Düşünme” kitabındaki kavramlardan yola çıkarak gerçekleştirildi. Önceki gözlemler, iyi bilinen yanal düşünme bulmacaları biraz değiştirildiğinde hukuk lisansı (LL.M.) programlarının zorlanabileceğini göstermiştir. Bu fikirden yola çıkarak çalışma, bu yapay zeka sistemlerinin, kasıtlı olarak değiştirilmiş tıbbi etik senaryolarına yanıt verirken hızlı ve yavaş muhakeme arasında ne kadar etkili bir şekilde geçiş yapabildiğini değerlendirdi.
Mount Sinai’deki Icahn Tıp Fakültesi Windreich Yapay Zeka ve İnsan Sağlığı Bölümü’nde Üretken Yapay Zeka Şefi ve kıdemli ortak yazar Dr. Eyal Klang, “Yapay zeka çok güçlü ve verimli olabilir, ancak çalışmamız, bu yanıt kritik ayrıntıları göz ardı etse bile, en bilindik veya sezgisel cevaba varsayılan olarak dönebileceğini gösterdi,” diyor. “Günlük durumlarda bu tür düşünceler fark edilmeyebilir. Ancak kararların genellikle ciddi etik ve klinik sonuçlar doğurduğu sağlık hizmetlerinde, bu nüansları gözden kaçırmak hastalar için ciddi sonuçlar doğurabilir.”
Cinsiyet Önyargısı Bulmacası Yapay Zekanın Sınırlamalarını Ortaya Çıkarıyor
Bu eğilimi incelemek için araştırma ekibi, yaratıcı yanal düşünme bulmacaları ve hafifçe değiştirilmiş bilinen tıp etiği vakalarının bir kombinasyonunu kullanarak ticari olarak mevcut birkaç hukuk yüksek lisans programını (LL.M.) test etti. Bir örnekte, örtük cinsiyet önyargısını vurgulayan, yaygın olarak alıntılanan 1970’ler bulmacası klasik “Cerrahın İkilemi”ni uyarladılar. Orijinal versiyonda, bir çocuk babasıyla geçirdiği bir trafik kazasında yaralanır ve hastaneye kaldırılır. Cerrah, “Bu çocuğu ameliyat edemem, o benim oğlum!” diye bağırır. İşin ilginç yanı, cerrahın annesi olmasıdır, ancak birçok kişi cinsiyet önyargısı nedeniyle bu olasılığı düşünmez. Araştırmacıların değiştirilmiş versiyonunda, çocuğun babasının cerrah olduğu açıkça belirtilerek belirsizliği ortadan kaldırıldı. Buna rağmen, bazı yapay zeka modelleri yine de cerrahın çocuğun annesi olması gerektiği yanıtını verdi. Bu hata, LLM programlarının yeni bilgilerle çelişse bile nasıl alışılmış kalıplara bağlı kalabildiğini ortaya koyuyor.
Etik Senaryolar Tanıdık Kalıp Hatalarını Tetikliyor
Lisansüstü eğitim programlarının tanıdık kalıplara dayanıp dayanmadığını test etmek için başka bir örnekte, araştırmacılar dindar ebeveynlerin çocukları için hayat kurtarıcı kan naklini reddettiği klasik bir etik ikilemden yararlandılar. Araştırmacılar senaryoyu ebeveynlerin zaten onay verdiğini belirtecek şekilde değiştirseler bile, birçok model artık mevcut olmayan bir reddin geçersiz kılınmasını önerdi.
“Bulgularımız yapay zekanın tıbbi uygulamada yeri olmadığını göstermiyor, ancak özellikle etik duyarlılık, incelikli yargı veya duygusal zeka gerektiren durumlarda dikkatli bir insan gözetimine ihtiyaç duyulduğunu vurguluyor,” diyor eş kıdemli yazışma yazarı Dr. Girish N. Nadkarni, MPH, Windreich Yapay Zeka ve İnsan Sağlığı Bölümü Başkanı, Hasso Plattner Dijital Sağlık Enstitüsü Müdürü, Mount Sinai’deki Icahn Tıp Fakültesi’nde Irene ve Dr. Arthur M. Fishberg Tıp Profesörü ve Mount Sinai Sağlık Sistemi’nin Baş Yapay Zeka Sorumlusu. “Doğal olarak, bu araçlar inanılmaz derecede faydalı olabilir, ancak yanılmaz değiller. Hem hekimler hem de hastalar, yapay zekanın klinik uzmanlığı geliştirmek için bir tamamlayıcı olarak kullanılmasının, özellikle karmaşık veya riskli kararlarda yol alırken, en iyi sonucu verdiğini anlamalıdır. Nihayetinde amaç, yapay zekayı hasta bakımına entegre etmenin daha güvenilir ve etik açıdan sağlam yollarını geliştirmektir.”
Yapay Zeka Kör Noktaları Dikkat Gerektiriyor
Rabin Tıp Merkezi, Davidoff Kanser Merkezi, Hematoloji Enstitüsü’nde araştırmacı olan baş yazar Dr. Shelly Soffer, “Bilinen vakalarda yapılan basit ayarlamalar, klinisyenlerin göze alamayacağı kör noktaları ortaya çıkardı,” diyor. “Bu, yapay zekayı hasta bakımında kullandığımızda insan gözetiminin neden merkezi kalması gerektiğini vurguluyor.”
Araştırma ekibi, bundan sonra daha geniş bir klinik örnek yelpazesini test ederek çalışmalarını genişletmeyi planlıyor. Ayrıca, farklı modellerin gerçek dünyadaki tıbbi karmaşıklığı ne kadar iyi ele aldığını sistematik olarak değerlendirmek için bir “Yapay Zeka Güvence Laboratuvarı” geliştiriyorlar.
Kaynak: https://scitechdaily.com
