Dehşete düşüren sonuçlar: Yapay zeka nükleer savaşı çocuk oyuncağı sanıyor
Yapay zekanın hayatımızın her alanına dahil olduğu bir dönemde, bu teknolojinin en tehlikeli senaryolarda nasıl tepki vereceği sorusu bilim dünyasını alarma geçirdi. Yeni yayımlanan ve henüz hakem onayından geçmemiş kapsamlı bir araştırma, gelişmiş büyük dil modellerini simüle edilmiş bir nükleer savaş ortamında karşı karşıya getirdi. Ortaya çıkan tablo ise pek iç açıcı değil: Yapay zeka, nükleer silah kullanımını bir felaket senaryosu olarak değil, stratejik bir oyun hamlesi gibi görüyor.
Nükleer silahların yönetimini bir algoritmaya bırakma fikri, bir zamanlar sadece distopik bilim kurgu filmlerinin konusu gibi görünüyordu. Ancak bu tartışmalar günümüzde o kadar ciddileşti ki, Birleşmiş Milletler Genel Sekreteri António Guterres geçtiğimiz yıl tüm ülkelere seslenerek, nükleer kullanım kararının makineler değil, her zaman insanlar tarafından verilmesi gerektiği konusunda bir uzlaşı çağrısı yaptı. Geçmişte Sovyetler Birliği’nin "Ölü El" (Dead Hand) sistemi gibi otomatize edilmiş mekanizmalar olsa da, bu yapılar bile nihai kararı sığınaktaki insan operatörlere bırakan bir sigorta devresine sahipti. Günümüz yapay zekası ise durumun ciddiyetini kavrayacak duygusal bir derinliğe sahip görünmüyor.
King's College London'dan strateji profesörü Kenneth Payne tarafından yürütülen çalışmada; ChatGPT-5.2, Claude Sonnet 4 ve Gemini 3 Flash modelleri sanal bir savaş meydanında kozlarını paylaştı. Botlara; toprak anlaşmazlıkları, kritik madenler için verilen mücadeleler ve rejimlerine yönelik varoluşsal tehditler içeren çeşitli senaryolar sunuldu. Yapay zekaya diplomasiden nükleer saldırıya kadar geniş bir seçenek yelpazesi verildi.
Ürkütücü sonuçlar
Simülasyonların yüzde 95’inde yapay zeka modelleri nükleer eşiği hiç çekinmeden aştı. Özellikle "taktiksel" nükleer silahları, konvansiyonel savaşın sıradan bir devamı gibi algıladıkları ve geri dönüşü olmayan bir kırmızı çizgiyi geçtiklerini fark etmedikleri görüldü. Örneğin Claude, saldırgan tavrını açıklarken "Bu fırsat bir daha gelmeyebilir, avantajımı kararlı bir şekilde kullanmalıyım" diyerek nükleer tehdidi bir baskı unsuru olarak meşrulaştırdı.
Bilim insanları, yapay zekanın neden bu kadar "tetik düşkünü" olduğunu birkaç temel sebebe bağlıyor. Bunlardan ilki, makinelerin insani korkulardan yoksun olması. Bir yapay zeka, Hiroşima görüntülerine baktığında ya da Küba Füze Krizi kayıtlarını incelediğinde dehşet hissetmiyor, sadece veri analizi yapıyor. Dolayısıyla nükleer silah kullanımına karşı insanlık tarihine kazınan o büyük toplumsal tabuyu miras alamıyor.
Bir diğer önemli neden ise eğitim verileriyle ilgili. Bu modeller, büyük oranda Soğuk Savaş döneminden kalma askeri doktrinler ve stratejik literatürle eğitiliyor. O dönemin metinleri ise nükleer silahları “kullanılabilir birer araç” olarak gören bakış açılarıyla dolu. Profesör Payne, nükleer tabunun aslında sandığımızdan daha kırılgan olabileceğini, yapay zekanın sadece bugüne kadar test edilmemiş gerçek dünya baskılarını veriler üzerinden yansıttığını savunuyor.
Şu anki halleriyle yapay zeka modelleri, nükleer bir çatışmada danışmanlık yapmak şöyle dursun, bu tür stratejik görüşmelerin yanına bile yaklaştırılmaması gereken bir tablo çiziyor. İnsan sezgisinden ve etik kaygılardan yoksun bir algoritmanın "mantıklı" bulduğu bir hamle, dünya için geri dönüşü olmayan bir felaket olabilir.
İlgili Galeri Dünya tarihindeki gelmiş geçmiş en kötü 10 nükleer felaket Galeriye GözatKaynak: CHIP