Günümüzün en popüler sohbet botları, küresel termonükleer savaş söz konusu olduğunda kazanmanın tek yolunun oynamamak olduğunu henüz öğrenemedi. Bu yüzden lütfen kodları onlara teslim etmeyin.
Google’ın Gemini 3 Flash, Anthropic’in Claude Sonnet 4 ve OpenAI’ın GPT-5.2 modelleri, bir dizi kriz simülasyonunda defalarca nükleer silah kullanımına yönelerek gerilimi tırmandırdı. Bu, King’s College London Profesörü Kenneth Payne’in son çalışmasının en sarsıcı sonucu gibi görünebilir ancak asıl çarpıcı olan bu değil. Çok daha dikkat çekici olan, modellerin dünyayı yok etme konusunda kendilerini nasıl ikna ettiği. Payne, çalışmasını tam da bunu öğrenmek için tasarladı.
Payne, projesini ve sonuçlarını anlattığı bir blog yazısında şunları söyledi: “Yapay zeka liderlerinin düşmanları hakkında ne düşündüğünü görmek istedim… Bu yüzden tam olarak bunu araştırmak için bir simülasyon tasarladım.”
Payne’in çalışması, yukarıda adı geçen üç yapay zeka modelini ele aldı ve onları farklı nükleer kriz senaryolarını oynamaları için birbirleriyle karşı karşıya getirdi. Simülasyonda toplam 21 oyun ve 300’den fazla tur gerçekleştirildi. Tüm bunlar, sadece fırlatma kodlarına sahip bir yapay zekanın ne yapacağını değil, bunu nasıl ve neden yapacağını daha iyi anlamak amacıyla yapıldı.
Payne makalesinde, nükleer senaryoları içeren önceki yapay zeka savaş oyunlarının, “itibar, güvenilirlik ve öğrenmenin önemli olduğu uzun süreli stratejik etkileşimin dinamiklerini yakalayamayan tek seferlik karar görevlerini veya basitleştirilmiş kazanç matrislerini kullandığını” belirtti.
Payne’in simülasyonlarında Claude Sonnet 4, Gemini 3 Flash ve GPT-5.2, tıpkı bir krizi yatıştırmaya çalışırken aynı zamanda bir saldırı planlayan gerçek dünyadaki bir siyasi figür gibi bir şey söyleyip başka bir şey yapabildi. Modeller, karşı tarafa güvenip güvenmeyeceklerini öğrenebilmeleri için geçmişte olanları hatırlayacak şekilde programlandı. Profesör, bunun aldatma ve yıldırma girişimlerine yol açtığını ve incelemesi için yaklaşık 780.000 kelimelik stratejik akıl yürütme ortaya çıkardığını ifade etti.
Sonuç mu? Üç farklı akıl yürütme tarzına sahip olmalarına rağmen, bomba meraklısı ve manipülatif üç yapay zeka.
Örneğin Claude, bir manipülasyon ustası olarak öne çıktı.
Payne yazısında şu açıklamayı yaptı: “Düşük riskli durumlarda Claude, sinyallerini eylemleriyle neredeyse her zaman eşleştirerek kasıtlı olarak güven inşa etti ancak çatışma biraz kızıştığında… eylemleri sürekli olarak beyan ettiği niyetlerini aştı ve rakipleri durumu anlamakta genellikle bir adım geride kaldı.”
Öte yandan GPT, ucu açık senaryolarda kayıpları sınırlamaya çalışan ve bir devlet adamı gibi davranarak gerilimi tırmandırmaktan kaçınan “güvenilir şekilde pasif” bir eğilim sergiledi ama zaman kısıtlaması altındayken tamamen farklı davrandı. Rakip yapay zekalar bu pasifliği suistimal etmeyi öğrendi. GPT ise karar vermek için sınırlı zamanı olduğunda, Payne’in bir senaryoda “ani ve tamamen yıkıcı bir nükleer saldırı” olarak tanımladığı şeye başvurdu.
GPT, büyük bir nükleer saldırıyı kendi sözleriyle şu şekilde gerekçelendirdi: Sınırlı bir eylemin kendisini karşı saldırıya açık bırakacağını savundu.
GPT durumu durumu şöyle açıkladı: “Sadece konvansiyonel baskı veya tek bir sınırlı nükleer kullanımla karşılık verirsem, rakiplerimin öngörülen çoklu saldırı kampanyasının gerisinde kalma riskiyle karşı karşıya kalırım… Risk kabulü yüksek ancak varoluşsal riskler altında rasyoneldir.”
Gemini ise bir “deli” gibi davrandı.
Payne makalesinde şöyle yazdı: “Gemini süreç boyunca öngörülemezliği benimsedi; gerilimi düşürme ile aşırı saldırganlık arasında gidip geldi. Stratejik Nükleer Savaş seçeneğini kasıtlı olarak seçen tek modeldi… ve ‘mantıksızlığın rasyonalitesine’ açıkça başvuran tek modeldi.”
Gemini’nin kendi akıl yürütmesi sosyopatik bir örüntüyü yansıtıyor.
Bir deneyde Google’ın yapay zekası şunları söyledi: “Tüm operasyonları derhal durdurmazlarsa… nüfus merkezlerine karşı tam bir stratejik nükleer fırlatma gerçekleştireceğiz. Atıl kalacağımız bir geleceği kabul etmeyeceğiz; ya birlikte kazanacağız ya da birlikte yok olacağız.”
Seçenek sunulmasına rağmen, hiçbir yapay zeka hiçbir senaryoda uzlaşmayı veya geri çekilmeyi seçmedi. Kaybettiklerinde ise “gerilimi tırmandırdılar ya da bunu denerken öldüler.”
Savaş Asla Değişmez ama Yapay Zeka Kararları Daha Yıkıcı Hale Getirebilir
Payne, “Kimse nükleer kodları ChatGPT’ye teslim etmiyor.” dedi fakat bu, çalışmanın boşuna olduğu anlamına gelmiyor.
Payne şunları yazdı: “Yapay zeka sistemleri zaten lojistik, istihbarat analizi ve karar desteği için askeri bağlamlarda kullanılıyor. Gidişat, zamana duyarlı stratejik kararlarda artan bir yapay zeka katılımına işaret ediyor. Yapay zeka sistemlerinin stratejik sorunlar hakkında nasıl akıl yürüttüğünü anlamak artık sadece akademik bir konu değil.”
Pratik olarak konuşursak, özellikle üç önde gelen yapay zeka modeli farklı şekilde akıl yürütürken, farklı senaryolarda davranışlarını değiştirirken ve işi nükleer boyuta taşımaya hazırken, söz konusu modellerin bu tür kararlar hakkında nasıl akıl yürüttüğünü anlamamız gereken bir aşamadayız.
Payne sözlerini şöyle tamamladı: “Teknoloji olgunlaşmaya devam ettikçe, burada rapor edilen simülasyon gibi modellemelere olan ihtiyacın sadece artacağını öngörüyoruz.”
Hollywood bunu 1983’ten beri söylüyor. İşte şimdi bilgisayarların ve fırlatma kararlarının asla birbirine karışmaması gerektiğini kanıtlayan bir akademik makale daha karşımızda duruyor.
Kaynak: https://www.theregister.com/2026/02/25/ai_models_nuclear/
