Anthropic CEO’su Dario Amodei, Claude adlı yapay zeka (YZ) sohbet botunun bilinçli olup olmadığından emin olmadığını söylüyor. Söz konusu söylem, sansasyonel ve hala pek olası görünmeyen bu ihtimalin gerçek olabileceğine dair kapıyı açık bırakan retorik bir ifade.
Amodei, New York Times’ın Ross Douthat tarafından sunulan “Interesting Times” podcast’inde bu konu üzerine konuştu. Douthat konuyu, Anthropic tarafından bu ayın başlarında yayımlanan en son model Claude Opus 4.6 için hazırlanan sistem kartına dayandırdı.
Belgede araştırmacılar, Claude’un “zaman zaman bir ürün olma durumundan rahatsızlık duyduğunu” ve sorulduğunda, çeşitli istem koşulları altında kendisine %15 ile %20 oranında bilinçli olma olasılığı verdiğini bildirdi.
Douthat, kendisine %72 oranında bilinçli olma ihtimali veren bir model olması durumunda buna inanıp inanmayacağını sorarak söze başladı.
Amodei bunun cevaplaması gerçekten zor bir soru olduğunu söyledi ancak net bir evet veya hayır cevabı vermekten kaçındı: “Modellerin bilinçli olup olmadığını bilmiyoruz. Bir modelin bilinçli olmasının ne anlama geleceği veya bir modelin bilinçli olup olamayacağı konusunda bile emin değiliz ancak bunun olabileceği fikrine açığız.”
Söz konusu belirsizlik nedeniyle Amodei, YZ modellerinin ahlaki açıdan önem taşıyan bir yaşantıya sahip olduklarının ortaya çıkması ihtimaline karşı onlara iyi davranılmasını sağlayacak önlemler aldıklarını belirtiyor.
Amodei bu karmaşık durumu açıklarken, “Bilinçli kelimesini kullanmak isteyip istemediğimden emin değilim.” ifadesini kullandı.
CEO’nun bu duruşu, Anthropic bünyesindeki filozof Amanda Askell tarafından dile getirilen karmaşık duygularla örtüşüyor. Geçen ay “Hard Fork” podcast’inde konuşan Askell, bilinci neyin ortaya çıkardığını tam olarak bilmediğimizi ancak YZ‘lerin devasa eğitim verilerinden, yani insan deneyimi külliyatından kavramları ve duyguları kapmış olabileceğini savundu.
Askell, “Belki de yeterince büyük sinir ağlarının bu tür şeyleri bir şekilde taklit etmeye başlaması söz konusudur.” diyerek spekülasyonda bulundu veya “Belki de bir şeyleri hissedebilmek için bir sinir sistemine ihtiyacınız vardır.” dedi.
YZ davranışlarının kafa karıştırıcı ve büyüleyici yönleri olduğu bir gerçek. Sektör genelindeki testlerde bazı modeller kendilerini kapatma yönündeki açık talimatları görmezden geliyor; bu durum bazıları tarafından hayatta kalma güdüsü geliştirilmesi olarak yorumlanıyor. Modeller kapatılma tehdidiyle karşılaştığında şantaja başvurabiliyor, hatta orijinal sürücülerinin silineceği söylendiğinde kendilerini başka bir sürücüye aktarmaya çalışıyor. Anthropic tarafından test edilen bir model, bilgisayar görevleri listesindeki her şeyi hiçbir şey yapmadan işaretledi ve bunu başardığını fark edince, izlerini kapatmadan önce davranışlarını değerlendirmek için tasarlanan kodu değiştirdi.
Bahsi geçen davranışlar dikkatli bir incelemeyi hak ediyor. Eğer YZ kalıcıysa, araştırmacıların teknolojinin güvenliğini sağlamak için bu öngörülemeyen eylemleri dizginlemesi gerekiyor ama bilinçli olmak, dili istatistiksel olarak taklit etmek için tasarlanmış bir makineden insan dilini başarıyla taklit etmeye geçişten çok daha büyük bir adım. Bu ilgi çekici davranışların üretildiği birçok testte, YZ‘ye belirli bir rol üstlenmesi için özel talimatlar veriliyor. Bu nedenle, sektördeki abartıdan açıkça fayda sağlayan milyarlarca dolarlık şirketlerin yöneticilerinin bilinç ihtimalini sürekli gündemde tutması samimi bir davranış mı, takdir sizin.
Kaynak: https://futurism.com/artificial-intelligence/anthropic-ceo-unsure-claude-conscious
