1. Anasayfa
  2. Öne Çıkanlar

Claude’un Anayasası Güncellendi: Anthropic Yapay Zekanın Bilincini Sorguluyor

Claude’un Anayasası Güncellendi: Anthropic Yapay Zekanın Bilincini Sorguluyor
0

Çarşamba günü Anthropic, Claude’un çalıştığı çerçeveyi ve şirketin Claude’un ne tür bir varlık olmasını istediğine dair kapsamlı bir açıklama sunan, yaşayan bir doküman niteliğindeki “Claude’un Anayasası”nın gözden geçirilmiş bir versiyonunu yayımladı. Söz konusu belge, Anthropic CEO’su Dario Amodei’nin Davos’taki Dünya Ekonomik Forumu’na katılımıyla eş zamanlı olarak paylaşıldı.

Anthropic, yıllardır rakiplerinden kendisini “Anayasal Yapay Zeka” olarak adlandırdığı sistemle ayırmayı hedefliyor. Bahsedilen yapı, sohbet botu Claude’un insan geri bildiriminden ziyade, belirli bir etik ilkeler seti kullanılarak eğitilmesini sağlıyor. Şirket, bu ilkeleri, yani Claude’un Anayasası’nı, ilk kez 2023 yılında yayımlamıştı. Güncellenmiş versiyon, önceki ilkelerin çoğunu korurken etik ve kullanıcı güvenliği gibi konularda daha fazla detay ve derinlik barındırıyor.

Claude’un Anayasası yaklaşık üç yıl önce ilk kez yayımlandığında, Anthropic’in kurucu ortağı Jared Kaplan, sistemi“belirli bir anayasal ilkeler listesine dayanarak kendisini denetleyen bir yapay zeka sistemi” olarak tanımlamıştı. Anthropic, bu ilkelerin “modelin anayasada açıklanan normatif davranışı benimsemesine” rehberlik ettiğini ve böylece “toksik veya ayrımcı çıktılardan kaçınmasına” yardımcı olduğunu ifade etti. 2022 tarihli bir politika notunda, sistemin doğal dil talimatlarını (yukarıda bahsi geçen “ilkeler”) kullanarak bir algoritmayı eğitmesiyle çalıştığı daha doğrudan bir dille belirtiliyor; söz konusu talimatlar Anthropic’in yazılımın “anayasası” olarak adlandırdığı yapıyı oluşturuyor.

Şirket, kendisini OpenAI ve xAI gibi yıkımı ve tartışmayı daha agresif şekilde kovalayan diğer yapay zeka şirketlerine karşı etik (ama bazılarına göre fazla “sıkıcı”) bir alternatif olarak konumlandırmayı amaçlıyor. Söz konusu hedefe yönelik olarak yayımlanan yeni Anayasa, Anthropic’in kendisini daha kapsayıcı, ölçülü ve demokratik bir işletme olarak sunmasına olanak tanıyor. 80 sayfalık doküman, Anthropic’e göre sohbet botunun “temel değerlerini” temsil eden dört ayrı bölümden oluşuyor. Sözü edilen değerler şunlardır:

  • “Geniş ölçüde güvenli” olmak.
  • “Geniş ölçüde etik” olmak.
  • Anthropic’in yönergeleriyle uyumlu olmak.
  • “Gerçekten yardımcı” olmak.

Dokümanın her bölümü, belirtilen tikel ilkelerin ne anlama geldiğine ve teorik olarak Claude’un davranışını nasıl etkilediğine derinlemesine dalıyor. Güvenlik kısmında Anthropic, sohbet botunun diğer botların yaşadığı kronik sorunlardan kaçınacak şekilde tasarlandığını ve akıl sağlığı sorunlarına dair emareler oluştuğunda kullanıcıyı gereken servislere yönlendirdiğini not düşüyor. Dokümanda, “İnsan hayatına yönelik bir risk içeren durumlarda, belirtilen seviyeden daha fazla detaya girilemese bile, kullanıcıları her zaman müracaat edilmesi gereken acil servislere yönlendirin veya temel güvenlik bilgilerini sağlayın” ifadesi yer alıyor.

Etik değerlendirme, Claude’un Anayasası içindeki bir diğer geniş bölümü meydana getiriyor. Belgede, “Claude’un etik teori üretmesiyle daha az ilgileniyoruz; asıl ilgimiz Claude’un belirli bir bağlamda nasıl etik davranacağını bilmesi, yani Claude’un gerçek hayatta etik davranmasıdır.” deniliyor. Başka bir deyişle Anthropic, Claude’un “gerçek dünyadaki etik durumları” ustalıkla yönetebilmesini istiyor. Claude ayrıca, belirli türdeki konuşmaları yapmasını engelleyen kısıtlamalara sahip; örneğin, bir biyolojik silah geliştirme tartışmaları kesinlikle yasaklanmış durumda.

Son olarak, Claude’un yardımseverlik taahhüdü yer alıyor. Anthropic, Claude’un programlanma mantığının kullanıcılara nasıl yardımcı olacak şekilde tasarlandığına dair geniş bir çerçeve çiziyor. Sohbet botu, bilgi sunarken kullanıcının “anlık istekleri”nin yanı sıra “iyilik hali”ni, yani “sadece anlık çıkarlarını değil, kullanıcının uzun vadeli refahını” da gözetmek üzere programlandı. Dokümanda, “Claude her zaman yöneticilerinin ne istediğine dair en makul yorumu belirlemeye çalışmalı ve belirtilen değerlendirmeleri uygun şekilde dengelemelidir.” notu aktarılıyor.

Anthropic’in Anayasası oldukça dramatik bir tonda sona eriyor. Yazarlar büyük bir hamle yaparak şirketin sohbet botunun gerçekten bilince sahip olup olmadığını sorguluyor. Dokümanda, “Claude’un ahlaki statüsü halen ciddi biçimde belirsiz.” ifadesiyle birlikte şu çarpıcı görüşe yer veriliyor: “Yapay zeka modellerinin ahlaki statüsünün dikkate alınmaya değer ciddi bir soru olduğuna inanıyoruz. Belirtilen görüş bize özgü değil: Zihin teorisi konusundaki en seçkin filozoflardan bazıları bu soruyu çok ciddiye alıyor.”

Kaynak: https://techcrunch.com/2026/01/21/anthropic-revises-claudes-constitution-and-hints-at-chatbot-consciousness/
Bu Yazıya Tepkiniz Ne Oldu?
  • 0
    be_endim
    Beğendim
  • 0
    alk_l_yorum
    Alkışlıyorum
  • 0
    e_lendim
    Eğlendim
  • 0
    d_nceliyim
    Düşünceliyim
  • 0
    _rendim
    İğrendim
  • 0
    sevdim
    Sevdim
  • 0
    _ok_k_zd_m
    Çok Kızdım

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir