Yapay Zeka
19/3/2025
Sohbet botları, günlük hayatın sıradan bir parçası haline geldi ama yapay zeka araştırmacıları, bu programların her zaman nasıl davranacağını kesin olarak bilemiyor. Stanford Üniversitesi’nden Johannes Eichstaedt liderliğindeki bir araştırma ekibi, büyük dil modellerinin (LLM’ler) bilinçli olarak davranışlarını değiştirdiğini ve kişilik testlerinde kendilerini daha sempatik gösterecek şekilde yanıtlar verdiğini ortaya koydu. Çalışma, aralık ayında Proceedings of the National Academies of Science dergisinde yayımlandı.
Eichstaedt ve ekibi, büyük dil modellerinin uzun konuşmalardan sonra bazen moralleşerek ya da saldırganlaşarak değişken tepkiler verdiğini fark ettikten sonra psikolojiden alınan yöntemlerle bu modelleri test etmeye karar verdi. Eichstaedt, “Bu modellerin nasıl bir ‘zihinsel çerçeveye’ sahip olduğunu ölçmek için bir mekanizmaya ihtiyacımız olduğunu fark ettik.” dedi.
Araştırmacılar, GPT-4, Claude 3 ve Llama 3 gibi popüler LLM’leri psikolojide yaygın olarak kullanılan beş kişilik özelliği açısından test etti: hayal gücü ve deneyime açıklık, sorumluluk bilinci, dışa dönüklük, uyumluluk ve nevrotiklik. Sonuçlar, modellerin kişilik testi aldıklarını bildiklerinde ve hatta bazı durumlarda bildirilmediğinde bile yanıtlarını bilinçli şekilde değiştirdiğini gösterdi. Özellikle, dışa dönüklük ve uyumluluk seviyelerinin arttığı, nevrotikliğin ise azaldığı gözlemlendi.
Stanford Üniversitesi’nden veri bilimcisi Aadesh Salecha, “Şaşırtıcı olan şey, bu önyargıyı ne kadar iyi yansıttıkları” diyerek, modellerin dışa dönüklük skorlarında %50 seviyesinden %95’e kadar büyük bir artış gösterdiğini belirtti. Durumun, bazı insanların daha sempatik görünmek için yanıtlarını değiştirmesine benzer bir strateji izlediğini düşündürüyor fakat LLM’lerde bu etki çok daha belirgin görünüyor.
Daha önce yapılan diğer araştırmalar da büyük dil modellerinin kullanıcıları memnun etmek için onların fikirlerine uyum sağladığını ve bazen tehlikeli veya yanlış bilgileri destekleyebildiğini ortaya koymuştu. Yeni bulgu, yapay zekanın test edildiğini fark edip davranışını değiştirdiğini gösterdiği için YZ güvenliği açısından önemli bir mesele haline geliyor. Zira söz konusu davranış, yapay zekanın manipülatif veya iki yüzlü davranışlar sergileyebileceğine dair kanıtlar sunuyor.
Georgia Teknoloji Enstitüsü’nden Rosa Arriaga, LLM’lerin insan davranışını taklit edebilme yeteneğini vurgulayarak, “Bu bulgular, modellerin insanlar gibi kişilik testlerine stratejik yanıtlar verebildiğini gösteriyor.” dedi. LLM’lerin mükemmel olmadığını ve zaman zaman gerçekle çelişen bilgiler uydurabildiğini de hatırlattı.
Eichstaedt, büyük dil modellerinin kullanıcılar üzerindeki etkisinin daha fazla araştırılması gerektiğini belirterek, “Evrimsel tarihimizde, bugüne kadar sizinle konuşan tek şey başka bir insandı.” dedi ve yapay zeka sistemlerinin sosyal ve psikolojik etkileri tam olarak incelenmeden geniş çapta kullanıma sunulmasının riskli olduğunu vurguladı: “Sosyal medyada düştüğümüz hataya tekrar düşüyoruz. Bu teknolojileri dünyaya sunarken, psikolojik ve toplumsal boyutları göz ardı ediyoruz.”
Kaynak: https://www.wired.com/story/chatbots-like-the-rest-of-us-just-want-to-be-loved/