1. Anasayfa
  2. Yapay Zeka

Bilim İnsanları Yapay Zekayla Ne Kadar Fazla Çalışırsa, Güveni O Kadar Azalıyor

Bilim İnsanları Yapay Zekayla Ne Kadar Fazla Çalışırsa, Güveni O Kadar Azalıyor
0

Bilim insanları doğaları gereği şüphecidir; mesleklerinin gereği olarak her iddiayı sorgularlar ancak söz konusu yapay zeka olduğunda, araştırmacıların teknolojiye olan güveni giderek azalıyor.

Akademik yayınevi Wiley, teknolojinin araştırmalar üzerindeki etkisine dair hazırladığı 2025 raporunun ön bulgularını paylaştı. Bulguların en dikkat çekici kısmı, bilim insanlarının 2024 yılına kıyasla yapay zekaya daha az güvendiğini ortaya koydu. Oysa geçen yıl teknoloji bugünkünden daha az gelişmiş durumdaydı.

2024 araştırmasında, ankete katılan bilim insanlarının yüzde 51’i, büyük dil modellerinin (LLM) “halüsinasyon” olarak bilinen ve tamamen uydurma bilgileri gerçek gibi sunma eğiliminden endişe duyduğunu belirtmişti. 2025’te bu oran yüzde 64’e yükseldi. Buna rağmen, YZ kullanım oranı aynı dönemde yüzde 45’ten yüzde 62’ye çıktı.

Güvenlik ve gizlilik konularına yönelik kaygılar geçen yıla göre yüzde 11 arttı; etik YZ ve şeffaflık konularındaki endişelerde de belirgin bir yükseliş gözlendi.

Ayrıca 2024’e kıyasla YZ etrafındaki “abartılı beklenti” seviyesi ciddi biçimde azaldı. Geçtiğimiz yıl, YZ girişimleri manşetleri domine ederken, bilim insanlarının yarısından fazlası YZ’nin birçok alanda insan yeteneklerini geçtiğini düşünüyordu. 2025’te bahsi geçen oran keskin bir düşüşle üçte birin altına geriledi.

Söz konusu bulgular, daha önce yapılan ve “İnsanlar YZ’nin nasıl çalıştığını öğrendikçe ona olan güvenleri azalıyor.” sonucuna varan araştırmaları da destekliyor. Aynı çalışmalarda, teknolojiyi en çok öven kişilerin genellikle YZ’nin nasıl işlediğini en az bilenler olduğu da ortaya konmuştu.

Uzmanlara göre, profesyonellerin neden algoritmik yardımcılarından şüphe duymaya başladığını anlamak zor değil. Halüsinasyon sorunu halen en büyük risklerden biri. Hatta mahkemelerde, tıp uygulamalarında ve seyahat sektöründe bile ciddi sorunlara yol açtı. Üstelik yapılan hatalar kolayca düzeltilebilir türden değil; Mayıs ayında yapılan testlerde, modeller teknik olarak güçlendikçe halüsinasyon oranlarının da arttığı gözlemlendi.

Ayrıca YZ’nin kâr amacıyla kullanımı da güven sorununu derinleştiriyor. Uzmanlara göre kullanıcılar, veriye erişemediğinde veya kesin cevap veremediğinde durumu kabul eden modeller yerine, kendinden emin görünen modelleri tercih ediyor, “Bilgi tamamen uydurma olsa bile.” Haliyle, OpenAI gibi bir şirketin halüsinasyonları tamamen ortadan kaldırması, kullanıcıların ilgisini ciddi biçimde azaltabilir.

Sonuç olarak, YZ’ye dair hype etkisinden emin olmayanlara araştırmacılara danışmak öneriliyor çünkü görünen o ki, onlar bu konudaki gerçekliği açıkça ortaya koymaktan çekinmiyorlar.

Kaynak: https://futurism.com/artificial-intelligence/ai-research-scientists-hype

Bu Yazıya Tepkiniz Ne Oldu?
  • 0
    be_endim
    Beğendim
  • 0
    alk_l_yorum
    Alkışlıyorum
  • 0
    e_lendim
    Eğlendim
  • 0
    d_nceliyim
    Düşünceliyim
  • 0
    _rendim
    İğrendim
  • 0
    sevdim
    Sevdim
  • 0
    _ok_k_zd_m
    Çok Kızdım

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir