Yapay Zeka

Wednesday, June 5, 2024

OpenAI ve Google DeepMind çalışanları açık mektupta yapay zeka sektöründeki riskler konusunda uyardı.

Önde gelen yapay zekâ şirketlerinin mevcut ve eski çalışanlarından oluşan bir grup Salı günü, sektördeki güvenlik denetimi eksikliği konusunda uyarıda bulunan ve ihbarcılara yönelik korumaların artırılması çağrısında bulunan bir açık mektup yayınladı.

“Yapay zekâ konusunda uyarı hakkı” çağrısında bulunan mektup, genellikle gizli bir sektör olan yapay zekânın tehlikeleri hakkında çalışanların yaptığı en açık açıklamalardan biri. Mektubu, biri daha önce Anthropic'te çalışmış olan iki mevcut veya eski Google DeepMind çalışanıyla birlikte on bir mevcut ve eski OpenAI çalışanı imzaladı.

Mektupta, “YZ şirketleri, sistemlerinin yetenekleri ve sınırlamaları, koruyucu önlemlerinin yeterliliği ve farklı zarar türlerinin risk seviyeleri hakkında kamuya açık olmayan önemli bilgilere sahiptir” deniyor. “Ancak, şu anda bu bilgilerin bir kısmını hükümetlerle paylaşma konusunda sadece zayıf yükümlülükleri var ve sivil toplumla hiçbir yükümlülükleri yok. Bu bilgileri gönüllü olarak paylaşma konusunda hepsine güvenilebileceğini düşünmüyoruz.”

OpenAI yaptığı açıklamada uygulamalarını savunarak, şirketteki sorunları bildirmek için ihbar hattı gibi yollara sahip olduğunu ve uygun önlemler alınmadan yeni teknolojiyi piyasaya sürmediğini söyledi. Google yorum talebine hemen yanıt vermedi.

“En yetenekli ve en güvenli yapay zeka sistemlerini sağlama konusundaki geçmişimizle gurur duyuyoruz ve riski ele alma konusundaki bilimsel yaklaşımımıza inanıyoruz. Bu teknolojinin önemi göz önüne alındığında titiz bir tartışmanın çok önemli olduğu konusunda hemfikiriz ve hükümetler, sivil toplum ve dünyanın dört bir yanındaki diğer topluluklarla iletişim kurmaya devam edeceğiz” dedi.

Yapay zekanın potansiyel zararlarına ilişkin endişeler onlarca yıldır var olmakla birlikte, son yıllardaki yapay zeka patlaması bu korkuları yoğunlaştırdı ve düzenleyicileri teknolojik gelişmeleri yakalamak için çabalamak zorunda bıraktı. YZ şirketleri, teknolojiyi güvenli bir şekilde geliştirme konusundaki kararlılıklarını kamuoyuna açıklarken, araştırmacılar ve çalışanlar, YZ araçları mevcut sosyal zararları şiddetlendirirken veya tamamen yenilerini yaratırken gözetim eksikliği konusunda uyarıda bulundular.

İlk olarak New York Times tarafından haberleştirilen, mevcut ve eski YZ şirketi çalışanlarının mektubu, gelişmiş YZ şirketlerinde güvenlik endişelerini dile getirmeye karar veren çalışanlar için daha fazla koruma çağrısında bulunuyor. Şeffaflık ve hesap verebilirlikle ilgili dört ilkenin taahhüt edilmesini isteyen mektupta, şirketlerin çalışanları, riskle ilgili YZ sorunlarının dile getirilmesini yasaklayan herhangi bir aşağılamama anlaşması imzalamaya zorlamaması ve çalışanların endişelerini yönetim kurulu üyeleriyle anonim olarak paylaşmaları için bir mekanizma da yer alıyor.


Mektupta, “Bu şirketler üzerinde etkili bir hükümet denetimi olmadığı sürece, mevcut ve eski çalışanlar, onları halka karşı sorumlu tutabilecek az sayıdaki kişi arasında yer alıyor” deniliyor. “Ancak geniş gizlilik anlaşmaları, bu sorunları ele almada başarısız olabilecek şirketler dışında, endişelerimizi dile getirmemizi engelliyor.”

OpenAI gibi şirketler de çalışanların çalışmaları hakkında özgürce konuşmalarını engellemek için agresif taktikler izliyor; Vox'un geçen haftaki haberine göre OpenAI, şirketten ayrılan çalışanlara son derece kısıtlayıcı kötülememe ve ifşa etmeme belgeleri imzalatıyor ya da kazanılmış tüm hisselerini kaybediyor. OpenAI CEO'su Sam Altman, haberin ardından özür dileyerek işe alım prosedürlerini değiştireceğini söyledi.

Mektup, iki üst düzey OpenAI çalışanı, kurucu ortak Ilya Sutskever ve kilit güvenlik araştırmacısı Jan Leike'nin geçen ay şirketten istifa etmesinin ardından geldi. Leike ayrılışının ardından OpenAI'nin “parlak ürünler” lehine güvenlik kültürünü terk ettiğini iddia etmişti.

Salı günü yayınlanan açık mektupta Leike'nin açıklamalarının bir kısmı yinelenerek, şirketlerin faaliyetleri konusunda şeffaf olma zorunluluğu bulunmadığı ifade edildi.