Gündem
Monday, July 8, 2024
Bir bilgisayar korsanı geçen yılın başlarında OpenAI'nin dahili mesajlaşma sistemlerini ihlal ederek OpenAI'nin teknolojilerinin nasıl çalıştığına dair ayrıntıları çalışanlardan çaldı. Bilgisayar korsanı önemli yapay zeka teknolojilerini barındıran sistemlere erişememiş olsa da, bu olay şirket içinde önemli güvenlik endişelerine yol açtı. New York Times'ın haberine göre, olay ABD'nin ulusal güvenliğine ilişkin endişeleri de beraberinde getirdi.
İhlal, çalışanların OpenAI'nin en son teknolojilerini tartıştığı çevrimiçi bir forumda meydana geldi. OpenAI'nin eğitim verilerini, algoritmalarını, sonuçlarını ve müşteri verilerini tuttuğu sistemleri tehlikeye girmemiş olsa da, bazı hassas bilgiler açığa çıktı. Nisan 2023'te OpenAI yöneticileri olayı çalışanlara ve yönetim kuruluna açıkladılar ancak kamuoyuna duyurmamayı tercih ettiler. Gerekçe olarak da hiçbir müşteri ya da iş ortağı verisinin çalınmadığını ve bilgisayar korsanının muhtemelen devletle bağlantısı olmayan bir kişi olduğunu gösterdiler. Ancak bu karardan herkes memnun değildi.
OpenAI'de teknik program yöneticisi olan Leopold Aschenbrenner, şirketin güvenlik önlemlerini eleştirerek, bunların yabancı düşmanların hassas bilgilere erişimini engellemekte yetersiz kaldığını öne sürdü. Aschenbrenner daha sonra bilgi sızdırdığı gerekçesiyle görevden alındı ve bu hareketin siyasi amaçlı olduğunu iddia etti. Aschenbrenner'in iddialarına rağmen OpenAI, işten çıkarılmasının güvenlik konusundaki endişeleriyle ilgisi olmadığını savunuyor. Şirket Aschenbrenner'in katkılarını kabul etmiş ancak güvenlik uygulamalarına ilişkin değerlendirmesine katılmamıştır.
İhlale yanıt olarak OpenAI, tıpkı diğer şirketler gibi, güvenlik önlemlerini geliştiriyor. Örneğin, OpenAI ve diğerleri yapay zeka uygulamalarının kötüye kullanılmasını önlemek için korkuluklar ekledi. Ayrıca OpenAI, gelecekteki riskleri ele almak için eski NSA başkanı Paul Nakasone'nin de dahil olduğu bir Güvenlik ve Emniyet Komitesi kurdu.
Meta da dahil olmak üzere diğer şirketler, endüstri çapında iyileştirmeleri teşvik etmek için YZ tasarımlarını açık kaynak haline getiriyor. Ancak bu durum, teknolojileri Çin gibi Amerikan düşmanlarının da kullanımına açıyor. OpenAI, Anthropic ve diğerleri tarafından yürütülen çalışmalar, mevcut YZ sistemlerinin arama motorlarından daha tehlikeli olmadığını göstermektedir.
YZ teknolojilerinin piyasaya sürülmesini kontrol etmek ve zararlı sonuçlar için cezalar uygulamak için federal ve eyalet düzenlemeleri düşünülmektedir. Ancak, uzmanlar YZ'den kaynaklanan en ciddi risklerin hala yıllar uzakta olduğuna inandıkları için bu daha çok bir önlem gibi görünüyor.