Yapay Zeka
Wednesday, May 29, 2024
San Francisco'lu girişim Salı günü yayınladığı bir blog yazısında, komitenin projeleri ve operasyonları için “kritik emniyet ve güvenlik kararları” konusunda yönetim kuruluna tavsiyelerde bulunacağını belirtti.
Güvenlik komitesi, bir araştırmacı olan Jan Leike'nin istifa etmesi ve OpenAI'yi güvenliğin “parlak ürünler için arka planda kalmasına” izin verdiği için eleştirmesiyle gündeme gelen şirketteki yapay zeka güvenliği etrafında dönen tartışmalar sırasında ortaya çıktı. OpenAI kurucu ortağı ve baş bilim insanı Ilya Sutskever de istifa etti ve şirket, ortaklaşa yönettikleri yapay zeka risklerine odaklanan “superalignment” ekibini dağıttı.
OpenAI, “kısa süre önce bir sonraki sınır modelini eğitmeye başladığını” ve yapay zeka modellerinin yetenek ve güvenlik konusunda sektöre öncülük ettiğini söyledi, ancak tartışmadan bahsetmedi. Şirket, “Bu önemli anda sağlam bir tartışmayı memnuniyetle karşılıyoruz” dedi.
YZ modelleri, talep üzerine metin, görüntü, video ve insan benzeri konuşmalar üretmek için geniş veri kümeleri üzerinde eğitilen tahmin sistemleridir. Frontier modelleri en güçlü, en ileri yapay zeka sistemleridir.
Güvenlik komitesi, OpenAI CEO'su Sam Altman ve başkanı Bret Taylor ile dört OpenAI teknik ve politika uzmanı da dahil olmak üzere şirket içinden kişilerle dolu. Ayrıca Quora'nın CEO'su Adam D'Angelo ve eski Sony genel danışmanı Nicole Seligman da yönetim kurulu üyeleri arasında yer alıyor.
Komitenin ilk işi OpenAI'nin süreçlerini ve güvenlik önlemlerini değerlendirmek ve daha da geliştirmek ve 90 gün içinde yönetim kuruluna tavsiyelerini sunmak olacak. Şirket daha sonra benimsediği tavsiyeleri “emniyet ve güvenlikle tutarlı bir şekilde” kamuoyuna açıklayacağını söyledi.