Yapay Zeka

Friday, June 7, 2024

OpenAI, yapay zeka riskleriyle mücadele ettiğini göstermek için bir makale yayınladı.

Bu haftanın başlarında, eski bir OpenAI çalışanı şirketi yapay zeka geliştirme konusunda dikkatsiz davranmakla suçladı. Perşembe günü OpenAI, özellikle GPT-4 olmak üzere bir YZ modelinin işleyişinin nasıl tersine mühendislik yapılabileceğini gösteren bir araştırma makalesi yayınladı. Temel olarak şirket, YZ modellerini daha kolay açıklanabilir hale getirmek istiyor, böylece insanlar şirketin YZ riskleriyle mücadele konusunda ciddi olduğunu bilecek. Elbette OpenAI, yeni aracın GPT-4'ün gelişmiş işlevlerini araştırmacılar, geliştiriciler ve YZ alanındaki meraklılar için daha erişilebilir ve anlaşılır hale getirmeyi amaçladığını söylüyor.

Bu yeni aracın temel amacı, karmaşık modelini anlaşılabilir bölümlere ayırarak GPT-4'ün iç işleyişini aydınlatmaktır. GPT-4 gibi yapay zeka araçları, insan benzeri tepkiler üretme kabiliyetleri nedeniyle sofistike ve karmaşık modellerdir. Bu yetenek aynı zamanda kullanıcıların belirli çıktılara nasıl ulaştığı konusunda kafalarının karışmasına neden oluyor. OpenAI'nin yeni aracı temel olarak GPT-4'ün geniş ve karmaşık yapısından anlamlı kavramlar çıkarmayı, anlaşılmasını ve kullanılmasını kolaylaştırmayı amaçlıyor.

Araştırma makalesi seyrek oto kodlayıcıları detaylandırıyor ve verilerin verimli temsillerini oluşturmak için bir teknik araştırıyor. Seyrek oto kodlayıcılar, aktivasyon modellerinde seyrekliği teşvik ederken giriş verilerinden sıkıştırılmış, yararlı özellikler öğrenmeyi amaçlayan bir sinir ağı türüdür. Bu, aynı anda yalnızca az sayıda nöronun aktif olduğu anlamına gelir ve bu da modelin verilerdeki önemli yapıları belirleme yeteneğini artırır. Bu makalede seyrekliği sağlamaya yönelik çeşitli yöntemler tartışılmakta ve bu tekniklerin görüntü tanıma ve veri yeniden yapılandırma gibi görevlerde performansı nasıl artırabileceği gösterilmektedir.

OpenAI, bu aracın GPT-4'ün kullanılabilirliğini artıracağını iddia ediyor. Geliştiricilerin ve araştırmacıların artık modelin çıktılarını daha etkili bir şekilde keşfedebileceklerini, böylece uygulamalara ince ayar yapabileceklerini ve daha doğru ve güvenilir YZ sistemleri oluşturabileceklerini söylüyor.

Araştırma makalesi OpenAI'nin YZ güvenliği konusundaki kararlılığının altını çizerken, şirketin son zamanlarda yaşadığı iç sorunlara da dikkat çekiyor. Yeni çalışma, OpenAI'nin artık dağılmış olan ve yapay zekanın uzun vadeli risklerine odaklanan “superalignment” ekibi tarafından yürütüldü. Makalenin ortak yazarları arasında, her ikisi de o zamandan beri OpenAI'den ayrılan eski eş başkanlar Ilya Sutskever ve Jan Leike de yer alıyor. İlginç bir şekilde, kurucu ortaklardan ve eski baş bilim adamı olan Sutskever, geçtiğimiz Kasım ayında CEO Sam Altman'ın kısa süreliğine kovulmasına yönelik tartışmalı kararda yer almıştı.