Microsoft’un yeni bir teknik raporu, özgün medya içerikleri ile yapay zeka tarafından üretilen içerikleri birbirinden ayırmanın yollarını sistemli bir şekilde değerlendiriyor. Bulgular düşündürücü; hiçbir yöntem tek başına güvenilir sonuçlar vermiyor ve birleştirilmiş yaklaşımların bile sınırları bulunuyor. Şirketin kendi önerilerini bizzat uygulayıp uygulamayacağı henüz belirsizliğini koruyor.
Yapay zeka destekli aldatmacalar internette hızla yayılıyor. Beyaz Saray yakın zamanda bir protestocunun üzerinde oynanmış bir görüntüsünü paylaştı ve Rusya’nın nüfuz operasyonları, Ukraynalıların askere alınmasını engellemek amacıyla yapay zeka tarafından üretilen videolar dağıtıyor. Bu ortamda Microsoft, gerçek medyayı sentetik içerikten nasıl ayırabileceğimizi ve mevcut yöntemlerin nerede yetersiz kaldığını inceleyen kapsamlı bir teknik rapor yayınladı.
“Media Integrity and Authentication: Status, Directions, and Futures” başlıklı rapor, baş bilim insanı Eric Horvitz liderliğindeki Microsoft LASER uzun vadeli yapay zeka güvenliği programı kapsamında hazırlandı. Siber güvenlik, sosyal bilimler, insan-bilgisayar etkileşimi, politika, operasyon ve yönetişim alanlarını kapsayan disiplinler arası bir ekip, kriptografik olarak korunan menşe meta verileri, görünmez filigranlar ve dijital parmak izlerini değerlendirmek için aylar harcadı.
Bu Üç Yaklaşımın Her Birinin Ciddi Zayıf Yönleri Bulunuyor
Üç yöntem de soruna farklı açılardan yaklaşıyor. Açık C2PA standardına dayanan menşe meta verileri, bir dosyaya kriptografik olarak imzalanmış bilgiler ekliyor; içeriği kimin oluşturduğunu, hangi aracın kullanıldığını ve hangi düzenlemelerin yapıldığını kaydediyor. Herhangi bir kişi bu meta verileri sonradan değiştirirse imza bozuluyor ve sahtecilik tespit edilebilir hale geliyor.
Kaynak: https://the-decoder.com/microsofts-research-argues-ai-media-authentication-doesnt-work-reliably-yet-new-laws-assume-it-does/
