- OpenAI, 15 saniyelik bir örnekle ses klonlayabilecek aracı Voice Engine’i tanıttı.
- Bu aracın, ses sahteciliğini engellemek için güvenlik önlemleri alınana kadar sıkı bir şekilde kontrol altında tutulması planlanıyor.
- Dezenformasyon risklerini kabul eden şirket, olası kötü kullanımın önüne geçmek adına bazı güvenlik kuralları belirledi.
OpenAI cuma günü, dinleyicileri kandırmaya yönelik ses sahteciliğini engellemek için güvenlik önlemleri alınana kadar sıkı bir şekilde kontrol altında tutmayı planladığı bir ses klonlama aracını tanıttı. Aracın küçük ölçekli bir testinin sonuçlarını paylaşan bir OpenAI blog yazısına göre “Voice Engine” adı verilen model, 15 saniyelik bir ses örneğine dayanarak birinin konuşmasını esasen kopyalayabilir. Araç, sesi kullanarak başka bir dile çevirebilir veya girilen komutu örnek sesi kullanarak seslendirebilir.
San Francisco merkezli şirket, “İnsanların seslerine benzeyen konuşmalar üretmenin ciddi riskler taşıdığının farkındayız ve bu riskler özellikle seçim yılında daha da ön plana çıkıyor. Hükümet, medya, eğlence, eğitim, sivil toplum ve diğer alanlardaki ABD’li ve uluslararası ortaklarımızla birlikte çalışarak onların geri bildirimlerini de sürece dahil ediyoruz.” dedi.
Dezenformasyon araştırmacıları; ucuz, kullanımı kolay ve izlenmesi zor olan ses klonlama araçlarının yaygınlaşması sayesinde yapay zeka destekli uygulamaların çok önemli bir seçim yılında kötüye kullanılmasından korkuyor. Bu sorunları kabul eden OpenAI, sentetik sesin kötüye kullanılması potansiyeli nedeniyle daha geniş bir sürüm için temkinli ve bilinçli bir yaklaşım benimsediğini söyledi.
Bu temkinli açıklama, Joe Biden’ın rakibinin uzun süredir devam eden başkanlık kampanyası için çalışan bir siyasi danışmanın ABD liderini taklit eden bir robocall’un arkasında olduğunu itiraf etmesinden birkaç ay sonra yapılmış oldu. Minnesota kongre üyesi Dean Phillips için çalışan bir kişinin fikri olan ve yapay zeka tarafından üretilen çağrıda, Biden’ın sesine benzeyen ve insanları ocak ayındaki New Hampshire ön seçimlerinde oy kullanmamaya çağıran bir ses yer alıyordu. Olay, 2024 Beyaz Saray yarışında ve bu yıl dünyanın dört bir yanındaki diğer önemli seçimlerde yapay zeka destekli deepfake dezenformasyon tufanından korkan uzmanlar arasında alarma neden oldu.
İngilizce bir ses örneği:
Voice Engine tarafından oluşturulan Almanca ses:
OpenAI, Voice Engine’i test eden ortakların, araç kullanılarak sesi çoğaltılan herhangi bir kişinin açık ve bilgilendirilmiş onayını gerektirmek gibi kuralları kabul ettiğini söyledi. Şirket ayrıca, duydukları seslerin yapay zeka tarafından üretildiğinin izleyicilere açıkça belirtilmesi gerektiğini de belirtti. OpenAI bu kurallar hakkında, “Voice Engine tarafından üretilen herhangi bir sesin kaynağını izlemek için filigranın yanı sıra nasıl kullanıldığının proaktif olarak izlenmesi de dahil olmak üzere bir dizi güvenlik önlemi uyguladık.” dedi.
Derleyen: Esin Özcan