- OpenAI, bu yıl dünyanın dört bir yanındaki ülkelerde gerçekleşecek seçim dalgası öncesinde dezenformasyonla mücadele etmek amacıyla yapay zeka araçlarında alacağı yeni önlemleri duyurdu.
- Kullanıcılara, özel GPT’lerin potansiyel ihlallerini ve davranışlarını OpenAI’a geri bildirmelerine olanak tanıyan bir raporlama işlevi sunulacak.
- OpenAI, C2PA dijital filigranlarını DALL-E 3 görüntülerine bu yılın başlarında uygulayacağını da söyledi ancak henüz belirli bir tarih verilmedi.
Geçtiğimiz hafta OpenAI, üçüncü taraf özel sohbet robotu (GPT) yaratıcılarının ürünlerini sergilemeleri ve bunlardan para kazanmaları için GPT Store’u tanıttı. Ancak şirket gündemden düşmüyor. OpenAI, bu yıl dünyanın dört bir yanındaki ülkelerde gerçekleşecek seçim dalgası öncesinde dezenformasyonla mücadele etmek amacıyla yapay zeka araçları (özellikle de görüntü oluşturma modeli DALL-E ve ChatGPT’de ortaya çıkan bilgiler için alıntılar) etrafında yeni önlemleri nasıl uygulamayı planladığını detaylandıran bir blog yazısı yayımladı.
Blog yazısı şöyle başlıyor: “Seçimlerin bütünlüğünü korumak, demokratik sürecin her köşesinde iş birliği yapılmasını gerektiriyor. Teknolojimizin bu süreci baltalayacak şekilde kullanılmadığından emin olmak istiyoruz.” OpenAI, kullanıcıların özel GPT’lerin potansiyel ihlallerini ve davranışlarını OpenAI’a geri bildirmelerine olanak tanıyan bir raporlama işlevi de dahil olmak üzere AI araçları etrafında şu anda yürürlükte olan bir dizi önlemin ana hatlarını çiziyor. Bu önlemler, OpenAI’ın kullanım politikalarına aykırı olduğunu söylediği gerçek kişi veya kurumları taklit edebilecek GPT’leri de içeriyor.
Yeni karşı önlemler yakında geliyor mu?
OpenAI’ın blog yazısında, ChatGPT aracılığıyla kullanıcıların, atıf ve bağlantılar da dahil olmak üzere küresel olarak gerçek zamanlı haber raporlarına erişebileceği belirtildi. Bu, şirketin Associated Press ve Axel Springer (Politico ve Business Insider’ın yayıncısı) gibi haber kuruluşlarıyla manşetlere çıkan ortaklıkları göz önüne alındığında oldukça mantıklı.
Şirket aynı zamanda yapay zeka tarafından üretilen görüntüleri dijital filigranla etiketlemek için kâr amacı gütmeyen bir kuruluş olan Coalition for Content Provenance and Authenticity’nin (C2PA) görüntü kimlik bilgilerini uygulamayı kabul etti. Böylece görüntülerin gerekli olduğunda yapay zeka tarafından üretildiği güvenilir bir şekilde tespit edilebilecek.
OpenAI, C2PA dijital filigranlarını DALL-E 3 görüntülerine bu yılın başlarında uygulayacağını söyledi ancak henüz belirli bir tarih verilmedi. Buna ek olarak şirket bir kez daha DALL-E tarafından üretilen görüntüleri tespit etmek için yeni bir araç olan kaynak sınıflandırıcı fikrinin ön izlemesini yaptı. Bundan ilk kez 2023 sonbaharında, DALL-E 3, ChatGPT Plus ve Enterprise kullanıcılarının görüntü yüklemelerine ve yapay zeka tarafından üretilip üretilmediğini görmelerine olanak sağlayan bir araç olarak piyasaya sürüldüğünde bahsedilmişti.
OpenAI yeni önlem teknolojisini, “Dahili testlerimiz, görüntülerin yaygın değişiklik türlerine maruz kaldığı durumlarda bile umut verici erken sonuçlar gösterdi. Yakında gazeteciler, platformlar ve araştırmacılar da dahil olmak üzere ilk test grubumuza geri bildirim için sunmayı planlıyoruz.” diyerek tarih vermeden açıklamada bulundu.
ABD’deki siyasi aktivistler ve Cumhuriyetçi Ulusal Komite (RNC) gibi köklü kuruluşlar, rakip adayları taklit etmek de dahil olmak üzere mesajlar oluşturmak için hâlihazırda yapay zekayı kullanırken OpenAI’ın araçları, rekor bir dijital dezenformasyon dalgası olması beklenen bu duruma çözüm getirmeye yetecek mi? Bunu söylemek elbette zor ancak belli ki şirket en azından, araçlarının kötü niyetli kullanılmasının karşısında durduğunu ve “doğruluğun destekçisi” olduğunu duyurmak istiyor.
Derleyen: Esin Özcan