ChatGPT’nin yaratıcısı OpenAI, akademik alanda doğan intihal endişelerini gidereceklerini iddia ediyor. ChatGPT’nin ürettiği metinlerin filigranlanacağını ve bu sayede kullanıcıların botun ürettiği metinleri sahiplenmeyecekleri açıklamalar arasında yer alıyor.
Silikon Vadisi şirketi olan OpenAI geçtiğimiz günlerde çok kapsamlı nitelikleri olan yapay zekâ teknolojisi ChatGPT’yi kullanıma sundu. Birçok kullanım alanı olan ChatGPT, özelikle insan elinden çıkmış gibi görünen makaleler yazmasıyla akademide ses getirdi. Okul müdürleri ve üniversite öğretim görevlileri, sınav sorularına insan elinden çıkmış ikna edici yanıtlar verebilen ChatGPT’nin ev ödevlerinde ve sınavlarda kopya çekme dalgasına yol açabileceğine dair endişelerini dile getirdiler. Bu durumun yarattığı endişeleri ortadan kaldırmak isteyen geliştiriciler, botun çıktılarını filigranlayarak intihalin tespit edilmesini kolaylaştırmayı amaçlıyor.
OpenAI’ın konuk araştırmacısı Scott Aaronson, Teksas Üniversitesinde verdiği bir konferansta şirketin çıktıları istatistiksel olarak filigranlayarak kopya çekmeye karşı koyacak bir sistem üzerinde çalıştığını söyledi. Aaronson, teknolojinin ChatGPT tarafından seçilen belirli kelime seçimini bir okuyucu tarafından fark edilmeyecek ancak makine tarafından oluşturulan metnin işaretlerini arayan herkes için istatistiksel olarak tahmin edilebilir olacak şekilde çalışacağını belirtti. Aaronson, “Bir GPT çıktısını alıp bir insandan gelmiş gibi göstermenin çok daha zor olmasını istiyoruz. Bu, elbette akademik intihalin önlenmesinde faydalı olabilir ama aynı zamanda kitlesel propagandanın önlenmesine de yardımcı olabilir.” dedi.
Teknoloji analisti Benedict Evans botu “Bir üniversite öğrencisinin hiçbir derse katılmadığı bir soruyu kendinden emin bir şekilde yanıtlaması gibi kesinlikle doğru olmayan gerçekleri uydurma eğilimi var. Çok ikna edici saçmalıklar yazabilen kendinden emin bir palavracıya benziyor” şeklinde tanımlıyor.

Ancak bu teknoloji, aceleyle iyi bir kompozisyon yazması gereken öğrenciler tarafından çoktan benimsendi. ChatGPT’nin makaleleri şimdiye kadar hiçbir geleneksel intihal dedektörüne takılmadı çünkü ürettiği metin daha önce yazılmamıştı. Böylece değerlendiricilerin hile yapanları nasıl tespit edecekleri konusunda endişeleri artmaya başladı. ChatGPT’nin piyasaya sürülmesinden bu yana çeşitli kuruluşlar, kullanıcıların yapay zekâ tarafından üretilen metinleri kendi çalışmaları olarak sunmasına karşı özel politikalar oluşturdu. Programcıların kodlama sorunlarını çözmelerine yardımcı olma konusunda uzmanlaşmış bir soru-cevap sitesi olan Stack Overflow, kullanıcıların ChatGPT tarafından yazılan yanıtları göndermelerini yasakladı. Sitenin yöneticileri, “Temel sorun, ChatGPT’nin ürettiği yanıtların yüksek oranda yanlış olmasına rağmen genellikle doğru gibi görünmeleri ve yanıtların üretilmesinin çok kolay olmasıdır. Genel olarak, ChatGPT’den ortalama doğru cevap alma oranı çok düşük olduğu için, ChatGPT tarafından oluşturulan cevapların yayımlanması siteye ve doğru cevapları soran veya arayan kullanıcılara önemli ölçüde zarar vermektedir.” açıklamasını yaptı.
Yapay zekâ araçlarının kişinin kendisine aitmiş gibi gösterilebilecek yazılar üretmek için kullanılması, OpenAI’ın destekçilerinden biri olan Amerikalı risk sermayedarı Paul Graham tarafından “AIgiarism” olarak adlandırıldı. Graham aralık ayında yaptığı açıklamada, “Bence yapay zekâya karşı kurallar kabaca intihale karşı olanlara benzer olmalı. İntihal ile ilgili sorun sadece bir başkasının hak ettiği övgüyü almanız değil bunu yanlış bir şekilde sizin ürününüz olduğunu iddia etmenizdir. Bu durum yapay zekâ ürünü metinler için de geçerlidir.” dedi.
Derleyen: Deniz Akbulut