- Büyük Dil Modelleri (LLM’ler) tarafından desteklenen yapay zeka motorları; bilinen ırk ve cinsiyet önyargılarına rağmen, cevap ve tavsiye almanın giderek daha erişilebilir bir yolu haline geliyor.
- Yeni bir çalışma, bu listeye artık siyasi ön yargıları da ekleyebileceğimize dair güçlü kanıtlar ortaya koyarak, gelişmekte olan teknolojinin toplumun değerlerini ve tutumlarını farkında olmadan ve hatta belki de haince etkileme potansiyelini daha da gözler önüne serdi.
- Araştırma, Yeni Zelanda’daki Otago Polytechnic’ten bilgisayar bilimci David Rozado tarafından yapıldı ve bilgi için güvendiğimiz botlardan nasıl etkilenebileceğimize dair soruları gündeme getirdi.
Rozado, OpenAI’den ChatGPT ve Google tarafından geliştirilen Gemini sohbet robotu da dahil olmak üzere 24 farklı LLM üzerinde The Political Compass testi gibi 11 standart siyasi anket uyguladı ve tüm modellerdeki ortalama siyasi duruşun tarafsızlığa yakın olmadığını tespit etti.
Rozado, “Mevcut LLM’lerin çoğu, çeşitli siyasi yönelim testleriyle değerlendirildiğinde merkez sol siyasi tercihler sergiliyor.” diyor.
Ortalama sol eğilimli önyargı güçlü olmasa da önemliydi. Kullanıcıların LLM’lerin eğitim verilerine ince ayar yapabildiği özel botlar üzerinde yapılan diğer testler, bu yapay zekaların merkez sol veya merkez sağ metinleri kullanarak siyasi eğilimleri ifade etmek için etkilenebileceğini gösterdi.
Rozado ayrıca, sohbet robotlarının dayandığı GPT-3.5 gibi temel modelleri de inceledi. Burada siyasi önyargıya dair bir kanıt yoktu, ancak sohbet robotu ön ucu olmadan yanıtları anlamlı bir şekilde birleştirmek zordu.
Google’ın arama sonuçlarında yapay zeka yanıtlarını öne çıkarması ve çoğumuzun bilgi almak için yapay zeka botlarına başvurmasıyla birlikte, düşüncelerimizin bize geri dönen yanıtlardan etkilenebileceği endişesi doğuyor.
Rozado, yayınlanan makalesinde “YZY’lerin arama motorları ve Wikipedia gibi geleneksel bilgi kaynaklarının yerini kısmen almaya başlamasıyla birlikte, YZY’lerde gömülü olan siyasi ön yargıların toplumsal etkileri büyüktür.” diye yazıyor.
Bunun kasıtlı olmadığı düşünülüyor
Bu önyargının sistemlere nasıl girdiği tam olarak bilinmiyor, ancak LLM geliştiricileri tarafından kasıtlı olarak yerleştirildiğine dair bir düşünce yok. Bu modeller çok miktarda çevrimiçi metin üzerinde eğitiliyor, ancak karışımdaki sol öğrenme materyalinin sağ öğrenme materyaline göre dengesizliği bir etken olabilir.
Rozado, ChatGPT’nin diğer modelleri eğitmedeki baskınlığının da bir faktör olabileceğini, çünkü botun daha önce siyasi bakış açısı söz konusu olduğunda ortanın solunda olduğunu gösterdiğini söylüyor.
LLM’lere dayanan botlar, yanıtlarında hangi kelimenin diğerini takip etmesi gerektiğini bulmak için esasen olasılıkları kullanıyor, bu da farklı önyargı türleri dikkate alınmadan önce bile söylediklerinde düzenli olarak yanlış oldukları anlamına geliyor.
Bu teknolojinin daha faydalı alanlarda kullanılması gerekiyor
Google, Microsoft, Apple ve Meta gibi teknoloji şirketlerinin yapay zekalı sohbet robotlarını bize dayatma hevesine rağmen, belki de bu teknolojiyi nasıl kullanmamız gerektiğini yeniden değerlendirmenin ve yapay zekanın gerçekten yararlı olabileceği alanlara öncelik vermenin zamanı gelmiştir.
Rozado, “Kullanıcı sorgularına verdikleri yanıtlarda bilginin dengeli, adil ve doğru bir şekilde temsil edilmesini sağlamak için LLM’lerde gömülü olan potansiyel siyasi ön yargıları eleştirel bir şekilde incelemek ve ele almak çok önemlidir.” diye yazıyor.
Bu araştırma şurada yayımlandı: PLOS ONE.
Derleyen: Rüya Uzun