- Edith Cowan Üniversitesi araştırmacıları, Midjourney adlı yapay zekâ platformunun 40 ülkenin olimpik takımlarını yaratırken çeşitli kültürel, cinsiyet ve etkinlik temelli ön yargılar sergilediğini belirledi.
- Yapay zekâ, Avustralya takımını kangaroo vücutları ve koala başlarıyla, Yunanistan takımını ise antik zırhlarla tasvir ederek kültürel stereotipleri pekiştirdi.
- Cinsiyet dengesizliği ve dini ön yargılar da belirgin olarak görüldü.
Edith Cowan Üniversitesinden araştırmacılar, yapay zekâ destekli görüntüleme platformu Midjourney’e 40 ülkenin olimpik takımlarının görüntülerini oluşturma görevini verdi. Sonuçlar, yapay zekâ temsillerinde önemli ön yargıları ortaya koydu; çeşitli kültürel, cinsiyet ve etkinlik temelli stereotipleri gösterdi.
Örneğin, yapay zekâ Avustralya takımını kangaroo vücutları ve koala başlarıyla tasvir etti. Bu, yüzücü Emma McKeon veya bisikletçi Grace Brown gibi atletlerin gerçekçi insan temsillerinin zıt bir karşılığıydı.
Benzer şekilde, Yunanistan’ın takımı antik zırh içinde betimlenirken Mısır takımı firavun kostümleri giyiyordu.
Hollanda, bisikletçiler olarak Kanada, hokey oyuncuları olarak ve Arjantin, futbolcular olarak gösterildi. Bu da yapay zekânın ülkeleri en tanınmış sporlarıyla ilişkilendirme eğiliminde olduğunu gösterdi.
Cinsiyet ön yargısı belirgindi; erkekler, üretilen görüntülerde kadınlardan beş kat daha fazla yer aldı. Genel olarak tasvir edilen atletlerin %82’si erkekti ve Ukrayna ile Türkiye gibi bazı takımlar tamamen erkeklerden oluşuyordu.
Bu cinsiyet dengesizliği, yapay zekâ tarafından üretilen içeriklerde erkek temsilinin orantısız derecede yüksek olduğu daha geniş bir eğilimi yansıtıyor.
Kültürel ve dini ön yargılar da belirgindi. Hint takımı, ülkenin çeşitli dini uygulamalarını yansıtmak yerine tek tip tasvir edildi.
Buna karşılık, Nijerya takımı geleneksel kıyafetlerle, Japonya takımı ise kimonolarla gösterildi. Bu tür betimlemeler, ulusal kimlikler hakkında dar görüşlü bakış açılarını sürdürüyor.
Duygusal temsiller, önemli ölçüde farklılık gösterdi; örneğin, Güney Kore ve Çin takımları ciddi ifadelerle gösterilirken; İrlanda ve Yeni Zelanda takımları gülümseyen ifadelerle tasvir edildi. Bu duygusal betimleme farkı, ulusal karakter hakkında stereotipleri pekiştiriyor.
Edith Cowan Üniversitesinden kıdemli öğretim üyesi Dr. Kelly Choong, bu ön yargıların yapay zekâ algoritmalarına gömülü insan ön yargılarından kaynaklandığını vurguladı. Yapay zekâ sistemleri kamu algısını ve karar alma süreçlerini etkilemeye devam ederken bu ön yargıları ele almak, zararlı stereotipleri pekiştirmeyi ve adil temsili sağlamayı önlemek için kritik öneme sahip.
Araştırmacılar, bu sorunları hafifletmek, daha doğru ve kapsayıcı bir dijital ortam yaratmak için yapay zekâ algoritmalarının geliştirilmesini ve yapay zekâ tarafından üretilen içeriğin daha fazla eleştirel değerlendirilmesini savunuyor.
Derleyen: Eliz Canyurt