Facebook’un ana şirketi Meta, teyit kuruluşlarının çabalarını ölçeklendirmelerine yardımcı olmak ve etkilerini artırmak için Poynter Enstitüsü’nün Uluslararası Doğruluk Kontrolü ile ortaklaşa geliştirilen bir gerçek kontrolü mentörlük programı başlattı. Bu yeni girişim ile çevrimiçi yanlış bilgilerin yayılmasını önlemek amaçlanıyor.
Meta, daha fazla bölgede daha fazla kuruluşun zararlı eğilimlerle mücadele etmesine yardımcı olmaya özel olarak odaklanarak, paylaşılan eğitim yoluyla gerçekleri kontrol etme süreçlerini iyileştirmeye yardımcı olacak olan girişime 450.000$ kaynak ayıracak.
Bu girişimin manipülatif enformasyonu önlemek için bir adım olduğunu göz ardı etmemekle birlikte halihazırda yürütülen yargılama sürecini ve doğruluğu teyit edilmeden yapılan paylaşımların olduğunu unutmamak gerek.
Facebook’un Topluluk Kuralları sayfasında yanlış bilgi ile mücadele kısmında:
‘’Yanlış bilgilerin Facebook ve Instagram’da yayılmasıyla mücadele etmeye kararlıyız. Pek çok ülke ve bölgede, bu içeriği belirlemek, incelemek ve üzerinde işlem yapmak için objektif Uluslararası Doğruluk Kontrol Ağı (IFCN) aracılığıyla sertifikalandırılmış bağımsız, üçüncü taraf doğruluk kontrolü kuruluşlarıyla çalışıyoruz.’’ ifadeleri yer alıyor.
Facebook gibi sosyal medya platformlarının ticarileşmiş ekonomi politik yapıları gereği, daha çok reklam geliri hedefleyen algoritmalar kullanması, daha çok tıklanma için yalan haber üretimini teşvik edici bir rol oynadığı söylenebilir.
Geçtiğimiz aylarda, Facebook eski çalışanı, Amerikan Wall Street Journal’a bazı iç yazışmalarında yer aldığı belgeleri sızdırdı.
Facebook eski çalışanı Frances Haugen’ın sızdırdığı belgelerin, Facebook’un “büyümeyi güvenliğe tercih ettiğini” kanıtladığını belirtti.
Frances Haugen, Facebook’un önceliğinin, “nefret söylemiyle ve yalan haberle mücadele değil, kâr etmek’’ olduğunu söyledi.
Haugen, ‘’Sızdırılan belgelerden bazıları Facebook’un, ünlü ve çok takipçili bir kısım kullanıcıya, içerik kontrolü bakımından diğer kullanıcılardan farklı ve ayrıcalıklı davrandığını ortaya koyuyor.’’ dedi.
Yanlış bilginin yayılmasında büyük rol oynayan Facebook, sıkı bir inceleme altına alındı. Son dosya sızıntılarıyla beraber haber kaynaklarının algoritması üzerindeki etkilerin bir kez daha altı çiziliyor. Önemli olarak tartışmaya açık içeriğin ortaya çıkmasına yardımcı olabilecek çeşitli teşvikler ve katılım sağlama mekanizmaları içerikleri genişletmede yardımcı olabilir.
Ayrıca Buzzfeed adlı haber sitesi tarafından gerçekleştiren bir analiz de ise ABD başkanlık seçimlerinde seçimle ilgili uydurulmuş yalan haberlerin Facebook’un üzerinden yayılım oranının, geleneksel haber kanal haberlerinden verilen seçim haberlerine oranla çok daha yüksek olduğunu gösteriyor.
Meta, platformunun bunun sonucunda artan bölünmeden sorumlu olmadığını söyledi ve Meta Platformları Küresel İşler ve İletişimden Sorumlu Başkan Yardımcısı Nick Clegg:
“ ABD’deki siyasi kutuplaşmadaki artış, birkaç on yıl öncesine dayanıyor. Facebook’un kutuplaşmanın başlıca nedeni olduğu doğru olsaydı, Facebook’un popüler olduğu her yerde yükselişini görmeyi beklerdik ama değil. Aslında, kutuplaşma ABD’de yükselirken, sosyal medya kullanımının yüksek olduğu birçok ülkede azaldı.” dedi.
Yine de, ABD’de özellikle uygulamada her gün en çok paylaşılan ilk on bağlantı gönderisini görüntülediğinizde, Facebook’un daha fazla kutuplaşmaya neden olduğunu inkar etmek zor:
Facebook’un algoritmaları, etkileşime dayalı ve en fazla etkileşim tetikleyicisi, duygusal tepki oluşturan içerikler. Bu açıdan bakıldığında en cazip tepkiler öfke ve neşe.
Facebook’un kendi sistemlerinin, bir ticari fayda olarak, bu tür bir katılımı sağlamak üzerine inşa edilebileceğini görebilirsiniz. Bu nedenle, yanlış bilgiyle mücadele etmek için her türlü çaba önemlidir çünkü hepimizin farklı görüşleri vardır, ancak bu düşünceleri yalan ve yalanlarla yanlış yönlendiren raporlar yalnızca daha geniş demokrasiye zarar verir. İnternet haber doğrulama sitelerinin yalan haberle mücadelede tek başına yeterli olması mümkün değil. Bu nedenle, bu yeni girişim önemli bir rol oynayacağa benziyor .