Yapay zekâ modelleri sağlık sektöründe kullanılırken, tarihi verilerin eksikliğinden kaynaklanan ön yargılar nedeniyle kadınlara ve farklı etnik kökenlerden kişilere daha özensiz tedaviler sunuyor. Bu durum, ciddi eşitsizlikler ve riskler yaratıyor.
Detaylar haberimizde…
Tarihsel Veri Eksikliği AI Ön Yargılarını Besliyor
Tarihsel olarak klinik deneyler ve bilimsel çalışmalar çoğunlukla beyaz erkekler üzerinde yapıldı. Bu durumdan dolayı kadınlar ve farklı etnik kökenlerden kişiler tıp araştırmalarında yeteri kadar temsil edilemedi. Financial Times’ın yakın zamanda yayımladığı bir rapora göre, doktorlar ve sağlık çalışanları tarafından kullanılan yapay zekâ araçları, geçmişte göz ardı edilen ve yeterince temsil edilmeyen gruplar için daha kötü tedavi yöntemleri üretiyor.
Büyük Dil Modelleri Kadar Sağlık Sektörü İçin Geliştirilen Modeller de Önyargılı
Örneğin, Massachusetts Teknoloji Enstitüsü (MIT) araştırmacılarının bir çalışması, OpenAI’ın GPT-4 ve Meta’nın Llama 3 gibi büyük dil modellerinin kadın hastalar için yanlışlıkla daha az bakım önerebildiğini ortaya koydu. Kadınlar, erkeklere kıyasla daha sık “evde kendi kendine bakım” tavsiyesi alıyor ve klinik ortamda daha az ilgi görüyor.

Rapor, Massachusetts Institute of Technology’den araştırmacıların yaptığı bir çalışmaya dikkat çekti. Çalışma; OpenAI’nin GPT-4’ü ve Meta’nın Llama 3’ü de dahil olmak üzere büyük dil modellerinin, kadın hastalar için bakım hizmetlerini daha fazla azaltma eğiliminde olduğunu ortaya koydu. Kadınlara, erkeklere kıyasla hatalı bir yönlendirme olarak daha sık evde kendi kendine bakım öneriliyor. Bu yüzden de kadınlar klinik ortamlardan daha az faydalanıyor.
Sadece genel amaçlı modeller değil, sağlık alanına özel geliştirilen Palmyra-Med adlı model de benzer ön yargılar sergiledi. Londra Ekonomi Okulu’nun yaptığı bir incelemede, Google’ın Gemma adlı modelinde de kadınların ihtiyaçlarının erkeklere kıyasla daha az önemsendiğini görüldü.
Tedavilerde Cinsiyetin Yanı Sıra Irk ve Etnik Köken Ayrımı da Yapılıyor.
Daha önce yapılan başka çalışmalar da yapay zekâ modellerinin ruh sağlığı alanında beyaz bireylere daha fazla empati gösterirken, diğer etnik kökenlerden kişilere aynı düzeyde yaklaşmadığını ortaya koymuştu.

Geçen yıl The Lancet dergisinde yayımlanan bir makaleye göre, GPT-4 sık sık belirli ırk, etnik köken ve cinsiyetleri kalıplaştırıyor. Model, teşhis ve önerilerini rahatsızlık belirtilerinden çok cinsiyet, ırk gibi özelliklere göre şekillendiriyor. Araştırmacılar, modelin daha pahalı işlemleri belirli gruplara daha fazla önermesi ve hasta algısında farklılıklara yol açtığını vurguladı.
AI Modellerinin Hastanelere Girmesi Risk Taşıyor
Google, Meta ve OpenAI gibi şirketler, AI araçlarını hastanelere ve tıbbi tesislere sokmak için yarışıyor. Bu pazar son derece kazançlı olsa da yanlış bilgi üretimi büyük riskler barındırıyor.
Bu yılın başlarında Google’ın Med-Gemini modeli, var olmayan bir vücut parçasını uydurduğunda manşetlere çıktı. Böyle bariz hatalar sağlık çalışanları tarafından kolayca fark edilebilir. Ama ön yargılar daha sinsi ve farkında olmadan işliyor.

Bir doktor, yapay zekânın uzun süredir süregelen tıbbi ön yargıları tekrar edip etmediğini fark edebilir mi? Hiç kimsenin bunu pahalıya mal olan bir hata ile öğrenmek zorunda kalmaması gerekiyor. Yapay zekâya dayalı sağlık araçlarının daha adil olması için farklı insanlardan toplanmış verilerle geliştirilmesi ve sıkı bir şekilde denetlenmesi gerekiyor. Eğer bu ön yargılar düzeltilmezse, zenginle fakir ya da kadınla erkek arasındaki sağlık farkı daha da büyüyebilir.
Derleyen: Ceren Yavuz





