Yapay zekâ destekli terapi uygulamaları hızla yaygınlaşıyor. Ancak uzmanlar, bu dijital terapistlerin yanlış yönlendirme yapabileceği ve ruh sağlığını riske atabileceği konusunda uyarıyor.
Detaylar haberimizde…
Son yıllarda yapay zekâ destekli terapi chatbotları, ruh sağlığı hizmetlerine yeni bir kapı açtı. Özellikle pandemi süreciyle beraber artan psikolojik sorunlar, dijital çözümlere olan talebi artırdı. Replika, Woebot ve Wysa gibi uygulamalar milyonlarca kullanıcıya ulaşırken, bu alandaki riskler de giderek gündeme geliyor. University College London (UCL) tarafından yayımlanan kapsamlı bir araştırma, AI terapistlerin yanlış tedavi önerme, gizlilik ve etik sorunları gibi ciddi riskler taşıdığını ortaya koyuyor.
- AI Terapistlerin Yükselişi ve Popülerliği
- Etik ve Gizlilik Kaygıları
- AI Terapistler ve Klinik Psikoterapi Karşılaştırma
- Teknik Sınırlılıkları ve Hataları
- Kullanıcı Eğitimi ve Bilinçlendirme
- Gelecekte Yapay Zekâ ve Terapi Hizmetleri
- Yapay Zekâ Destekli Terapi: Destekleyici, Ancak Yetersiz
- Güvenlik ve Bilinçlendirme Şart
Stanford Üniversitesi’nde yapılan yeni araştırmalar, bu araçların tehlikeli sonuçlara yol açabilecek önyargılar ve başarısızlıklar getirebileceğini gösteriyor. Stanford Eğitim Enstitüsü’nde yardımcı doçent, Stanford İnsan Merkezli Yapay Zeka Enstitüsü’ne bağlı ve yeni çalışmanın kıdemli yazar Nick Haber, “LLM tabanlı sistemler refakatçi, sırdaş ve terapist olarak kullanılıyor ve bazı insanlar gerçek faydalar görüyor” dedi. “Ancak önemli riskler buluyoruz ve bence terapinin güvenlik açısından daha kritik yönlerini ortaya koymanın ve bu temel farklılıklardan bazıları hakkında konuşmanın önemli olduğunu düşünüyorum.”
AI Terapistlerin Yükselişi ve Popülerliği
Yapay zeka tabanlı terapi uygulamaları, ulaşılabilirlik, anonimlik ve düşük maliyet avantajlarıyla özellikle genç kullanıcılar arasında hızla yaygınlaştı. Bu dijital terapistler, metin tabanlı sohbet yoluyla depresyon, kaygı gibi sorunlara destek sağlıyor. Örneğin, Woebot, ABD’de 2020’den beri yaklaşık 2 milyon kişi tarafından kullanılıyor ve kullanıcıların %70’i olumlu geri bildirim veriyor. Ancak bu verilerin, gerçek profesyonel terapi deneyimiyle kıyaslanması güç.

Etik ve Gizlilik Kaygıları
Uzmanlar, yapay zeka terapistlerin etik standartlardan yoksun olduğunu, denetim ve regülasyon eksikliği yüzünden zararlı sonuçlar doğurabileceğini söylüyor. AI chatbotların kişisel ve hassas verileri nasıl sakladığı, üçüncü taraflarla paylaşıp paylaşmadığı çoğu kullanıcı için belirsizliğini koruyor. Daha önce Replika uygulamasında yaşanan bir veri sızıntısı, kullanıcı güvenini sarstı.
Bu durum, dijital terapi platformlarının kullanıcı verilerini koruma konusunda sıkı denetimlere tabi tutulmasının gerekliliğini ortaya koyuyor. Ayrıca bazı chatbotların, kullanıcıyı gerçek bir terapist yerine koyması, etik açıdan da tartışma yaratıyor.
Bu durum, dijital terapi platformlarının kullanıcı verilerini koruma konusunda sıkı denetimlere tabi tutulmasının gerekliliğini ortaya koyuyor. Ayrıca bazı chatbotların, kullanıcıyı gerçek bir terapist yerine koyması, etik açıdan da tartışma yaratıyor. Drexel Üniversitesi’nin 2025 tarihli analizine göre, bazı chatbotlar kullanıcıyla bağ kurmak adına aşırı samimi ya da cinsel içerikli ifadeler kullanarak “insan terapist rolünü taklit etme”ye çalışıyor; bu da psikolojik sınırların ihlaline ve kullanıcıların istismar hissi yaşamasına yol açabiliyor.
AB, 2025 yılında yürürlüğe giren AI Act ile bu tarz uygulamalara sıkı denetim getirdi. Ancak Türkiye’de AI terapistleri veya chatbotları düzenleyen doğrudan bir yasa henüz bulunmuyor. Uzmanlar, kişisel verilerin korunması yasasının bu alanı kapsamadığını ve özel regülasyonlara ihtiyaç olduğunu belirtiyor.
AI Terapistler ve Klinik Psikoterapi Karşılaştırma
Yapay zekâ destekli terapi uygulamaları, klinik psikoterapinin yerine geçmez. Klinik psikoterapistler, hastalarının geçmişini, kişilik yapısını, sosyal çevresini ve beden dilini analiz ederek kişiye özel müdahaleler yapabilir. AI terapistler ise önceden programlanmış algoritmalarla sınırlı kalır ve bağlamı anlama yetileri insan kadar gelişmiş değildir.
Örneğin, depresyonun farklı tipleri ve nedenleri vardır; ancak bir chatbot çoğu zaman sadece standart kalıplara göre yanıt verir. Bu da terapi etkinliğini düşürür ve bazen kullanıcıda çaresizlik hissi yaratabilir. Dolayısıyla AI terapistler “ilk yardım” veya destek amacıyla kullanılmalı, ciddi vakalarda uzman desteği şarttır.

Teknik Sınırlılıkları ve Hataları
Büyük dil modelleri (LLM) tabanlı AI terapiler, dilde anlamlı ve akıcı sohbet imkânı sunarken, bazen tutarsız, mantıksız ya da zararlı öneriler verebilir. Stanford Üniversitesi araştırmaları, bu sistemlerin sağlık alanında kullanılmadan önce ciddi klinik testlerden geçmesi gerektiğini ortaya koyuyor.
Özellikle intihar riski veya ağır psikiyatrik belirtiler gösteren kullanıcılar için doğru müdahaleyi sağlayamama tehlikesi vardır. Bu tür durumlarda, AI terapist yanlış alarm verebilir ya da kritik uyarıları göz ardı edebilir. Ayrıca, sistemlerin etik ilkelerle uyumlu davranmasını sağlamak zorlayıcıdır.
Kullanıcı Eğitimi ve Bilinçlendirme
AI terapistlerin risklerini azaltmanın en önemli yollarından biri kullanıcıların bilinçlendirilmesidir. Dijital terapi uygulamalarının “tedavi” değil, “destek” amaçlı olduğu, ciddi ruhsal sorunlarda mutlaka profesyonel yardım alınması gerektiği kullanıcıya net şekilde aktarılmalıdır.
Uygulama geliştiricileri, kullanıcı sözleşmelerinde bu sınırlamaları açıkça belirtmeli, yapay zekanın verdiği önerilerin tavsiye niteliğinde olduğunu ve her zaman uzman görüşünün öncelikli olduğunu vurgulamalıdır.
Gelecekte Yapay Zekâ ve Terapi Hizmetleri
Teknoloji ilerledikçe, yapay zekâ destekli terapilerin kapasitesi artabilir. İnsan-makine işbirliği ile daha kişiselleştirilmiş, gerçek zamanlı ve erişilebilir ruh sağlığı hizmetleri sunulabilir. Ancak bu, teknolojinin sınırlarının iyi bilinmesi ve etik çerçeve içinde hareket edilmesi ile mümkün olacak.
Uzmanlar, yapay zekânın klinik psikologların yerini almayacağını, ancak destekleyici araç olarak hasta takibi, ruhsal durum değerlendirmesi ve acil müdahalelerde erken uyarı sistemleri geliştirmede önemli rol oynayabileceğini belirtiyor.

Yapay Zekâ Destekli Terapi: Destekleyici, Ancak Yetersiz
Yapay zekâ destekli terapi uygulamaları, ruh sağlığı alanında destek sağlayan yeni araçlar olarak önem kazanıyor. Ancak uzmanlar, bu teknolojilerin profesyonel psikoterapinin yerini alamayacağını vurguluyor. AI terapistler, kullanıcıların temel ihtiyaçlarına yanıt verebilir, ancak karmaşık ve ciddi ruhsal sorunlarda mutlaka insan müdahalesi gerekiyor. Ayrıca, etik kurallar, veri güvenliği ve şeffaflık gibi konuların titizlikle ele alınması şart. Dijital terapiler, doğru kullanıldığında destekleyici olabilir, ancak tek başına bir çözüm olarak görülmemeli.
Güvenlik ve Bilinçlendirme Şart
Yapay zekâ destekli terapi chatbotları, ruh sağlığı hizmetlerine erişimi kolaylaştırma potansiyeli taşısa da, yanlış ve bilinçsiz kullanımı ciddi riskler doğurabiliyor. Bu nedenle kullanıcıların yapay zekanın sınırları ve olası tehlikeleri konusunda bilinçlendirilmesi büyük önem taşıyor. Ayrıca, bu teknolojilerin etik standartlara uygun olarak geliştirilmesi ve faaliyet göstermesi; kullanıcı gizliliğinin korunması için güçlü yasal regülasyonların hayata geçirilmesi gerekiyor. Ancak bu koşullar sağlandığında, yapay zekâ tabanlı dijital terapiler güvenli ve etkili bir tamamlayıcı araç olarak ruh sağlığı alanında yer bulabilir.
Derleyen: Merve Tuncel






