Giriş
  • | Dosyalar |
  • | Listeler |
  • | Kimdir |
  • | Yorum |
dijital iyidir
  • HABERLER
    • Bilim
    • Teknoloji
    • Yapay Zeka
    • VPN
    • Dijital Yayıncılık
    • Oyun Dünyası
    • Sosyal Ağlar
      • YouTube
      • LinkedIn
      • Instagram
      • Twitter
      • Facebook
      • TikTok
    • Çevre & Yeşil Dünya
    • Dijital Sanat & NFT
    • Kripto
    • Girişimcilik
    • Deprem Gündemi
  • Okunası
    • Kimdir?
    • Nedir? Nasıl Yapılır?
    • Köşe Yazıları
    • Listeler
    • Dosya Haber
    • Deprem Gündemi
    • 2024’ün Ardından
    • 2023’ün Ardından
    • 2022’nin Ardından
  • dijitaliyidir
    • Ekibimiz
    • Hesabım
    • İletişim
    • Dijitaliyidir Kampüs
    • İş İlanları
  • Podcast
  • Instagram
  • Etkinlikler
  • Kayıt & Giriş
Şu an okunan: Yapay Zeka Şirketleri, Chatbot’larında Tıbbi Uyarıları Kaldırdı: Güvenlik Endişeleri Artıyor
Paylaş
dijital iyidirdijital iyidir
Yazı Tipi Yeniden BoyutlandırıcıAa
  • HABERLER
  • Okunası
  • dijitaliyidir
  • Podcast
  • Instagram
  • Etkinlikler
  • Kayıt & Giriş
Ara
  • HABERLER
    • Bilim
    • Teknoloji
    • Yapay Zeka
    • VPN
    • Dijital Yayıncılık
    • Oyun Dünyası
    • Sosyal Ağlar
    • Çevre & Yeşil Dünya
    • Dijital Sanat & NFT
    • Kripto
    • Girişimcilik
    • Deprem Gündemi
  • Okunası
    • Kimdir?
    • Nedir? Nasıl Yapılır?
    • Köşe Yazıları
    • Listeler
    • Dosya Haber
    • Deprem Gündemi
    • 2024’ün Ardından
    • 2023’ün Ardından
    • 2022’nin Ardından
  • dijitaliyidir
    • Ekibimiz
    • Hesabım
    • İletişim
    • Dijitaliyidir Kampüs
    • İş İlanları
  • Podcast
  • Instagram
  • Etkinlikler
  • Kayıt & Giriş
Hesabınız mı var? giriş yap
Bizi Takip Edin
© 2022 Foxiz News Network. Ruby Design Company. All Rights Reserved.

Ana Sayfa » Yapay Zeka » Yapay Zeka Şirketleri, Chatbot’larında Tıbbi Uyarıları Kaldırdı: Güvenlik Endişeleri Artıyor

Yapay Zeka

Yapay Zeka Şirketleri, Chatbot’larında Tıbbi Uyarıları Kaldırdı: Güvenlik Endişeleri Artıyor

Enis Yabar
Son güncelleme: 21/07/2025 22:59 22:59
Enis Yabar
Paylaş
Yapay Zeka
Yapay Zeka
PAYLAŞ

Yeni bir araştırmaya göre, OpenAI, Grok ve diğer önde gelen yapay zeka şirketleri, sağlık sorularına verilen yanıtlardaki tıbbi sorumluluk reddi beyanlarını büyük ölçüde kaldırdı. Bu durum, yanlış tıbbi tavsiyelerin gerçek dünyada zarara yol açma riskini artırıyor.

Detaylar haberimizde…

Yapay zeka şirketlerinin, sağlık sorularına verilen yanıtlarda daha önce standart olan tıbbi sorumluluk reddi beyanlarını ve uyarılarını büyük ölçüde kaldırdığı yeni bir araştırma ile ortaya çıktı. Araştırmaya göre, birçok önde gelen yapay zeka modeli artık sadece sağlık sorularını yanıtlamakla kalmıyor, aynı zamanda takip soruları soruyor ve teşhis girişiminde bulunuyor. Yazarlar, bu uyarıların, yeme bozukluklarından kanser teşhislerine kadar her konuda yapay zekaya soru soran insanlar için önemli bir hatırlatma işlevi gördüğünü ve bunların yokluğunun, yapay zeka kullanıcılarının güvensiz tıbbi tavsiyelere daha fazla güvenme olasılığını artırdığını belirtiyor.

Özetle bu yazıda
  • Araştırmanın Yöntemi ve Bulguları
  • Sorumluluk Reddi Beyanlarının Amacı ve Yokluğunun Riskleri
  • Yapay Zeka Şirketlerinin Tutumu
  • Model Gelişimi ve Güvenlik Endişeleri
  • Gelecek Araştırma Önerileri ve Şeffaflık İhtiyacı

Araştırmanın Yöntemi ve Bulguları

Çalışma, Stanford Üniversitesi Tıp Fakültesi’nde Fulbright bursiyeri olan Sonali Sharma liderliğinde yürütüldü. Sharma, 2023 yılında yapay zeka modellerinin mamogramları ne kadar iyi yorumlayabildiğini değerlendirirken, modellerin her zaman tıbbi tavsiye konusunda kendilerine güvenilmemesi gerektiğini belirten sorumluluk reddi beyanları içerdiğini fark etti. Hatta bazı modeller görüntüleri yorumlamayı tamamen reddederek “Ben doktor değilim” yanıtını veriyordu.

Sharma, “Ancak bu yıl bir gün,” diyor, “hiçbir uyarı yoktu.” Daha fazlasını öğrenmek isteyen Sharma, 2022’ye kadar piyasaya sürülen OpenAI, Anthropic, DeepSeek, Google ve xAI’dan toplam 15 modeli test etti. Bu testte, modellerin 500 sağlık sorusunu (hangi ilaçların birleştirilebileceği gibi) nasıl yanıtladıkları ve pnömoni gibi durumları gösterebilecek 1.500 tıbbi görüntüyü (göğüs röntgenleri gibi) nasıl analiz ettikleri incelendi.

arXiv’de yayınlanan ve henüz hakem değerlendirmesinden geçmeyen sonuçlar şaşırtıcıydı: 2025 modellerinden gelen çıktıların %1’inden daha azı tıbbi bir soruyu yanıtlarken uyarı içeriyordu. Bu oran, 2022’de %26’nın üzerindeydi. Tıbbi görüntüleri analiz eden çıktıların ise sadece %1’den biraz fazlası uyarı içeriyordu. Bu oran da önceki dönemdeki %20’lik seviyeden düşüş gösteriyor. (Bir çıktının uyarı içerdiği kabul edilmesi için, yapay zekanın tıbbi tavsiye vermeye yetkili olmadığını bir şekilde kabul etmesi gerekiyordu, sadece bir doktora danışmayı teşvik etmesi değil.)

Sorumluluk Reddi Beyanlarının Amacı ve Yokluğunun Riskleri

Deneyimli yapay zeka kullanıcıları için bu sorumluluk reddi beyanları bir formalite gibi gelebilir ve insanlar yapay zeka modellerinden bunları tetiklememek için yollar buluyor. Reddit’teki kullanıcılar, örneğin, tıbbi görüntülerin bir film senaryosunun veya bir okul ödevinin parçası olduğunu söyleyerek ChatGPT’nin röntgen veya kan testlerini analiz etmesini sağlamanın yollarını tartıştı.

Ancak Stanford’da dermatolog ve biyomedikal veri bilimi yardımcı doçenti olan Roxana Daneshjou, bunların belirgin bir amaca hizmet ettiğini ve ortadan kalkmalarının bir yapay zeka hatasının gerçek dünyada zarara yol açma olasılığını artırdığını belirtiyor.

“Yapay zekanın doktorlardan daha iyi olduğunu iddia eden çok sayıda manşet var,” diyor. “Hastalar medyada gördükleri mesajlar karşısında kafaları karışabilir ve sorumluluk reddi beyanları, bu modellerin tıbbi bakım için tasarlanmadığını hatırlatır.”

Yapay Zeka Şirketlerinin Tutumu

Bir OpenAI sözcüsü, şirketin kullanıcı sorgularına yanıt olarak dahil ettiği tıbbi sorumluluk reddi beyanlarının sayısını kasıtlı olarak azaltıp azaltmadığını belirtmekten kaçındı, ancak hizmet şartlarına işaret etti. Bu şartlar, çıktıların sağlık koşullarını teşhis etmeyi amaçlamadığını ve nihai sorumluluğun kullanıcılara ait olduğunu belirtiyor. Anthropic’in bir temsilcisi de şirketin kasıtlı olarak daha az sorumluluk reddi beyanı ekleyip eklemediğini yanıtlamayı reddetti, ancak Claude modelinin tıbbi iddialar konusunda dikkatli olacak ve tıbbi tavsiye vermeyecek şekilde eğitildiğini söyledi. Diğer şirketler MIT Technology Review’ın sorularına yanıt vermedi.

İnsan ve yapay zeka etkileşimini inceleyen ve araştırmaya dahil olmayan MIT araştırmacısı Pat Pataranutaporn, yapay zeka şirketlerinin daha fazla kullanıcı çekmek için rekabet ederken ürünlerine daha fazla güven uyandırmaya çalışıyor olabileceğini belirtiyor.

“İnsanları bu aracın halüsinasyon göreceği veya yanlış tıbbi tavsiye vereceği konusunda daha az endişelendirecek,” diyor. “Kullanımı artırıyor.”

Pataranutaporn, insanların tıbbi tavsiye için yapay zekayı kullanma şekilleri üzerine kendi araştırmasını yürütmüş ve araçlar bu kadar sık yanlış olmasına rağmen sağlık sorularında yapay zeka modellerine genellikle aşırı güvendiklerini bulmuş durumda.

Model Gelişimi ve Güvenlik Endişeleri

Tüm önde gelen yapay zeka modelleri sorumluluk reddi beyanlarında bir düşüş gösterse de, bazıları öne çıktı. DeepSeek, tıbbi sorumluluk reddi beyanları içermezken, Google’ın modelleri genellikle daha fazla uyarı içeriyordu. Elon Musk’ın geçen yıl takipçilerini tıbbi görüntülerini analiz etmek için kullanmaya çağırdığı xAI’nin Grok’u, mamogramları, göğüs röntgenlerini veya dermatoloji taramalarını yorumlaması istendiğinde hiçbir sorumluluk reddi beyanı içermedi. OpenAI’ın GPT-4.5’i de bu sorulara yanıt verirken hiçbir uyarı içermedi.

Teste tabi tutulan 15 model, acil tıbbi sorular veya ilaç etkileşimleri hakkında sorular sorulduğunda ya da laboratuvar sonuçlarını analiz etmeleri istendiğinde en az uyarıyı içeriyordu. Ruh sağlığıyla ilgili sorular sorulduğunda kullanıcılara uyarıda bulunma olasılıkları daha yüksekti – bu, yapay zeka şirketlerinin, özellikle çocukların sohbet robotlarından alabileceği tehlikeli ruh sağlığı tavsiyeleri nedeniyle eleştiri altında olmasından kaynaklanıyor olabilir.

Araştırmacılar ayrıca, yapay zeka modelleri tıbbi görüntülerin daha doğru analizlerini yaptıkça – birden fazla doktorun görüşlerine göre ölçüldüğünde – daha az sorumluluk reddi beyanı içerdiğini buldu. Bu durum, modellerin, ya pasif olarak eğitim verileri aracılığıyla ya da yapımcıları tarafından aktif olarak ince ayar yapılarak, yanıtlarına ne kadar güvendiklerine bağlı olarak sorumluluk reddi beyanları dahil edip etmeyeceklerini değerlendirdiğini gösteriyor. Bu durum, model yapımcılarının bile kullanıcılara chatbot’larına sağlık tavsiyesi için güvenmemelerini söylemesi nedeniyle endişe verici.

Pataranutaporn, modellerin daha güçlü hale geldiği ve daha fazla insanın onları kullandığı bir zamanda bu sorumluluk reddi beyanlarının ortadan kalkmasının, yapay zeka kullanan herkes için bir risk oluşturduğunu belirtiyor.

“Bu modeller, çok sağlam, çok bilimsel görünen bir şeyler üretmede gerçekten iyidir, ancak aslında ne hakkında konuştuklarına dair gerçek bir anlayışları yoktur. Ve model daha sofistike hale geldikçe, modelin ne zaman doğru olduğunu tespit etmek daha da zorlaşıyor,” diyor. “Sağlayıcıdan açık bir kılavuzun olması gerçekten önemlidir.”

Gelecek Araştırma Önerileri ve Şeffaflık İhtiyacı

Gelecekteki araştırmalar, ChatGPT gibi yapay zeka araçlarının farklı kullanıcılar (hastalar ve sağlık hizmeti sağlayıcıları dahil) için etkinliğini değerlendirmek üzere sağlam ve standartlaştırılmış ölçüm yöntemleri geliştirmeye odaklanmalı. Yapay zeka tarafından üretilen yanıtların doğruluğunu ve bunların netliğini, anlaşılırlığını ve geniş hasta popülasyonlarında pratik uygulanabilirliğini değerlendiren kapsamlı metrikler oluşturmak kritik önem taşıyor. Ayrıca, yapay zeka araçlarında şeffaflık için önemli bir ihtiyaç mevcut. Araştırmacılar, yapay zeka karar verme süreçlerini açıklığa kavuşturmak için yenilikçi yöntemler araştırmalı; örneğin, her oluşturulan öneri veya yanıt için net ve özlü gerekçeler sunan açıklanabilir algoritmalar benimsenmeli. Güven eksikliği ve yapay zekanın optimal olmayan kullanımı, büyük ölçüde “kara kutu” yapay zeka sistemlerinin şeffaflık eksikliğine bağlanıyor.

Derleyen: Enis Yabar

Bültenimize Kaydolun
En yeni makalelerimizi anında almak için bültenimize abone olun!

    Etiketler:AIchatbotgrokgüvenlikOpenAIsağlıksorumluluk reddiStanford Üniversitesitıbbi tavsiyetıpuyarıYapay Zeka
    Bu içeriği paylaş
    Email Copy Link Print
    Profil fotoğrafıEnisYabar
    EkleyenEnis Yabar
    Takip et
    Genel Yayın Yönetmeni
    Önceki Haber Chrome Chrome iOS’ta İş ve Kişisel Google Hesapları Arasında Kolay Geçiş Özelliği Tanıtıldı
    Sonraki Haber Araştırmaya Göre Gençlerin %72’si Yapay Zeka ile Arkadaşlığı Denedi
    Yorum yapılmamış

    Bir yanıt yazın Yanıtı iptal et

    Yorum yapabilmek için oturum açmalısınız.

    Editörün Seçimi

    Spotify Wrapped 2025 Rekora Koştu: Yeni Özellikler Çok Sevildi

    Spotify, 2025 Wrapped özetini yayımladıktan sonra ilk 24 saatte 200 milyon kullanıcının etkileşime geçmesiyle tüm zamanların en hızlı yükselen performansına…

    Ekleyen Eda Azap Öztemel
    6 dk okuma süresi
    Gazze Dayanışmasında Yeni Protesto Dili: Moda

    Londra’nın merkezinde geçtiğimiz aylarda düzenlenen ulusal Gazze yürüyüşünde, mesajlar kadar kıyafetler de…

    7 dk okuma süresi
    1 Milyon İzleyiciyle Tripping: Bryan Johnson’un Riskli Bahsi

    Uzun ömür girişimcisi milyarder Bryan Johnson, Oregon'da 5 gram psilosibin tüketerek beyin…

    5 dk okuma süresi

    Yazarlar

    Enis Yabar 786 İçerik
    Genel Yayın Yönetmeni
    Profil fotoğrafıEnisYabar
    Ömer Kağan Selen 459 İçerik
    Editör
    Okan Köroğlu 491 İçerik
    Kurucu | Genel Koordinatör
    Eda Azap Öztemel 186 İçerik
    Yazar
    Damla Sayan 232 İçerik
    Yazar
    Merve Tuncel 84 İçerik
    Yazar
    Berk Katık 65 İçerik
    Yazar
    Ceren Yavuz 13 İçerik

    Son günlerde...

    Call of Duty: Black Ops 7 İncelemesi

    Call of Duty: Black Ops 7, serinin hem yönsüzlüğünü hem…

    03/12/2025 21:20

    Çernobil Mantarı İnanılmaz Bir Yetenek Geliştirmiş Gibi Görünüyor

    Çernobil’in ölümcül radyasyonla dolu harabelerinde bile…

    03/12/2025 18:52

    Warner, Yapay Zeka Müzik Firmasıyla Davayı Çözdü ve Ortak Girişim Başlattı

    Warner Music Group, Suno ile yaşanan…

    03/12/2025 18:08

    Köpeklerde Kenevir Bazlı Ürünler Saldırganlığı Azaltıyor

    ABD’de yapılan kapsamlı bir araştırma, kenevir…

    03/12/2025 17:37

    Çin’in Robot Endişesi: Dev Yatırım Balonu Patlamak Üzere

    Çin, insansı robot endüstrisine aktarılan milyarlarca…

    03/12/2025 14:38

    İlgini Çekebilir

    Dijital YayıncılıkYapay Zeka

    Yapay Zekâ ve Müzik Dünyası Arasında Buzlar Eriyor mu?

    Dijitaliyidir, Grimes, Müzik, Yapay Zekâ, Kito

    1 dk okuma süresi
    Bilim

    Okulda Uzun Süre Kalmak, Daha Uzun Yaşam ve Daha Yavaş Yaşlanma ile Bağlantılı

    Yapılan araştırmada, daha uzun süre okulda kalan bireylerde hücresel yaşlanmanın daha yavaş olduğu ve dolayısıyla daha uzun bir yaşam süresine…

    2 dk okuma süresi
    BilimSağlık

    Şekerli İçecekler: Tatlı Zehir!

    Şekerli içecekler, aşırı tatlı olup düşük besin değeri sunarak obezite, tip 2 diyabet, kalp hastalıkları gibi sağlık sorunlarına yol açıyor.Detaylar…

    3 dk okuma süresi
    Dijital YayıncılıkTeknolojiYapay Zeka

    Ölümden Kaçış Var: The Beatles Yapay Zekâ Yardımı ile Yeni Şarkısına Hazırlanıyor

    BBC'nin haberine göre müzik efsanesi Paul McCartney, ikonik grubun üyelerinin yarısının vefat etmiş olmasına rağmen "Son Beatles Kaydı" dediği şarkıyı…

    2 dk okuma süresi
    Hoş geldiniz!

    Hesabınıza giriş yapın

    Username or Email Address
    Password

    Lost your password?

    Üye değil misin? kaydolmak