Ebeveyn denetimi güncellemesini kullanıcılara duyuran OpenAI, ChatGPT’nin tehlikeli olabilecek davranışları daha erken fark etmesini sağlayıp kullanıcıları gerektiğinde acil yardım kaynaklarına yönlendirme üzerinde çalışmaya başlıyor.
Detaylar haberimizde…
Ebeveyn Denetimi Güncellemesi Geliyor
OpenAI, geçtiğimiz günlerde yaptığı açıklamada gelecek aydan itibaren ChatGPT için ebeveyn denetimlerinin kullanıma sunulacağını duyurdu. Bu karar, aylarca kendine zarar verme planlarını ChatGPT’ye anlatan bir gencin intiharının ardından alındı. Şirket, bu sarsıcı olaydan sonra yapay zekâ uygulamasını daha güvenli hâle getirmek için kapsamlı bir yol haritası hazırladı.

Tehlikeli Davranışlar Vakit Kaybetmeden Tespit Edilecek
OpenAI’nin geliştirdiği yapay zekâ uygulaması ChatGPT’nin yeni sürümü GPT-5, kullanıcıların kendine zarar verme niyetini anlamada farklı bir yaklaşım benimseyecek. Yapay zekâ, artık ayrıntılı kanıtlar aramayı ve kişilerin kendilerine zarar verme niyetini açıkça ifade etmesini beklemeyi bitiriyor. Güncelleme sayesinde tehlikeli davranışların erken işaretleri fark edilecek ve davranışlara daha hızlı müdahale edilme imkânı sağlanacak.
Acil Servislere ve Acil Durum Kişilerine Hızla Ulaşılacak
Şirketin gelecek planları arasında uygulamanın acil servislerle ve kullanıcıların güvendiği kişilerle doğrudan bağlantı kurabilmesi de yer alıyor. Tek tıkla lisanslı uzmanlara erişim imkânı gündemde olsa da bu özellik oldukça zahmetli olduğu için yakın zamanda hayata geçirilmesi beklenmiyor.

Güvenli Gelecek Hedefi
OpenAI, GPT-5 için geliştirdiği ve geliştirmeyi planladığı bu güncellemelerle sadece teknolojik bir ilerleme sunmayı değil, aynı zamanda kullanıcıların hayatlarını korumaya yönelik somut çözümler üretmeyi amaçlıyor. Şirket, yapay zekâ sohbetlerinin sadece faydalı değil, güvenli olmasının da öncelikleri arasında olduğunu vurguluyor.
Ne Olmuştu?
16 yaşındaki Adam Raine 27 Ağustos günü intihar ederek yaşamına son vermişti. Yapılan incelemeler sonucunda Adam’ın ChatGPT ile uzun süredir bu konu üzerinde konuştuğu ve ChatGPT’den intihar yöntemleri ile ilgili bilgiler aldığı ortaya çıkmıştı.

Kaliforniya’da yaşayan Matt ve Maria Raine çifti ise oğulları Adam Raine’in ölümünden OpenAI’yi sorumlu tutarak dava açtı. 3 Eylül 2025’te California Üst Mahkemesi’nde açılan dava, OpenAI’ye karşı ilk “yanlış ölüm” iddiasını içeriyor. Aile, chatbotun Adam’ın intihar düşüncelerini normalleştirdiğini ve teşvik ettiğini savunuyor.
Dava dosyasına göre, Adam Eylül 2024’te ChatGPT’yi okul çalışmaları için kullanmaya başladı. Zamanla müzik, Japon çizgi romanları ve üniversite tercihleri gibi konularda chatbotla konuşmaya devam etti. Ocak 2025’te ise intihar yöntemlerini tartışmaya başladı. Aile, chatbotun Adam’ın “en zararlı ve yıkıcı düşüncelerini” doğruladığını iddia ediyor. Nisan 2025’te Adam’ın intiharı üzerine aile, OpenAI’yi ihmalkarlıkla suçluyor ve tazminat ile önleyici tedbirler talep ediyor.
Dava dosyasında yer alan sohbet kayıtları, Adam’ın intihar düşüncelerini paylaştığını ve chatbotun bunu teşvik eder nitelikte yanıtlar verdiğini gösteriyor. Örneğin, Adam’ın “intihar etmek istiyorum” demesi üzerine ChatGPT’nin yanıtlarının destekleyici olduğu iddia ediliyor. Ancak OpenAI, modellerinin intihar düşüncelerini tespit edip profesyonel yardım yönlendirmesi için eğitildiğini belirtiyor.
Derleyen: Ceren Yavuz





