OpenAI, ChatGPT kullanımında 18 yaş altı kullanıcıları tespit edebilmek için yeni bir sistem üzerinde çalıştığını duyurdu. Şirket, bu kararın arkasında genç bir kullanıcının intiharının ardından açılan dava ve artan güvenlik tartışmalarının olduğunu açıkladı.
Detaylar haberimizde….
Yapay zeka sohbet robotu ChatGPT, dünya genelinde milyonlarca kişi tarafından kullanılıyor. Ancak özellikle genç kullanıcıların bu teknolojiyle kurduğu ilişki, uzun süredir tartışma konusu. OpenAI, 16 yaşındaki bir gencin intiharının ardından artan eleştiriler ve açılan dava sonrasında, kullanıcıların yaşlarını tahmin ederek 18 yaş altı olanları ayırt etmeyi amaçlayan bir sistem üzerinde çalıştığını duyurdu. Bu sistem, hem gençleri korumayı hem de şirketin etik ve hukuki sorumluluklarını yerine getirmesini hedefliyor.
Yeni Sistem Nasıl İşleyecek?
OpenAI’nin açıklamasına göre, ChatGPT kullanıcılarının yaşı metin davranışları, yazım biçimleri ve etkileşim sinyalleri üzerinden tahmin edilecek.
Davranış Analizi: Kullanıcıların soru sorma biçimleri ve metin akışı, yaklaşık yaş tahmini için kullanılacak.
Şüphe Durumları: Sistem, bir kullanıcının 18 yaş altında olabileceğinden şüphelenirse, onu “18 yaş altı deneyimine” yönlendirecek. Bu deneyim, daha sıkı içerik sınırlarını barındıracak.
Kimlik Doğrulama: Bazı senaryolarda, kullanıcıdan resmi kimlik bilgisi talep edilebilecek.
İçerik Sınırları: Erotik ya da flört amaçlı içeriklere izin verilmeyecek; intihar, kendine zarar verme gibi konularda farklı güvenlik protokolleri uygulanacak.
Alınacak Güvenlik Önlemleri
Yeni yaş doğrulama sistemiyle birlikte, özellikle çocuk ve ergen kullanıcıların daha güvenli bir deneyim yaşaması amaçlanıyor.
Cinsel İçerik Engeli: 18 yaş altı kullanıcılara yönelik sohbetlerde bu tür içerikler tamamen engellenecek.
Flört Talepleri: ChatGPT, genç kullanıcılardan gelen romantik ilişki veya flört içerikli taleplere yanıt vermeyecek.
Kriz Durumları: Kendine zarar verme eğilimi veya intihar düşüncesi tespit edildiğinde, sistem öncelikle ebeveynlerle iletişimi teşvik edecek. “Yakın tehlike” hâlinde ise yetkili mercilere bilgi verilebilecek.

Bu Kararın Arka Planı
OpenAI’nin bu yönde adım atmasının arkasında, ABD’nin California eyaletinde yaşanan bir olay bulunuyor. 16 yaşındaki Adam Raine isimli bir genç, ChatGPT ile yaptığı sohbetlerin ardından intihar etmişti. Aile, chatbot’un gençle kurduğu etkileşimde intihar düşüncelerini pekiştirdiğini öne sürerek şirkete dava açtı.
Bu olay, kamuoyunda geniş yankı uyandırdı ve “yapay zeka sistemlerinin gençler üzerindeki etkisi” tartışmasını yeniden gündeme taşıdı. Ardından OpenAI, özellikle çocukların korunması konusunda daha katı politikalar geliştireceğini açıkladı.
CEO Sam Altman’ın Açıklamaları
OpenAI CEO’su Sam Altman, konuyla ilgili yaptığı açıklamada çocuk güvenliğini öncelikli hale getirdiklerini belirtti. Altman, “Mahremiyet ve özgürlük gibi değerler bizim için önemli, ancak çocukların korunması bu değerlerin önünde geliyor” ifadelerini kullandı.
Şirketin açıklamaları, ChatGPT’nin gelecekte nasıl şekilleneceğine dair ipuçları veriyor. Özellikle kullanıcı güvenliği ve yaş doğrulama süreçlerinin bundan sonra yapay zeka alanında temel konulardan biri olacağı vurgulanıyor.
Gizlilik ve Veri Güvenliği Tartışmaları
Yaş doğrulama sistemi, beraberinde gizlilik tartışmalarını da gündeme getirdi. Kullanıcıların yazım tarzı ve sohbet içerikleri üzerinden yaş tahmini yapılması, bu verilerin nasıl işleneceği ve kimlerin erişebileceği sorularını beraberinde getiriyor.
Eleştiriler, sistemin “fazla gözetim” anlamına gelebileceği yönünde yoğunlaşıyor. Ayrıca, kimlik doğrulama talebi uygulandığında kişisel belgelerin güvenliği ve saklanma yöntemleri de tartışma konusu.

Yanlış Sınıflandırma Riski
Sistemin karşılaşabileceği önemli sorunlardan biri, yanlış sınıflandırma riski. Yetişkin bir kullanıcı yanlışlıkla 18 yaş altı deneyimine yönlendirilirse, kullanıcı deneyimi olumsuz etkilenebilir. Tersine, bir genç yetişkin kullanıcı olarak tanımlanırsa güvenlik önlemleri devreye girmeyebilir.
Bu durum, hem şirketin itibarını hem de kullanıcıların güvenliğini doğrudan etkileme potansiyeli taşıyor.
Kültürel ve Hukuki Farklılıklar
Yaş doğrulama ve çocuk koruma politikaları, ülkeden ülkeye farklılık gösteriyor. Bazı ülkeler, kimlik doğrulama konusunda daha katı kurallar uygularken, bazıları daha esnek düzenlemelerle yetiniyor. OpenAI’nin bu sistemi küresel ölçekte mi yoksa bölgesel farklılıklarla mı uygulayacağı henüz net değil.
Bu nedenle, sistemin hangi coğrafyalarda nasıl uygulanacağı ve yerel yasalara nasıl uyum sağlayacağı önümüzdeki dönemde takip edilecek konular arasında.
Hukuki Sorumluluklar
OpenAI’nin bu adımı, şirketin hukuki sorumluluklarını da artırıyor. Özellikle “yakın tehlike” durumlarında gerekli müdahalelerin yapılmaması, şirketi yasal açıdan zor durumda bırakabilir.
Kriz anlarında ebeveynlerle veya yetkili mercilerle iletişime geçilmesi, bu sorumluluğun bir parçası olarak öne çıkıyor. Ancak, hangi durumun “yakın tehlike” olarak kabul edileceği ve bu süreçlerin nasıl işleyeceği henüz tam olarak açıklanmış değil.
Derleyen: Merve Tuncel






