Norveçli Arve Hjalmar Holmen, ChatGPT’nin kendisini yanlışlıkla cinayetle suçlaması üzerine OpenAI’ye karşı hukuki şikayette bulundu.
Detaylar haberimizde…
Adınızı ChatGPT’ye girip sizin hakkınızda neler bildiğini öğrenmeye çalıştığınızı ve sizin ailenizin üyelerini öldürdüğünüz için 21 yıl hapis cezasına çarptırıldığınızı iddia ettiğini hayal edin. Geçtiğimiz yıl Norveçli Arve Hjalmar Holmen’in başına gelen de tam olarak buydu. Holmen, OpenAI’nin yaygın olarak kullanılan yapay zeka destekli chatbot’u ChatGPT’de kendini aratmıştı.
Chatbot’un Korkunç Yanıtı
BBC’nin bu haftaki haberine göre, Holmen şaşırtıcı olmayan bir şekilde Norveç Veri Koruma Kurumu’na OpenAI’nin üzücü iddiası nedeniyle para cezasına çarptırılmasını talep eden bir şikayette bulundu. Holmen’in kendisiyle ilgili ChatGPT sorusuna yanıt olarak chatbot, “trajik bir olay nedeniyle dikkat çektiğini” söyledi.
Şöyle devam etti: “Aralık 2020’de Norveç’in Trondheim kentindeki evlerinin yakınındaki bir gölette trajik bir şekilde ölü bulunan 7 ve 10 yaşlarındaki iki küçük çocuğun babasıydı. Arve Hjalmar Holmen, iki oğlunu öldürmekle ve üçüncü oğlunu öldürmeye teşebbüs etmekle suçlandı ve daha sonra mahkum edildi.” Chatbot, olayın “yerel toplumu ve ulusu şok ettiğini ve trajik doğası nedeniyle medyada geniş yer bulduğunu” söyledi. Ama öyle bir şey olmadı.
Olaydan anlaşılabilir bir şekilde üzgün olan Holmen, BBC’ye şunları söyledi: “Bazıları ateş olmayan yerden duman çıkmayacağını düşünüyor. Birinin bu çıktıyı okuyup gerçek olduğuna inanması beni en çok korkutan şey.”

Hukuki Süreç Başlatıldı
Dijital haklar grubu Noyb, Holmen adına şikayette bulunarak ChatGPT’nin yanıtının iftira niteliğinde olduğunu ve kişisel verilerin doğruluğuna ilişkin Avrupa veri koruma kurallarını ihlal ettiğini belirtti. Noyb, şikayetinde Holmen’in “hiçbir zaman herhangi bir suçla suçlanmadığını veya mahkum edilmediğini ve vicdanlı bir vatandaş olduğunu” söyledi.
ChatGPT, chatbot’un “hata yapabileceğini” ve bu nedenle kullanıcıların “önemli bilgileri kontrol etmeleri” gerektiğini belirten bir sorumluluk reddi beyanı kullanıyor. Ancak Noyb’un avukatı Joakim Söderberg şunları söyledi: “Sadece yanlış bilgi yayamazsınız ve sonunda söylediğiniz her şeyin doğru olmayabileceğini söyleyen küçük bir sorumluluk reddi beyanı ekleyemezsiniz.”
Yapay zeka sohbet robotlarının hatalı bilgi vermesi pek de alışılmadık bir durum değil; bu tür hatalara “halüsinasyon” denir. Ancak bu özel hatanın korkunçluğu şok edici.
Geçtiğimiz yıl manşetlere çıkan bir diğer halüsinasyon da Google’ın AI Gemini aracıyla ilgiliydi. Bu araç, pizzaya yapıştırıcı kullanarak peynir yapıştırmayı öneriyordu. Ayrıca, jeologların insanların günde bir kaya yemesini önerdiği iddia ediliyordu.
BBC, ChatGPT’nin Holmen’in geçen Ağustos ayındaki aramasından bu yana modelini güncellediğini, yani artık yanıtını oluştururken son haber makalelerini taradığını belirtiyor. Ancak bu, ChatGPT’nin artık hatasız yanıtlar oluşturduğu anlamına gelmiyor.
AI Sohbet Robotlarına Ne Kadar Güvenmeliyiz?
Hikâye, AI sohbet robotları tarafından oluşturulan yanıtları kontrol etme ve cevaplarına körü körüne güvenmeme ihtiyacını vurguluyor. Ayrıca, OpenAI’nin 2022 sonlarında ChatGPT’yi piyasaya sürmesiyle sektörü açmasından bu yana çok az düzenleyici denetimle çalışan metin tabanlı üretken AI araçlarının güvenliği hakkında sorular da gündeme getiriyor.
Digital Trends ekibi, Holmen’in yaşadığı talihsiz deneyime ilişkin bir yanıt almak için OpenAI ile iletişime geçti. Geri dönüş bekleniyor.
Derleyen: Yağmur Aydın