- ChatGPT ve diğer yapay zekâ sohbet robotlarıyla yeterince zaman geçirdiğinizde uydurma bir cevap görmeniz uzun sürmez.
- Yapay zekânın uyduruk bir cevap yerine kesin ve doğru bir cevap vermesinin ne kadar mümkün olacağı merak konusu.
Halüsinasyon, konfabülasyon ya da sadece bir şeyleri uydurma olarak tanımlanan bu durum; artık her işletme, organizasyon ve lise öğrencisinin belgeler oluşturmak ve işlerini halletmek için üretken bir yapay zekâ sistemi edinmeye çalıştığı bir sorun.
Sohbet robotu Claude 2’nin üreticisi Anthropic’in kurucu ortağı ve başkanı Daniela Amodei, “Bugün bazı halüsinasyonlardan muzdarip olmayan herhangi bir AI modeli olduğunu sanmıyorum.” dedi.
Anthropic, ChatGPT üreticisi OpenAI ve büyük dil modelleri olarak bilinen yapay zekâ sistemlerinin diğer büyük geliştiricileri, onları daha doğru hâle getirmek için çalıştıklarını söylüyorlar. Bunun ne kadar süreceği -ve örneğin güvenli bir şekilde tıbbi tavsiyelerde bulunacak kadar iyi olup olmayacakları- henüz belli değil.
Dilbilim profesörü ve Washington Üniversitesi Hesaplamalı Dilbilim Laboratuvarı Direktörü Emily Bender, “Bu düzeltilebilir bir şey değil. Bu, teknoloji ile önerilen kullanım alanları arasındaki uyumsuzluğun doğasında var.” diyor.
Üretken yapay zekâ teknolojisinin güvenilirliği büyük önem taşıyor. McKinsey Global Institute, bu teknolojinin küresel ekonomiye 2,6 trilyon ila 4,4 trilyon dolar arasında bir katkı sağlayacağını öngörüyor. Sohbet robotları bu çılgınlığın yalnızca bir parçası ve yeni görüntüler, videolar, müzikler ve bilgisayar kodları üretebilen teknolojileri de içeriyor. Neredeyse tüm araçlar bir dil bileşeni içeriyor.
OpenAI CEO’su Sam Altman haziran ayında Hindistan’ı ziyaret ettiğinde, Delhi Indraprastha Bilgi Teknolojileri Enstitüsünden bir profesörün bazı sivri soruları vardı. Bu sorulara cevap olarak Altman, “Halüsinasyon sorununu çok çok daha iyi bir yere getireceğimizi düşünüyorum. Bunun bir buçuk, iki yılımızı alacağını düşünüyorum. Ama o noktaya geldiğimizde bunlar hakkında konuşmayacağız. Yaratıcılık ve mükemmel doğruluk arasında bir denge var ve modelin ne zaman birini ne zaman diğerini istediğinizi öğrenmesi gerekecek.” dedi.
Jasper AI şirketinin başkanı Shane Orlick, bu yapay zekâ hatalarının Jasper AI’dan yardım isteyen pazarlama firmaları için büyük bir sorun olmadığını söylüyor.
Orlick, “Halüsinasyonlar aslında ek bir bonus. Müşterilerimiz bize her zaman Jasper’ın nasıl fikirler ürettiğini, kendilerinin asla düşünemeyeceği hikâyeleri ya da açıları nasıl yarattığını anlatıyorlar.” diyor.
Teksas merkezli girişim; OpenAI, Anthropic, Google veya Meta gibi ortaklarla birlikte çalışarak müşterilerine onların ihtiyaçlarına göre uyarlanmış yapay zekâ dil modelleri sunuyor. Orlick, doğruluk konusunda endişe duyan biri için Anthropic’in modelini sunabileceğini, özel kaynak verilerinin güvenliği konusunda endişe duyan birinin ise farklı bir model alabileceğini söyledi. Orlick, halüsinasyonların kolayca düzeltilemeyeceğini bildiğini de ekledi.
Aralarında Microsoft’un kurucu ortağı Bill Gates’in de bulunduğu tekno-iyimserler, pembe bir tablo öngörüyor. Gates, yapay zekânın toplumsal risklerine ilişkin düşüncelerini detaylandırdığı temmuz ayındaki bir blog yazısında “Yapay zekâ modellerine zamanla gerçeği kurgudan ayırt etmenin öğretilebileceği konusunda iyimserim.” dedi. Hatta OpenAI’ın 2022 tarihli bir makalesini “bu konuda umut verici bir çalışma” örneği olarak gösterdi.
Ancak Altman bile ürünleri çeşitli kullanımlar için pazarlarken veya kendisi için bilgi ararken modellerin doğru olacağına güvenmiyor. Altman, bir söyleşide, “Muhtemelen ChatGPT’den çıkan cevaplara dünyadaki herkes arasında en az ben güveniyorum.” demişti.
Derleyen: Görkem Süner