- ASPIRE, tahmin yerine dürüstlüğü teşvik ederek yapay zeka etkileşimlerini daha güvenilir hale getirmeye hazırlanıyor.
- Google araÅŸtırmacıları yapay zekaya “bilmiyorum” demeyi öğreterek yapay zeka dünyasını sarsıyor.
- ASPIRE olarak adlandırılan bu yeni yaklaşım, bir cevaptan emin olmadığında yapay zekayı şüphe duymaya teşvik ederek dijital yardımcılarımızla etkileşim şeklimizde devrim yaratmayı planlıyor.
Google araÅŸtırmacıları yapay zekaya “bilmiyorum” demeyi öğreterek yapay zeka dünyasını sarsıyor. ASPIRE olarak adlandırılan bu yeni yaklaşım, bir cevaptan emin olmadığında yapay zekayı şüphe duymaya teÅŸvik ederek dijital yardımcılarımızla etkileÅŸim ÅŸeklimizde devrim yaratmayı planlıyor. EMNLP 2023 konferansında sergilenen yenilik, tamamen yapay zeka yanıtlarına “özen” duygusu aşılamakla ilgili. Açılımı “LLM’lerde Seçici Tahmini GeliÅŸtirmek için Öz DeÄŸerlendirme ile Adaptasyon” olan ASPIRE, yapay zeka için yerleÅŸik bir güven ölçer gibi hareket ederek, cevaplarını sunmadan önce yapay zekanın kendi cevaplarını deÄŸerlendirmesine yardımcı oluyor.
Akıllı telefonunuzdan bir saÄŸlık sorunu hakkında tavsiye istediÄŸinizde ASPIRE sayesinde yapay zeka yanlış olabilecek bir cevap vermek yerine “Emin deÄŸilim” ÅŸeklinde yanıt verebilir. Bu sistem, yapay zekayı yanıtlarına bir güven puanı atayacak ÅŸekilde eÄŸiterek yanıtına ne kadar güvenmemiz gerektiÄŸini bize gösteriyor. Google’dan Jiefeng Chen ve Jinsung Yoon’un da aralarında bulunduÄŸu ekip, daha güvenilir dijital karar alma süreçlerine doÄŸru bir geçiÅŸin öncülüğünü yapıyor. GeliÅŸtirici ekip, yapay zekanın, özellikle de kritik bilgiler söz konusu olduÄŸunda, sınırlarını bilmesinin ve bunları açıkça ifade etmesinin çok önemli olduÄŸunu savunuyor.

Wisconsin-Madison Ãœniversitesinde araÅŸtırmacı olan ve makalenin ortak yazarı Chen, “LLM’ler artık dili daha önce görülmemiÅŸ düzeyde anlayabiliyor ve üretebiliyor ancak yüksek riskli uygulamalarda kullanımları sınırlı çünkü bazen sahip oldukları yüksek güvenle hata yapabiliyorlar.” dedi. Ekibin araÅŸtırmaları, ASPIRE ile donatılmış daha küçük yapay zeka modellerinin bile bu iç gözlem özelliÄŸinden yoksun olan daha büyük modelleri geçebileceÄŸini gösteriyor. Bu sistem esasen, bir insanın cevap vermek için daha uygun olabileceÄŸini kabul eden daha güvenilir bir yapa yapay zeka yaratıyor.
ASPIRE, tahmin yerine dürüstlüğü teÅŸvik ederek yapay zeka etkileÅŸimlerini daha güvenilir hale getirmeye hazırlanıyor. ASPIRE, yapay zeka asistanınızın her ÅŸeyi bilen bir kâhin yerine düşünceli bir danışman olabileceÄŸi ve “bilmiyorum” demenin geliÅŸmiÅŸ bir zekanın iÅŸareti olduÄŸu mutlak geleceÄŸin yolunu açıyor.
Derleyen: Fatma Ebrar Tuncel