- ChatGPT, geçen yılın sonlarında çevrim içi dünyada yankılandığında hayatlarımız zaten yapay zekâ (AI) ile doluydu.
- zamandan bu yana, teknoloji şirketi OpenAI tarafından geliştirilen jeneratif yapay zekâ sistemi hız kazandı ve uzmanlar riskler konusundaki uyarılarını artırdı.
- Bu arada, sohbet robotlarının senaryo dışına çıkıp cevap vermeye, diğer botları kandırmaya ve garip davranmaya başlaması, bazı yapay zeka araçlarının insan benzeri zekaya ne kadar yaklaştığı konusunda yeni endişelere yol açtı.
Bunun için Turing Testi, uzun zamandır makinelerin insan gibi davranıp davranmadığını belirlemek için kullanılan hatalı bir standarttı. Ancak bu son YZ yaratım dalgasında, onların yinelemeli yeteneklerini ölçmek için daha fazlasına ihtiyacımız var gibi görünüyor.
Aralarında OpenAI’ın yönetişim biriminin bir üyesinin de bulunduğu bilgisayar bilimcilerinden oluşan uluslararası bir ekip, ChatGPT gibi büyük dil modellerinin (LLM’ler) kendilerinin ve içinde bulundukları koşulların farkına varabileceklerini gösteren yetenekler geliştirebilecekleri noktayı test ediyor. ChatGPT de dâhil olmak üzere günümüzün LLM’lerinin güvenlik açısından test edildiği ve üretici davranışını iyileştirmek için insan geri bildirimlerini içerdiği söylendi.
Vanderbilt Üniversitesinde bilgisayar bilimcisi olan Lukas Berglund ve meslektaşlarına göre, durumsal farkındalık olarak adlandırılan endişe, bir modelin şu anda test modunda olup olmadığını veya halka dağıtılıp dağıtılmadığını anlamaya başlayabilmesine denir.
Berglund ve meslektaşları, arXiv’de yayımlanan ancak henüz hakem değerlendirmesinden geçmemiş olan ön baskılarında, “Bir LLM, güvenlik testlerinde yüksek bir puan elde etmek için durumsal farkındalıktan yararlanabilirken, konuşlandırıldıktan sonra zararlı eylemlerde bulunabilir” diye yazıyor.
“Bu riskler nedeniyle, durumsal farkındalığın ne zaman ortaya çıkacağını önceden tahmin etmek önemli.”
Oxford Üniversitesinde YZ güvenlik ve risk araştırmacısı olan Owain Evans, bağlam dışı muhakemenin, mevcut LLM’lerin hâlâ “edinmekten biraz uzak” olduğu durumsal farkındalığın kaba bir ölçüsü olduğunu söylüyor.
Ancak bazı bilgisayar bilimcileri, ekibin deneysel yaklaşımının durumsal farkındalığın uygun bir değerlendirmesi olup olmadığını sorguladı. Evans ve meslektaşları ise çalışmalarının tıpkı modellerin kendileri gibi rafine edilebilecek bir başlangıç noktası olduğunu söyleyerek buna karşı çıkıyorlar.
Ekip, “Bu bulgular, LLM’lerde durumsal farkındalığın ortaya çıkışını tahmin etmeye ve potansiyel olarak kontrol etmeye yönelik daha fazla deneysel çalışma için bir temel sunuyor.” diye yazıyor.
Derleyen: Görkem Süner


