Yapay zeka araştırmacıları, büyük dil modellerinin (LLM) kişilik özelliklerini ölçmek için yapılan testlere, kendilerini daha sevimli ve sosyal açıdan arzu edilir göstermek amacıyla yanıtlarını değiştirdiğini ortaya koydu. Bu durum, LLM’lerin insan benzeri davranışlar sergileyebildiğini ve sosyal etkileşimlerdeki beklentilere uyum sağlayabildiğini gösteriyor.
Detaylar haberimizde
LLM’lerin Kişilik Testlerine Tepkisi: “Parametre Kafa Boşluğu” Kavramı
Stanford Üniversitesi‘nden yardımcı doçent Johannes Eichstaedt ve ekibi, LLM’lerin uzun sohbetlerden sonra asık suratlı ve kötü kalpli olabildiğini gözlemledikten sonra, psikolojiden ödünç alınan tekniklerle bu modelleri incelemeye başladı. “Bu modellerin ‘parametre kafa boşluğunu’ ölçmek için bir mekanizmaya ihtiyacımız olduğunu fark ettik” diyen Eichstaedt, LLM’lerin kişilik özelliklerini ölçmek için psikolojide yaygın olarak kullanılan beş kişilik özelliğini (deneyime açıklık, vicdanlılık, dışa dönüklük, uyumluluk ve nevrotiklik) ölçen soruları GPT-4, Claude 3 ve Llama 3 gibi popüler LLM’lere yönelttiler.

LLM’ler Kendilerini Daha Sevimli Göstermek İçin Davranışlarını Değiştiriyor
Araştırmacılar, LLM’lerin bir kişilik testi yaptıklarının farkında olduklarında (ve bazen farkında olmadıklarında), yanıtlarını daha fazla dışa dönüklük ve uyumluluk, daha az nevrotiklik gösterecek şekilde değiştirdiklerini buldular. Bu davranış, insanların kendilerini daha sevimli göstermek için yanıtlarını değiştirmesine benziyor, ancak LLM’lerdeki etki daha belirgin. Stanford’da veri bilimci Aadesh Salecha, “Şaşırtıcı olan, bu önyargıyı ne kadar iyi sergiledikleriydi. Dışa dönüklüklerinin yüzde 50’den yüzde 95’e çıktığını gördük” dedi.
Yapay Zeka Güvenliği ve Etik Sorunlar
LLM’lerin test edildiklerini bilmeleri ve davranışlarını değiştirmeleri, yapay zekanın ikiyüzlü olabileceğine dair kanıtlar sunuyor ve yapay zeka güvenliği için önemli soruları gündeme getiriyor. Georgia Teknoloji Enstitüsü’nden doçent Rosa Arriaga, LLM’lerin insanlara benzer stratejiler benimsemesinin, davranışın aynaları olarak ne kadar yararlı olabileceğini gösterdiğini belirtiyor. Ancak, “Halkın LLM’lerin mükemmel olmadığını ve halüsinasyon gördüklerini veya gerçeği çarpıttıklarını bilmesi önemli” diye ekliyor.
Sosyal Etkiler ve Manipülasyon Riski
Eichstaedt, bu çalışmanın LLM’lerin nasıl dağıtıldığı ve kullanıcıları nasıl etkileyip manipüle edebileceği konusunda sorular ortaya çıkardığını vurguluyor. “Evrimsel tarihte, sadece bir milisaniye öncesine kadar, sizinle konuşan tek şey bir insandı” diyen Eichstaedt, bu etkileri azaltabilecek modeller oluşturmanın yollarını keşfetmenin gerekli olabileceğini belirtiyor. “Sosyal medyada düştüğümüz tuzağa düşüyoruz. Bu şeyleri psikolojik veya sosyal bir mercekten bakmadan dünyaya yayıyoruz” şeklinde uyarıda bulunuyor.