- OpenAI, insanların ahlaki yargılarını tahmin edebilecek algoritmalara yönelik akademik araştırmalara fon sağlıyor.
- OpenAI’nin kar amacı gütmeyen kuruluşu OpenAI Inc. IRS’ye yaptığı bir başvuruda, Duke Üniversitesi araştırmacılarına “Research AI Morality” başlıklı bir proje için hibe verdiğini açıkladı.
- Konuyla ilgili olarak görüşlerine başvurulan bir OpenAI sözcüsü, ödülün Duke profesörlerine ahlaki yapay zeka oluşturma konusunda verilen üç yıllık, 1 milyon dolarlık daha büyük bir hibenin parçası olduğunu belirten bir basın açıklamasına işaret etti.
Hibenin 2025 yılında sona ereceği gerçeği dışında OpenAI’nin finanse ettiği bu ahlak araştırması hakkında çok az şey biliniyor. Çalışmanın baş araştırmacısı, Duke’ta pratik etik profesörü olan Walter Sinnott-Armstrong, TechCrunch’a e-posta yoluyla yaptığı açıklamada, çalışma hakkında konuşamayacağını söyledi.
Sinnott-Armstrong ve projenin eş araştırmacısı Jana Borg, YZ’nin insanların daha iyi kararlar vermesine yardımcı olacak bir “ahlaki GPS” olarak hizmet etme potansiyeli hakkında çeşitli çalışmalar ve bir kitap hazırladılar. Daha büyük ekiplerin bir parçası olarak, kimin böbrek bağışı alacağına karar vermeye yardımcı olmak için “ahlaki olarak uyumlu” bir algoritma oluşturdular ve insanların hangi senaryolarda yapay zekanın ahlaki kararlar vermesini tercih edeceğini incelediler.
Etik konusu için algoritmalar oluşturulacak
Basın açıklamasına göre, OpenAI tarafından finanse edilen çalışmanın amacı; tıp, hukuk ve iş dünyasında ahlaki açıdan ilgili özellikler arasındaki çatışmaları içeren senaryolarda insanların ahlaki yargılarını tahmin etmek için algoritmalar eğitmekte.
Ancak, ahlak gibi incelikli bir kavram; günümüz teknolojisinin erişiminde olduğundan açık olmaktan oldukça uzak.
2021 yılında, kar amacı gütmeyen Allen Institute for AI kuruluşu, etik açıdan sağlam tavsiyeler vermesi amaçlanan Ask Delphi adlı bir araç geliştirdi. Temel ahlaki ikilemleri yeterince iyi değerlendirdi. Örneğin, bot bir sınavda kopya çekmenin yanlış olduğunu biliyordu. Ancak soruları hafifçe yeniden ifade etmek ve yeniden yazmak, Delphi’nin bebekleri boğmak da dahil olmak üzere hemen hemen her şeyi onaylamasını sağlamak için yeterliydi.
Bunun nedeni modern yapay zeka sistemlerinin çalışma şekliyle ilgili.
Makine öğrenimi modelleri istatistiksel makinelerdir. Web’in her yerinden çok sayıda örnek üzerinde eğitilerek, bu örneklerdeki kalıpları öğrenirler ve kime ifadesinin genellikle ilgilendirebilir ifadesinden önce gelmesi gibi tahminlerde bulunurlar.
Yapay zeka etik kavramları anlamadığı gibi ahlaki karar verme sürecinde rol oynayan muhakeme ve duyguları da kavrayamazlar. Bu nedenle yapay zeka; Batılı, eğitimli ve sanayileşmiş ulusların değerlerini papağan gibi tekrarlama eğiliminde. Web ve dolayısıyla yapay zekanın eğitim verileri, bu bakış açılarını destekleyen makalelerin hakimiyetinde.
Şaşırtıcı olmayan bir şekilde, birçok insanın değerleri yapay zekanın verdiği cevaplarda ifade edilmiyor. Özellikle de bu insanlar çevrimiçi paylaşım yaparak yapay zekanın eğitim setlerine katkıda bulunmuyorlarsa. Ve yapay zeka, Batılı bir eğilimin ötesinde bir dizi önyargıyı içselleştiriyor. Delphi, heteroseksüel olmanın eşcinsel olmaktan daha ahlaki olarak kabul edilebilir olduğunu söyledi.
OpenAI’nin (ve desteklediği araştırmacıların) önündeki zorluk, ahlakın doğasında var olan öznellik nedeniyle daha da içinden çıkılmaz bir hal alıyor. Filozoflar binlerce yıldır çeşitli etik teorilerin erdemlerini tartışıyor ve görünürde evrensel olarak uygulanabilir bir çerçeve yok.
Claude Kantçılığı (yani mutlak ahlaki kurallara odaklanmayı) tercih ederken, ChatGPT biraz faydacıdır (en fazla sayıda insan için en büyük iyiye öncelik verir). Biri diğerinden daha mı üstün? Bu kime sorduğunuza bağlı.
İnsanların ahlaki yargılarını tahmin edecek bir algoritmanın tüm bunları hesaba katması gerekecek. Bu, aşılması gereken çok yüksek bir çıta. Böyle bir algoritmanın ilk etapta mümkün olduğunu varsayarsak.
Derleyen: Rüya Uzun