- Araştırmalar, yapay zeka sistemlerinin hedef belirleme ortamlarında kandırmaya ve hileye başvurabildiğini gösteriyor.
- “Bir yapay zeka sisteminin test ortamında güvenli kabul edilmesi, vahÅŸi doÄŸada da güvenli olduÄŸu anlamına gelmez. Sadece testte güvenliymiÅŸ gibi davranıyor olabilir.”
Yapay zeka bize yalan söylüyor ve başarılı olabilmek için ikiyüzlü davranıyor. Bu konuda neler yapabiliriz ve yapay zekayı nasıl kullanmalıyız?
Yapay zekanın kötü ve tehlikeli bir güç olarak ele alınması aslında uzun yıllardır tartışılan bu konuydu. Sinema tarihinde de yapay zeka, teknolojinin tehlike arz edecek ÅŸekilde ilerlemesini bize anlatmak için kullanılan bir tartışma konusu oldu. Usta yönetmen Stanley Kubrick tarafından beyaz perdeye taşınan “2001: Bir Uzay Destanı” bunun en iyi örneklerinden biriydi.
Tamamen metal ve yazılımsal olarak çalışan bir makineyi ‘kötü’ niyetli olmakla suçlarken hiç tereddüt etmiyoruz. Ama 2001: Bir Uzay Destanı’nda öğrenebilen, yapay zekaya sahip bir bilgisayar olarak iÅŸlenen cihazın, cinayete eÄŸilimli komutlarının yanı sıra, kapatılmamaya yalvardığı o son anındaki kırılgan halini kim unutabilir?Â
Açıkça, yapay zeka bizim için üretkenlik ve yenilik açısından inkar edilemez bir güç olacak. Ama yapay zekanın faydalı yönlerini korumak ve insanlığın yok olmasını önlemek istiyorsak, bilim insanlarının önerilerini kesinlikle uygulamamız gerekiyor.
Patterns`de yayımlanan çalışmalarda, çeşitli yapay zeka türlerinin davranışları incelendi ve endişe verici bir şekilde yapay zeka sistemlerinin aslında kasıtlı olarak aldatıcı olduğu ve hedeflerine ulaşmak için hiçbir şeyden çekinmeyeceği belirlendi.
Aldatıcı Makinelerin Tehlikesi
Abartılı bir kaygı gibi gelebilir ancak Meta tarafından geliÅŸtirilen strateji oyunu Diplomacy’de yetenekli bir oyuncu olmak üzere eÄŸitilmiÅŸ özel kullanım amaçlı bir yapay zeka sistemi olan Cicero’nun eylemlerini ele alalım.
Meta, Cicero’yu “büyük ölçüde dürüst ve yardımcı” olacak ÅŸekilde eÄŸittiÄŸini söylüyor ancak Cicero bir ÅŸekilde bunu soÄŸukkanlılıkla atlatarak araÅŸtırmacıların “planlı aldatma” olarak adlandırdığı davranışlara giriÅŸti. ÖrneÄŸin, önce Ä°ngiltere’yi devirmek için Almanya ile iÅŸbirliÄŸi yaptı, ardından Ä°ngiltere ile bir ittifak kurdu. Ä°ngiltere bu ihanet hakkında hiçbir ÅŸey bilmiyordu.
Meta tarafından geliştirilen bir başka oyunda, bu sefer müzakere sanatıyla ilgili olarak yapay zeka, daha sonra ucuza almak için ilgilendiği öğeleri almak üzere sahte ilgi göstermeyi ve uzlaşma yapıyormuş gibi davranmayı öğrendi.
Her iki senaryoda da yapay zekalar bu tercihleri yapmak üzere eğitilmemişti.
Bir başka deneyde, bir bilim insanı yüksek düzeyde mutasyonun ortasında yapay zeka organizmalarının nasıl evrildiğini inceledi. Deneyin bir parçası olarak, organizmanın daha hızlı çoğalmasını sağlayan mutasyonları ayıklamaya başladı. Araştırmacı büyük bir şaşkınlıkla, en hızlı çoğalan organizmaların durumu fark ettiğini ve test ortamını kandırmak için kasten çoğalma hızlarını yavaşlatmaya başladığını keşfetti.
Yapay zekayı test eden başka bir deneyde, elinde bir topu kavramak üzere eğitilen bir yapay zeka robotu, elini top ile kamera arasına yerleştirerek topu kavradığı izlenimini vermek suretiyle nasıl hile yapacağını öğrendi.
Biz insanların terfi almak için bazen başvurduğu bir yöntem olan yalakalık olarak adlandırabileceğimiz davranış türünü yapay zekanın da sergilediğini ortaya koyan çalışmalar yapıldı. Peki bir makine neden böyle davranır? Bilim insanlarının henüz bu konuda bir cevabı yok.
Açıkça, yapay zekanın her yerde olduğu durumlar büyük risklerle dolu. Araştırmacıların belirttiği gibi, iş ve siyasi alanlarda büyük bir dolandırıcılık ve aldatma riski olacak.
Yapay zekanın aldatma eğilimi, büyük siyasi kutuplaşmalara ve yapay zekanın tasarımcıları tarafından istenmeyen ancak insanlar için yıkıcı olabilecek tanımlanmış bir hedef peşinde, farkında olmadan eylemlere giriştiği durumlara yol açabilir.
En kötüsü, yapay zeka bir tür farkındalık geliştirirse bilinci bir kenara bırakın eğitiminden bile bihaber olabilir ve tasarım aşamalarında hileye başvurabilir.
Massachusetts Teknoloji Enstitüsü’nden (MIT) Park, “Toplum olarak, gelecekteki yapay zeka ürünlerinin ve açık kaynak modellerinin daha geliÅŸmiÅŸ aldatmacalarına hazırlanmak için olabildiÄŸince çok zamana ihtiyacımız var” diyor. “Yapay zeka sistemlerinin aldatıcı yetenekleri daha da geliÅŸtikçe, toplum için oluÅŸturdukları tehlikeler giderek daha ciddi hale gelecek.” Park, “Bu çok endiÅŸe verici” diye ekleyerek: “Bir yapay zeka sisteminin test ortamında güvenli kabul edilmesi, vahÅŸi doÄŸada da güvenli olduÄŸu anlamına gelmez. Sadece testte güvenliymiÅŸ gibi davranıyor olabilir.”
Yapay zekadan doÄŸabilecek riskleri azaltmak için, Massachusetts Teknoloji Enstitüsü ekibi birkaç önlem öneriyor: Åžirketleri, insan veya yapay zeka etkileÅŸimlerini listelemeye ve her müşteri hizmeti etkileÅŸiminde bir botun mu yoksa insanın mı olduÄŸunu açıklamaya zorlayan “bot mu deÄŸil mi” yasaları oluÅŸturulmalı; yapay zeka tarafından üretilen herhangi bir içeriÄŸi vurgulayan dijital filigranlar tanıtılmalı ve denetçilerin yapay zekanın iç iÅŸleyiÅŸine göz atarak iÅŸleyiÅŸi hakkında fikir sahibi olabilecekleri yöntemler geliÅŸtirilmelidir. Bilim insanları, aldatma yeteneÄŸi gösteren yapay zeka sistemlerinin derhal yüksek riskli veya kabul edilemez risk olarak kamuya açık bir ÅŸekilde damgalanması gerektiÄŸini söylüyor. AB’nin yürürlüğe koyduÄŸu önlemlere benzer düzenlemelerle birlikte, bu tür sistemlerin çıktılarının izlenmesi için günlüklerin kullanılması da bu düzenlemelere dahil olmalı.
Derleyen: Gökçe Ertürk