- Üretken yapay zeka sistemleri, iş yaşamında sıkıcı işleri otomatikleştirmek için kullanılıyor ve bu sistemlerin güvenlik açıkları potansiyel saldırılara neden olabiliyor.
- Araştırmacılar, üretken yapay zeka solucanları geliştirerek bağlantılı, otonom yapay zeka ekosistemlerinin güvenlik risklerini göstermeye çalışıyorlar.
- Bu solucanlar, sistemler arasında yayılabilen, veri çalabilen veya kötü amaçlı yazılım dağıtabilen zararlı yazılımlar. Bu tür saldırılar şirketler için ciddi bir endişe kaynağı olabilir.
OpenAI’ın Chat GPT’si ve Google’ın Gemini’ı gibi üretken yapay zeka sistemleri daha gelişmiş hale geldikçe, giderek daha fazla kullanıcıya ulaşmaya başlandı. Teknoloji şirketleri, sizin için sıkıcı işleri tamamlayabilecek sistemlerin üzerine yapay zeka aracıları ve ekosistemler inşa ediyor. Otomatik olarak takvim rezervasyonları yapmayı ve potansiyel olarak ürün satın almayı düşünün. Ancak araçlara daha fazla özgürlük tanındıkça, onlara saldırılabilecek potansiyel yollar da artıyor.
Araştırmacılar bağlantılı, özerk yapay zeka ekosistemlerinin risklerini gösteren bir çalışmada, ilk üretken yapay zeka solucanları olduğunu düşündükleri bir sistem yarattı. Bu solucan, bir sistemden diğerine yayılabilir, potansiyel olarak verileri çalabilir veya kötü amaçlı yazılımları sisteme dağıtabilir. Araştırmanın arkasındaki Cornell Tech araştırmacısı Ben Nassi, “Bu, temel olarak, artık daha önce görülmemiş yeni bir tür siber saldırıyı yürütme veya gerçekleştirme yeteneğine sahip olduğunuz anlamına geliyor.” dedi.
Nassi, araştırmacı arkadaşları Stav Cohen ve Ron Bitton ile birlikte, 1988’de internette kaosa neden olan orijinal Morris bilgisayar solucanına selam olarak Morris II adı verilen solucanı yarattı. WIRED ile özel olarak paylaşılan bir araştırma makalesinde ve web sitesinde;yapay zeka solucanının, e-postalardan veri çalmak ve spam mesajları göndermek için üretken bir yapay zeka e-posta asistanına nasıl saldırabildiğini ve bu süreçte Chat GPT ve Gemini’deki bazı güvenlik korumalarını ihlal ettiğini gösterildi.
Büyük dil modellerinin (LLM’ler) test ortamlarında yapılan araştırmalar sonucunda giderek daha çok modlu hale gelmesi, metinlerin yanı sıra resim ve video da oluşturabilmesi nedeniyle ortaya çıkıyor. Bu durum, halka açık bir e-posta asistanına karşı değil. Üretken yapay zeka solucanları henüz tespit edilmemiş olsa da birçok araştırmacı bunların startup’larının, geliştiricilerin ve teknoloji şirketlerinin endişelenmesi gereken bir güvenlik riski olduğunu söylüyor.
Çoğu üretken yapay zeka sistemi, bir soruyu yanıtlamasını veya bir görüntü oluşturmasını söyleyen komutlardan beslenerek çalışır. Ancak bu istemler sisteme karşı da silah olarak kullanılabilir. Jailbreakler, sistem güvenliğini ihlal ederek toksik veya nefret dolu içeriklerin yayılmasına neden olabilir. Ayrıca anlık enjeksiyon saldırıları, bir chatbota gizli talimatlar verebilir. Örneğin, saldırgan bir web sayfasında dolandırıcı gibi davranmasını ve banka bilgilerinizi istemesini söyleyen metni gizleyebilir.
Üretken AI solucanını oluşturmak için, araştırmacılar “adversarial self-replicating prompt (düşmanca kendi kendini kopyalayan komut)” olarak adlandırılan bir yönteme yöneldiler. Araştırmacılar, yapay zeka modelinin başka bir komut için yanıt üretmek üzere tetiklenebileceğini belirtiyor. Yani yapay zeka sistemine ek talimatlar verilerek daha fazla çıktı elde edilebilir. Araştırmacılar, bunun geleneksel SQL enjeksiyonu ve arabellek taşması saldırılarına büyük ölçüde benzediğini söylüyor.
Solucanın nasıl çalışabileceğini göstermek için araştırmacılar, Chat GPT, Gemini ve açık kaynaklı LLM, LLaVA’ya bağlanan, üretken yapay zeka kullanarak mesaj gönderip alabilen bir e-posta sistemi oluşturdular. Daha sonra sistemden yararlanmanın iki yolunu buldular: Metin tabanlı, kendi kendini kopyalayan bir komut kullanarak ve bir görüntü dosyasına kendi kendini kopyalayan bir komut gömerek.
Derleyen: Nur Sena Taş