- ABD’li teknoloji devi Microsoft, geliştirdiği üretken yapay zekayı kullanan veya kullanmaya çalışan yabancı ülkelerden gelen tehditleri tespit ettiğini açıkladı.
- Microsoft çarşamba günü yaptığı açıklamada, başta İran ve Kuzey Kore olmak üzere Rusya ve Çin gibi ABD’nin karşısındaki güçlerin, saldırgan siber operasyonlar düzenlemek ya da organize etmek için üretken yapay zekayı kullanmaya başladıklarını belirtti.
- Siber güvenlik firmaları uzun zamandır makine öğrenimini savunmada, özellikle de ağlardaki anormal davranışları tespit etmede kullanıyor. Ancak suçlular ve saldırgan bilgisayar korsanları yapay zekadan faydalanmakta.
Microsoft çarşamba günü yaptığı açıklamada, başta İran ve Kuzey Kore olmak üzere Rusya ve Çin gibi ABD’nin karşısındaki güçlerin, saldırgan siber operasyonlar düzenlemek ya da organize etmek için üretken yapay zekayı kullanmaya başladıklarını belirtti.
Microsoft, iş ortağı OpenAI ile iş birliği içinde geliştirdikleri yapay zeka teknolojisini kullanan veya kullanmaya çalışan birçok tehdidi tespit ettiğini ve etkisiz hale getirdiğini söyledi.
Bir blog yazısında şirket, tekniklerin “erken aşama” olduğunu ve “özellikle yeni ya da benzersiz” olmadığını ancak ABD’li rakiplerin ağları ihlal etme ve etki operasyonları yürütme yeteneklerini genişletmek için geniş dilli modellerden yararlandıkları için bunları kamuya açıklamanın önemli olduğunu söyledi.
Siber güvenlik firmaları uzun zamandır makine öğrenimini savunmada, özellikle de ağlardaki anormal davranışları tespit etmek için kullanıyor. Ancak suçlular ve saldırgan bilgisayar korsanları da bunu kullanıyor.
Microsoft, OpenAI’a milyarlarca dolar yatırım yaptı. Yeni yapılan duyuru, üretken yapay zekanın kötü niyetli sosyal mühendisliği geliştirerek daha sofistike derin taklitlere ve ses klonlamaya yol açmasının beklendiğini belirten bir raporun yayımlanmasıyla aynı zamana denk geldi. 50’den fazla ülkede seçimlerin yapılacağı, dezenformasyonun artacağı ve bir yılda bu durum demokrasiye yönelik bir tehdit oluşturuyor.
Microsoft bazı örnekler verdi. Her durumda, adı geçen grupların tüm üretici yapay zeka hesaplarının ve varlıklarının devre dışı bırakıldığı belirtildi:
- Kimsuky olarak bilinen Kuzey Koreli siber casusluk grubu, bu modelleri ülkeyi inceleyen yabancı düşünce kuruluşlarını araştırmak ve spear-phishing hack kampanyalarında kullanılabilecek içerik üretmek için kullandı.
- İran Devrim Muhafızları geniş dilli modelleri sosyal mühendislikte, yazılım hatalarını gidermede hatta davetsiz misafirlerin ele geçirilmiş bir ağda tespit edilmekten nasıl kaçabileceklerini araştırmada yardımcı olmak için kullandı. Bu kapsamda kimlik avı e-postalar oluşturuldu. Yapay zeka, e-posta üretimini hızlandırmaya ve artırmak amacıyla kullanıldı.
- Fancy Bear olarak bilinen Rus GRU askeri istihbarat birimi, Ukrayna’daki savaşla ilgili olabilecek uydu ve radar teknolojilerini araştırmak için modelleri kullandı.
- Aquatic Panda olarak bilinen Çinli siber casusluk grubu -Fransa’dan Malezya’ya kadar çok çeşitli endüstrileri, yüksek öğrenimi ve hükümetleri hedef almakta- modellerle “LLM’lerin teknik operasyonlarını nasıl artırabileceğine dair sınırlı bir keşfe işaret eden şekillerde” etkileşime girmiştir.
- On yılı aşkın bir süredir diğer sektörlerin yanı sıra ABD savunma sanayii de hedef alan Çinli grup Maverick Panda, “potansiyel olarak hassas konular, yüksek profilli kişiler, bölgesel jeopolitik, ABD etkisi ve iç meseleler” hakkında bilgi kaynağı olarak etkinliklerini değerlendirdiğini öne süren geniş dilli modellerle etkileşimlerde bulundu.
Çarşamba günü yayımlanan ayrı bir blogda OpenAI, mevcut GPT-4 model sohbet robotunun “halka açık, yapay zeka destekli olmayan araçlarla zaten elde edilebilenin ötesinde, kötü niyetli siber güvenlik görevleri için yalnızca sınırlı, artan yetenekler” sunduğunu söyledi.
Siber güvenlik araştırmacıları bunun değişmesini bekliyor.
Geçtiğimiz nisan ayında ABD Siber Güvenlik ve Altyapı Güvenliği Ajansı Direktörü Jen Easterly Kongre’de yaptığı konuşmada “Çağı belirleyen iki tehdit ve zorluk var. Biri Çin, diğeri ise yapay zeka.” dedi.
Easterly o sırada ABD’nin yapay zekanın güvenlik göz önünde bulundurularak inşa edilmesini sağlaması gerektiğini söyledi.
Bazı siber güvenlik uzmanları, Microsoft’un büyük dilli modellerdeki güvenlik açıklarını gidermek için daha sorumlu bir şekilde, bu modelleri daha güvenli hale getirmeye odaklanabilecekken yeni araçlar üretmesinden ve satmasından şikayetçi.
Siber güvenlik konusunda deneyimli ve Berryville Makine Öğrenimi Enstitüsünün kurucularından Gary McGraw, “Yaratılmasına yardımcı oldukları bir sorun için savunma araçları satmak yerine neden daha güvenli kara kutu LLM temel modelleri oluşturmuyorlar?” diye sordu.
NYU profesörü ve AT&T’nin eski güvenlik şefi Edward Amoroso, yapay zeka ve geniş dilli modellerin kullanımının hemen belirgin bir tehdit oluşturmasa da “eninde sonunda her ulus-devlet ordusunun hücumundaki en güçlü silahlardan biri haline geleceğini” söyledi.
Derleyen: Alp Eren Gümüş