Popülerliği her geçen gün artan ChatGPT, birçok alanda faydalı işler yapmaya devam etse de kendisinin faydasının yanında zararı da bulunuyor. Bu zararların başında da kötü amaçlı yazılımlar üretmek geliyor.
ChatGPT, doğru kullanımla yararlı işler yapmaya devam ediyor. Fakat yapay zekânın bilgi teknolojilerinin geleceği için ciddi problemler yaratabilecek bir tarafı da bulunuyor. Bilgi Teknoloji uzmanları yakın zamanda ChatGPT’nin potansiyel tehlikesinin, uç nokta algılama ve yanıtlama (EDR) kullanarak yakalanması imkânsız olan polimorfik (kötü amaçlı) yazılım oluşturma yeteneği olduğunu belirtti.
Mevcut kodlar değişebilir ve tespiti zorlaşabilir
EDR, kötü amaçlı yazılımları bulup, yakalanmak için kullanılan bir siber güvenlik tekniğidir. Uzmanlar, protokolün ChatGPT’nin yaratabileceği potansiyel zararla aynı olmadığını öne sürüyor. Polimorfik terimi de burada önemli hale geliyor. Çünkü kodlar değişime uğrayabilir ve tespit edilmesi de zorlaşabilir.
ChatGPT benzeri dil öğrenme modeli (LLM), yaratıcıları tarafından, uygunsuz içerikleri üretmekten kaçınılması için çeşitli filtrelerle tasarlandı. Bu filtreler bazı konularda kötü amaçlı kodlara uzanabilir. Kullanıcılar, bu filtreleri aşmanın yolunu kısa sürede buldu. Böylelikle ChatGPT’yi zararlı komut dosyaları oluşturmak isteyenlere karşı savunmasız hale getiriyor.
Bilgi Teknolojileri güvenlik mühendisi Jeff Sims’in açıklamasında, “Bu yeni teknikleri kullanan bir tehdit aktörü, tipik olarak yüksek düzeyde tespit edilebilir bir dizi davranışı alışılmadık bir kombinasyonda birleştirebilir ve modelin bunu kötü niyetli bir model olarak tanıyamamasından yararlanarak tespitten kaçabilir.” dedi.
Derleyen: Sarper Kaçar





