- Yapay zekânın kötü amaçlarla kullanımı yaygınlaşmaya devam ediyor.
- Çocuk istismarıyla ilgili yapay zekâ yolu ile içerik üretimi hızla yaygınlaşıyor.
- Stable Diffusion’daki güvenlik önlemleri kolayca ortadan kaldırılabiliyor.
The Washington Post’ta yer alan bir habere göre uzmanlar, yapay zekâ görüntü oluşturucularının çokça çocuk cinsel istismar materyali (CSAM) oluşturmak ve paylaşmak için kullanıldığını tespit etti. Kâr amacı gütmeyen çocuk güvenliği grubu Thorn’un veri bilimi direktörü Rebecca Portnoff, haberde, “Geçen sonbahardan bu yana yapay zekâ tarafından üretilen CSAM’de artış göründü.” şeklinde yazdı.
Portnoff, “Bu araçları kullanmanın kolaylığı ve içerik oluşturmanın basitliği, olayın en zorlu noktasını oluşturuyor.” diye ekledi. Rapora göre rahatsız edici görüntüleri oluşturmak için Stability AI’nin Stable Diffusion modeli kullanıldı. Stable Diffusion, doğru teknik bilgi ve birkaç satır kod içeren bir CSAM filtresi de dâhil olmak üzere birkaç yerleşik güvenlik önlemine sahip olsa da rapora göre bu filtreler kolayca kaldırılabiliyor.
Aynı zamanda bu içeriklerin üretimi konusunda insanların birbiri ile fikir alışverişi yaptığı da ortaya çıktı. Forumlarda birbirleriyle bu içeriğin nasıl oluşturulacağına dair ipuçların paylaşıldığı belirtildi. Bazı insanların taciz edici ve yasa dışı fantezilere girmenin bir yolu olarak gelişen teknolojiyi kavradıklarını görmek rahatsız edici. Bu haber sentetik içeriğin gerçek dünyaya nasıl zarar verebileceğinin endişe verici bir örneği. Bu durumda, bu zarar toplumun en savunmasız olanlarına -yani çocuklara- yöneliyor.
Derleyen: Özgür Kirici