Açık kaynaklı yapay zekâ modellerinin çocuk istismarı içeren içerikleri üretme veya çoğaltma ihtimali, teknoloji dünyasını alarma geçirdi. Büyük teknoloji şirketleri, bu içeriklerle mücadele için yeni filtreleme sistemleri geliştirirken, etik ve yasal sınırlar da yeniden tartışılmaya başlandı…
Detaylar haberimizde…
Yapay zekânın hayatın her alanına entegre olduğu bir dönemde, teknolojinin karanlık yüzü, çocuklara yönelik istismar içeriklerinde kendini gösteriyor. Son veriler, yapay zekâ ile üretilen çocuk cinsel istismarı materyallerinin (AI-CSAM) dünya genelinde ciddi bir tehdit haline geldiğini ortaya koyuyor.
Dijital dünyada uzun süredir mücadele edilen çocuk istismarı içerikleri, son iki yılda yeni bir evreye girdi. Yapay zekâ teknolojilerinin özellikle görsel üretim alanında geldiği nokta, suçlulara istismar içeriklerini gerçekçiliği yüksek şekilde üretme imkânı tanıyor. Uluslararası kuruluşlar, bu materyallerin artık gerçek istismar görüntülerinden neredeyse ayırt edilemez hale geldiğini bildiriyor.
Raporlar Endişe Verici Boyutlara Ulaştı
Amerika merkezli Ulusal Kayıp ve Sömürülen Çocuklar Merkezi (NCMEC), 2025 yılının ilk altı ayında yapay zekâ ile ilişkili 485.000’den fazla çocuk istismarı bildirimi aldığını açıkladı. Bu sayı, 2024’ün tamamında gelen 67.000 bildirimin neredeyse yedi katı.
Merkez, üretken yapay zekayı içeren çocuk cinsel sömürü materyali raporlarında 2023’te 4700’den 2024’te 67.000’in üzerine yüzde 1325’lik bir artış olduğunu bildiriyor.
Birleşik Krallık merkezli Internet Watch Foundation (IWF) ise yılın ilk yarısında 1.286 yapay zekâ destekli istismar videosu tespit ettiklerini duyurdu. Bu rakam, geçen yılın aynı dönemine kıyasla dramatik bir artış anlamına geliyor.
IWF’nin geçici CEO’su Derek Ray-Hill “Yapay zeka tarafından üretilen CSAM’ın net web’i bunaltan mutlak bir patlamaya yol açması inanılmaz bir riski var” dedi ve bu tür içeriklerdeki artışın çocuk kaçakçılığı, çocuk cinsel istismarı ve modern kölelikle bağlantılı suç faaliyetlerini körükleyebileceğini de sözlerine ekledi.
Çocuk sömürüsü materyali uzmanları ve yetkililer, yapay zeka tarafından üretilen istismar miktarı patlarken bu hafta acil toplantılar için bir araya gelecekler.

Gerçeklik Sınırlarını Zorluyor
Son aylarda yapay zekâ ile üretilen videolar ve görseller, önceki yıllarda teknolojinin kısıtlılıklarından kaynaklanan görsel bozulmaları ve tutarsızlıkları geride bırakarak, insan gözüyle ayırt edilmesi zor bir noktaya ulaştı. Geliştiriciler artık gerçek çocukların sosyal medya hesaplarından, okul sitelerinden ve aile albümlerinden alınan görüntülerle eğitim modellerini besleyerek sahte ancak son derece gerçekçi içerikler oluşturuyor.
Gizli forumlarda paylaşılan bu içeriklerde, sahnelerin “akıcı ilerlediği”, “arka planların detaylarla dolu olduğu” ve “birden fazla failin yer aldığı” özellikle belirtiliyor. Kolluk kuvvetleri bu gelişmelerin suçluları tespit etme sürecini daha karmaşık hale getirdiğini söylüyor.
Hukuki Mücadele Zorluklarla Karşı Karşıya
ABD federal yasaları, AI ile üretilmiş ve gerçek çocuk görseli içermese bile çocuk cinsel istismarı niteliğindeki içerikleri suç sayıyor. Ancak uzmanlara göre mevcut yasal düzenlemeler, teknolojik gelişmelere ayak uydurmakta zorlanıyor.
Son iki yılda 30’dan fazla eyalet, AI-CSAM içeriklerini açıkça yasaklayan yasaları devreye soktu. Buna rağmen, mahkemelerin bu yeni tür içeriklerle ilgili nasıl karar vereceği hala belirsizliğini koruyor. Hukukçular, “gerçek olmayan ama istismar niteliği taşıyan” içeriklerin cezalandırılmasında etik ve hukuki gri alanların olduğunu vurguluyor.

Yapay Zekânın Kendisi Tehdit mi, Çözüm mü?
Bu krizin merkezinde ise üretken yapay zekâ araçları yer alıyor. OpenAI’nin 2022 yılında ChatGPT’yi tanıtmasının ardından, görsel ve video üretebilen AI sistemleri de hızla yaygınlaştı. Kimi şirketler güvenlik önlemleriyle sistemlerini sınırlandırmaya çalışsa da, açık kaynak platformlar ve karanlık ağlar üzerinden geliştirilen modeller denetim dışı kalmaya devam ediyor.
Yine de bazı uzmanlar, aynı teknolojilerin çözümün de bir parçası olabileceğini düşünüyor. AI tabanlı içerik tespit yazılımları, istismar içeren materyalleri tanımada kolluk kuvvetlerine destek olabilir. Ancak bu araçların da yüksek hata payı, masum bireyleri hedef alma riski ve mahremiyet ihlalleri nedeniyle eleştiriliyor.
Ne Yapılmalı?
Çocukların dijital güvenliği artık yalnızca ebeveynlerin, öğretmenlerin ya da devlet kurumlarının değil, teknoloji şirketlerinin ve yazılım geliştiricilerin de sorumluluk alanında. Uzmanlar, sadece yapay zekâ sistemlerini değil, bu sistemleri eğiten verileri ve içeriği barındıran platformları da şeffaf hale getirmenin şart olduğunu belirtiyor.
Çocuk hakları savunucuları, hükümetlerin ve teknoloji devlerinin bu konuda koordineli hareket etmesi, uluslararası hukukta AI-CSAM’e dair açık normlar belirlemesi gerektiğini söylüyor.
Derleyen: Merve Tuncel


