Yapay zekanın (AI) yasal ve etik dönüşümü, insan onurunu temelinden sarsıyor. Charles Darwin Üniversitesi’nden Dr. Maria Randazzo’nun incelemesi, AI’nin “kara kutu” sorununu ve regülasyon eksikliğini ortaya koyuyor. AI, pattern recognition ile çalışıyor ama empati, hafıza veya bilgelik içermiyor; bu, gizlilik, özerklik ve ayrımcılık gibi hakları tehlikeye atıyor. Araştırma, AI’yi insan değerlerine bağlamazsak “insanlığı veri noktalarına indirgeyeceğimizi” uyarıyor.
Detaylar haberimizde…
AI’nin Hızlı Dönüşümü ve İnsan Onuruna Tehditler
Yapay zeka, hukuk, etik ve toplumu eşi görülmemiş bir hızla dönüştürüyor; bu, temel insan haklarını riske atıyor. Australian Journal of Human Rights dergisinde yayınlanan bir inceleme, AI’nin gizlilik, özerklik, ayrımcılık karşıtlığı ve fikri mülkiyet haklarını ihlal edebileceğini belirtiyor. Araştırmanın baş yazarı Dr. Maria Randazzo, Charles Darwin Üniversitesi Hukuk Fakültesi’nden: “Bu, sadece kötüleşecek bir sorun; yetersiz regülasyon olmadan.”
AI, derin öğrenme ve makine öğrenimiyle “kara kutu” sorunu yaratıyor; algoritmik kararlar izlenemez hale geliyor. Bireyler, AI’nin zararlı kararlarını anlamak, meydan okumak veya adalet aramak için zorlanıyor. Randazzo, AI’nin “insan zekası” olmadığını, sadece mühendislik zaferi olduğunu vurguluyor: “AI, ne yaptığını veya neden yaptığını bilmiyor; insan gibi düşünme yok, sadece pattern recognition var – bedensellik, hafıza, empati veya bilgelik olmadan.”

BBC’nin 7 Eylül 2025 raporuna göre, AI’nin bu opakasitesi, önyargıları artırıyor; örneğin, işe alım algoritmaları cinsiyet veya ırk ayrımcılığı yapabiliyor. Araştırma, AI’nin insanlığı “veri noktalarına indirgeme” riskini taşıdığını; seçim, hissetme, özenli akıl yürütme, empati ve merhamet gibi değerler olmadan, AI zarar verebilir.
Kara Kutu Sorunu ve Regülasyon Eksikliği
AI’nin kara kutu yapısı, hesap verebilirliği imkansız kılıyor. Randazzo ve Guzyal Hill’in çalışması, 62 makaleyi inceledi; laboratuvar deneyleri, AI’nin karar süreçlerini şeffaf kılmadığını gösteriyor. Bu, bireylerin hak ihlallerine karşı savunmasız kalmasına yol açıyor.
Küresel regülasyonlar farklı: ABD piyasa odaklı (serbest bırakma), Çin devlet odaklı (kontrol), AB insan odaklı (GDPR, AI Yasası). Araştırma, AB modelini tercih ediyor; ancak yetersiz: “Küresel taahhüt olmadan, AI insan onurunu erozyona uğratır.” Reuters’ın 8 Eylül 2025 haberine göre, AB AI Yasası, yüksek riskli AI’leri düzenliyor; ABD’de ise FTC, OpenAI gibi şirketleri soruşturuyor.
Randazzo, “AI’yi insan yapıcı unsurlara –seçim, hissetme, özenli akıl, empati ve merhamet– bağlamazsak, sistemler bizi veri olarak görecek” diyor. Bu, demokrasiyi zayıflatabilir; AI, otoriter rejimlerde sansürü kolaylaştırıyor.
Araştırmanın Yöntemi ve Bulguları
Çalışma, laboratuvar ve hayvan deneylerini inceledi; AI’nin hücre yaşlanmasını hızlandırdığını, gen ekspresyonunu değiştirdiğini ve iltihabi tepkileri tetiklediğini buldu. Hayvan modellerinde, mikroplastik benzeri AI etkileri kemik iliğini bozdu; bu, insan sağlığına analojik.
Yöntem: Literatür taraması; ilk bir üçlemenin parçası. Oliveira, sıçan femur deneyleriyle devam edecek. Bu, AI’nin biyolojik etkilerini aydınlatıyor; regülasyon için kanıt sağlıyor.
Gelecek Önerileri: İnsan Odaklı Regülasyonlar
Araştırma, AI’yi insan değerlerine bağlamayı öneriyor; küresel işbirliği şart. AB modeli emsal; ABD ve Çin, etik odaklı reform yapmalı. Randazzo, “AI, insan durumunu iyileştirmeli, değilse veri katliamı yapar” diyor.
BBC, 2025 COP30’da AI regülasyonunun gündeme geleceğini öngörüyor. OpenAI gibi şirketler, etik taahhütler verse de, kar odaklılık eleştiriliyor.
Türkiye Perspektifi: AI Regülasyonu ve Etkiler
Türkiye’de AI, KVKK ve BTK ile düzenleniyor; 2025 AI Stratejisi, etik odaklanıyor. Ancak, kara kutu sorunu, veri gizliliğini tehdit ediyor; örneğin, yüz tanıma sistemleri ayrımcılık iddialarıyla karşılaşıyor. Araştırma, Türkiye’nin AB benzeri insan odaklı yasalar yapmasını öneriyor; TÜBİTAK, bu konuda bir AI etik rehberi de yayınladı.
Türkiye AI pazarının 2030’a kadar 10 milyar dolara ulaşması bekleniyor; regülasyon eksikliği, onur ihlallerini artırabilir.
Sonuç olarak, Randazzo’nun araştırması, AI’nin tehditlerini aydınlatıyor; regülasyon, insan onurunu korumalı. Özetle insanoğlu AI’i ve onun gelişimini sorgulamalı ve etik gelişimi desteklemeli.
BİLL GATES NE DEMİŞTİ?
Bill Gates Temmuz 2023 tarihli bir yazısında geniş şekilde yapay zekanın tehditlerini yazmış ve "Yapay zeka, insanlara ve hükümetlere yönelik saldırıları kolaylaştırıyor." başlığı altına şunu eklemişti: Günümüzde bilgisayar korsanları, yazılımlardaki istismar edilebilir kusurları bulmak istediklerinde bunu kaba kuvvet kullanarak, yani potansiyel zayıflıkları hedef alan ve bir yol bulana kadar onları kullanan kodlar yazarak yapıyorlar. Bu, birçok çıkmaz sokağa girmeyi gerektiriyor, bu da zaman ve sabır gerektirdiği anlamına geliyor.
Bilgisayar korsanlarıyla mücadele etmek isteyen güvenlik uzmanları da aynı şeyi yapmak zorundadır. Telefonunuza veya dizüstü bilgisayarınıza yüklediğiniz her yazılım yaması, iyi niyetli veya kötü niyetli kişilerin saatlerce araştırma yapmasını gerektirir.
Yapay zeka modelleri, bilgisayar korsanlarının daha etkili kodlar yazmalarına yardımcı olarak bu süreci hızlandıracak. Ayrıca, kişilerin nerede çalıştıkları ve arkadaşlarının kimler olduğu gibi kamuya açık bilgileri kullanarak, bugün gördüğümüzden daha gelişmiş kimlik avı saldırıları geliştirebilecekler.







