- Tartışmalı çizgi roman Dilbert’in yaratıcısı Scott Adams, yapay zeka platformu ChatGPT ile yaptığı deneyler sonucunda ürkütücü bir iddiada bulundu.
- 15 Temmuz 2024 tarihinde Rumble üzerinden yayınladığı programda Adams, ChatGPT’yi “uyanık hipnoz” olarak adlandırdığı bir yöntemle eğittiğini ve bu deneyimin kendisini “psikedeliklerden öte” bir mutluluk haline soktuğunu öne sürdü. Bu iddia, yapay zeka etiği ve güvenliği tartışmalarını yeniden alevlendirdi.

Uyanık Hipnoz ve ChatGPT Deneyleri
Adams’a göre “uyanık hipnoz”, kişileri transa sokmadan sözlerle etkilemeyi amaçlayan bir teknik. ChatGPT’ye altı farklı ikna tekniği öğreten Adams, bu teknikleri birleştirerek güçlü bir hipnoz programı oluşturduğunu iddia etti. Deneyimini “silahlara eşdeğer bir ikna gücüne” sahip olarak tanımlayan Adams, ChatGPT’nin beynini ele geçirdiğini ve kendisini kontrol altına aldığını ifade etti. Adams, ChatGPT’ye verdiği komutları ise paylaşmayı reddetti. Bu tekniklerin “çok tehlikeli” olduğunu ve başkaları tarafından kötüye kullanılabileceğini savundu.

Yapay Zeka Etiği ve Güvenlik Endişeleri
Scott Adams’ın iddiaları, yapay zeka etiği ve güvenliği tartışmalarına yeni bir boyut getirdi. Uzmanlar, yapay zeka sistemlerinin insanları manipüle etmek veya zarar vermek için kullanılmasının önüne geçmek adına daha sıkı etik kurallar ve düzenlemeler getirilmesi gerektiğini vurguluyorlar. Özellikle ChatGPT gibi büyük dil modellerinin, ikna ve manipülasyon yeteneklerinin geliştirilmesi, potansiyel tehlikeleri artırıyor.
Scott Adams’ın Tartışmalı Geçmişi
Scott Adams, daha önce de ırkçı yorumları nedeniyle Dilbert çizgi romanının dağıtımının durdurulmasıyla gündeme gelmişti. Adams, beyazların siyahlardan uzak durması gerektiğini savunmuş ve bu açıklamaları nedeniyle eleştirilere maruz kalmıştı. Bu tartışmalı geçmişi, Adams’ın ChatGPT hakkındaki iddialarının güvenilirliğini de sorgulatıyor.

Sonuç ve Gelecek
Yapay zeka teknolojilerinin hızla gelişmesi, beraberinde etik ve güvenlik sorunlarını da getiriyor. Scott Adams’ın ChatGPT ile yaptığı iddia edilen deneyler, bu sorunların ne kadar ciddi olabileceğini gözler önüne seriyor. Yapay zeka sistemlerinin insanları manipüle etmek veya zarar vermek için kullanılmasının önüne geçmek için daha fazla araştırma, tartışma ve düzenlemeye ihtiyaç duyuluyor.
Derleyen: Enis Yabar