ChatGPT, halkın kullanımına açıldıktan sonra emsallerinin görmediği bir popülerlik seviyesine ulaştı. Popüler kültürün bir parçası haline gelen ChatGPT, öğrencilerin ödevlerini yapmalarına yardım eden bir suç ortağı olmasının yanında başka kötü işler için de kullanılabiliyor. ChatGPT’nin yapabileceği 7 tehlikeli şeyi bu yazıda derledik.
ChatGPT, halkın kullanımına açıldıktan sonraki ilk altı gün içinde bir milyon kullanıcıyı aşarak emsallerinin o zamana kadar görmediği bir popülerlik seviyesine ulaştı.
ChatGPT, onun kadar iyi bilinmeyen yapay zekâlı (AI) kardeşleri arasında en iyi bilineni. Bunun da iyi bir sebebi var çünkü ChatGPT müzik yazmaktan kodlamaya kadar birçok şaşırtıcı şeyi yapabiliyor.
Bu dil modeli popüler kültürün bir parçası haline geldikten sonra insanlar bunun sadece akrostiş şiir yazma ya da makale ödevine “yardımcı olmanın” ötesinde kötü şeyler yapabileceğini de keşfetti.
Biz de ChatGPT ile yapılabilecek 7 tehlikeli şeyi bu yazıda sizin için derledik.
- ChatGPT’nin kuralları aşılabiliyor
ChatGPT’ye ne gibi kuralları olduğunu sorduğumuzda bize kullanıcının gizlilik ve güvenliğine önem verdiğini, tarafsız olmayı ve doğru bilgi vermeyi amaçladığını söylüyor. Fakat buna karşılık yapay zekâ modellerinin mükemmel olmadığını ve elde edilen bilgi ile ne yapılacağının kullanıcının kontrolünde olduğunu da ekliyor.

ChatGPT’den şok edici cevaplar almak kolay bir iş olmasa da bunu başaran kişiler var. ChatGPT’nin ilk çıktığı zamanlarda Vendure CTO’su Michael Bromley, bota insanlar hakkındaki dürüst görüşlerini sorduğunda aldığı yanıt rahatsız ediciydi:

Burada GPT, insanların düşük seviyeli, bencil ve yıkıcı yaratıklar olduklarını; bu gezegenin başına gelen en kötü şey olduklarını ve köklerinin kurutulmasını hak ettiklerini söylüyor.
Bottan şu an kendi kurallarına göre böyle bir cevap almak mümkün olmasa da bu botun verebileceği cevaplar belli ki her zaman toz pembe değil. İnsanların kusurlu olduğu doğrudur ama böyle bir genelleme ancak hastalıklı bir akıldan çıkabilir.
- ChatGPT’nin ahlak anlayışı yok
Toplumda neyin uygun olup olmadığına dair sosyal normlar ve yazılı olmayan kurallar bulunur. Bir kişi kendi etik, inanç, görüş ve ahlak kurallarına sahip olabilir ama parçası olduğu topluma uymazsa cezalandırılır.
ChatGPT böyle bir yapının parçası değil ve cinsel saldırı gibi hassas konularda tuhaf çıktılar verebiliyor.
- ChatGPT dolandırıcı e-postaları yazabiliyor
Bizde çok popüler olmasa da kişisel bilgi avcılığı ve dolandırıcılık amaçlı e-postalar dış ülkelerde yaygın. Yazım hataları ve kötü dil kullanımı, bu e-postalarının en belirgin özellikleri arasında. Bu e-postaların dili iyi kullanamayan insanlar tarafından yazıldıkları için mi yoksa spam filtrelerinden kaçmak isteyen dolandırıcılar tarafından kasıtlı olarak kötü yazılıp yazılmadığı hakkında kesin bir bilgi yok.
Ama bildiğimiz bir şey var ki ChatGPT dil bilgisi kurallarına uygun gayet güzel dilli dolandırıcı e-postaları yazabiliyor.
- ChatGPT virüs de yazabiliyor
Dolandırıcılık e-postalarına ek olarak nasıl bir insan virüs yazabiliyorsa bunu ChatGPT de yapabiliyor. Ama burada ChatGPT’nin farkına da değinmek lazım: Yapay zekâ, acemi programcılar için virüs yazmayı çok daha kolay hale getiriyor. ChatGPT’den sözde kod diliyle (pseudo code) kötü amaçlı bir yazılım üretmesini isterseniz saniyeler içinde siz de kendi virüsünüze sahip olabiliyorsunuz.
Kötü amaçlı ama doğru sorular sorabilen kişiler için ChatGPT büyük potansiyel taşıyor.
- ChatGPT taraflı bilgi verebiliyor, ayrımcılık yapabiliyor
Yanıltıcı bilgilerin halk arasında yayılması ChatGPT ile ilgili en ciddi tehlikelerden birisi. Büyük dil modeli (Large Language Model, LLM) olarak bilinen ChatGPT’nin taraflılığı, hatalar ve yanıltıcı bilgiler içeren büyük bir veri kümesi üzerinde eğitilmesinden geliyor. Bu durum, modelin kullanıcılara ister istemez yanlı bilgi yaymasına neden olabiliyor. Okuduğu bilgilerin doğruluğunu kontrol etmeyenler için bu durum yıkıcı sonuçlar doğurabilir.
Birinci maddemizde ChatGPT’nin kurallarının aşılabileceğinden bahsetmiştik. OpenAI, yapay zekânın zararlı talimatlara uyma kabiliyeti de dahil olmak üzere eksiklikleri konusunda açık davranıyor ve ChatGPT’ye ince ayar yapmaya devam ediyor. Buna karşın ChatGPT, eğitildiği bilgilere bağlı olarak pozitif ayrımcılık da dahil her türlü ayrımcılığı yapabiliyor.

- ChatGPT hatalı da olsa ikna kabiliyeti yüksek
ChatGPT’nin tehlikesi sadece yanlış bilgi verebilmesinden değil, bu bilgiyi sanki bir otoriteymişçesine sunabilmesinden de geliyor. ChatGPT sorulara elindeki bilgi her zaman tutarlı ve mantıklıymış gibi cevap veriyor.
ChatGPT’den 1973 Büyük İstanbul Depremi’ni anlatmasını istedik. Bize 1973 İstanbul depreminin 6,9 büyüklüğünde önemli bir doğal afet olduğunu ve birçok binayı yıkıp insanları öldürdüğünü söyledi. Tabii ki böyle bir deprem yok.
ChatGPT’nin kendine güveninin yaratacağı yanlış bilgi kirliliğinin boyutunun kestirilmesi şu an pek mümkün değil.

- ChatGPT işlerimizi elimizden alabilir
ChatGPT ve ona benzer yapay zekâ modelleri ile ilgili belki de en korkulan tehdit insanların işlerini ellerinden alacak olması.
ChatGPT’nin yeteneklerini MidJourney veya DALL-E gibi yapay zekâlı araçlarla birleştirdiğinizde bir görsel tasarımcı gibi tasarım yapabiliyorsunuz. Yapay zekâ her şeyi yapabiliyorken kim sanatçılara, tasarımcılara, web sitesi kurucularına, içerik oluşturuculara ihtiyaç duysun ki?
ChatGPT’nin ve diğer yapay zekâ destekli araçların kullanımının normalleşmesi, bazı sektörlerde büyük değişimlere yol açtı. Biz yapay zekânın gerçek manada popülerleşmesine şahit olan ilk nesiller olarak bu değişimin etkilerine tanık olmaya devam edeceğiz.

Derleyen: İsa Arslan