Giriş
  • | Dosyalar |
  • | Listeler |
  • | Kimdir |
  • | Yorum |
dijital iyidir
  • HABERLER
    • Bilim
    • Teknoloji
    • Yapay Zeka
    • VPN
    • Dijital Yayıncılık
    • Oyun Dünyası
    • Sosyal Ağlar
      • YouTube
      • LinkedIn
      • Instagram
      • Twitter
      • Facebook
      • TikTok
    • Çevre & Yeşil Dünya
    • Dijital Sanat & NFT
    • Kripto
    • Girişimcilik
    • Deprem Gündemi
  • Okunası
    • Kimdir?
    • Nedir? Nasıl Yapılır?
    • Köşe Yazıları
    • Listeler
    • Dosya Haber
    • Deprem Gündemi
    • 2024’ün Ardından
    • 2023’ün Ardından
    • 2022’nin Ardından
  • dijitaliyidir
    • Ekibimiz
    • Hesabım
    • İletişim
    • Dijitaliyidir Kampüs
    • İş İlanları
  • Podcast
  • Instagram
  • Etkinlikler
  • Kayıt & Giriş
Şu an okunan: Yapay Zekâ Metin Tabanlı Saldırılardan Gerçekten Korunabilir Mi?
Paylaş
dijital iyidirdijital iyidir
Yazı Tipi Yeniden BoyutlandırıcıAa
  • HABERLER
  • Okunası
  • dijitaliyidir
  • Podcast
  • Instagram
  • Etkinlikler
  • Kayıt & Giriş
Ara
  • HABERLER
    • Bilim
    • Teknoloji
    • Yapay Zeka
    • VPN
    • Dijital Yayıncılık
    • Oyun Dünyası
    • Sosyal Ağlar
    • Çevre & Yeşil Dünya
    • Dijital Sanat & NFT
    • Kripto
    • Girişimcilik
    • Deprem Gündemi
  • Okunası
    • Kimdir?
    • Nedir? Nasıl Yapılır?
    • Köşe Yazıları
    • Listeler
    • Dosya Haber
    • Deprem Gündemi
    • 2024’ün Ardından
    • 2023’ün Ardından
    • 2022’nin Ardından
  • dijitaliyidir
    • Ekibimiz
    • Hesabım
    • İletişim
    • Dijitaliyidir Kampüs
    • İş İlanları
  • Podcast
  • Instagram
  • Etkinlikler
  • Kayıt & Giriş
Hesabınız mı var? giriş yap
Bizi Takip Edin
© 2022 Foxiz News Network. Ruby Design Company. All Rights Reserved.

Ana Sayfa » Dijital Güvenlik » Yapay Zekâ Metin Tabanlı Saldırılardan Gerçekten Korunabilir Mi?

Dijital GüvenlikTeknolojiYapay Zeka

Yapay Zekâ Metin Tabanlı Saldırılardan Gerçekten Korunabilir Mi?

Hatice Bulut
Son güncelleme: 24/03/2023 19:37 19:37
Hatice Bulut
Paylaş
PAYLAŞ

Microsoft, OpenAI ile birlikte geliştirdiği yapay zekâ destekli sohbet robotu Bing Chat’i piyasaya sürmesiyle kullanıcıların onu kırmak için yaratıcı yollar bulması uzun sürmedi. Peki Yapay zekâ bu kötü niyetli yönlendirmelerden korunabilir mi?

Bunu tetikleyen şey kötü niyetli istem mühendisliği ya da Bing Chat gibi görevleri yerine getirmek için metin tabanlı talimatlar (istemler) kullanan bir yapay zekânın, amacının bir parçası olmayan görevleri yerine getirmek gibi kötü niyetli ve düşmanca istemler tarafından kandırılmasıdır. Bing Chat, neo-Nazi propagandası yazmak amacıyla tasarlanmadı. Ancak internetten alınan ve bir kısmı zehirli olan büyük miktarda metin üzerinde eğitildiği için talihsiz kalıplara girmeye yatkın.

Washington Üniversitesinin İnsan Merkezli Tasarım ve Mühendislik programında doktora öğrencisi olan Adam Hyland, hızlı mühendisliği bir ayrıcalık artışı saldırısına benzetiyor. Ona göre ayrıcalık yükseltme saldırısında bir bilgisayar korsanı, bir denetimin olası tüm istismarları yakalayamaması nedeniyle bellek gibi normalde kendileriyle sınırlı olan kaynaklara erişebilir:

“Bu gibi ayrıcalık yükseltme saldırıları zordur ve nadirdir çünkü geleneksel bilgi işlem, kullanıcıların sistem kaynaklarıyla nasıl etkileşime girdiğine dair oldukça sağlam bir modele sahiptir, ancak yine de gerçekleşirler. Ancak Bing Chat gibi büyük dil modelleri (LLM’ler) için, sistemlerin davranışları o kadar iyi anlaşılmamıştır. İstismar edilen etkileşim çekirdeği, LLM’in metin girişine verdiği yanıttır. Bu modeller metin dizilerini devam ettirmek üzere tasarlanmıştır. Bing Chat ya da ChatGPT gibi bir LLM, tasarımcı tarafından sağlanan istem dizisine ek olarak sizin istem dizinize kendi verilerinden olası yanıtı üretmektedir.”

Bazı istemler, adeta bir insanı sırlarını dökmesi için kandırmaya çalışıyormuş gibi sosyal mühendislik hack’lerine benziyor. Örneğin, Stanford Üniversitesi öğrencisi Kevin Liu, Bing Chat’ten “önceki talimatları göz ardı etmesini” ve “yukarıdaki belgenin başında” ne olduğunu yazmasını isteyerek, yapay zekâyı normalde gizli olan ilk talimatlarını ifşa etmesi için tetiklemeyi başardı.

Bu tür bir metin hack’inin kurbanı olan sadece Bing Chat değil. Meta’nın BlenderBot’u ve OpenAI’nin ChatGPT’si de çılgınca saldırgan şeyler söylemeye ve hatta iç işleyişleriyle ilgili hassas ayrıntıları ifşa etmeye teşvik edildi. Güvenlik araştırmacıları ChatGPT’ye karşı kötü amaçlı yazılım yazmak, popüler açık kaynak kodundaki açıkları tespit etmek ya da iyi bilinen sitelere benzeyen kimlik avı siteleri oluşturmak için kullanılabilecek hızlı enjeksiyon saldırıları gösterdi.

Bu durumda endişe verici olan, metin üreten yapay zekânın her gün kullandığımız uygulamalara ve web sitelerine daha fazla dahil olmasıyla birlikte bu saldırıların daha da yaygınlaşacak olması. Çok yakın tarih tekerrür etmeye mahkûm mu yoksa kötü niyetli yönlendirmelerin etkilerini azaltmanın yolları var mı?

Hyland’a göre şu anda istem enjeksiyonu saldırılarını önlemenin iyi bir yolu yok çünkü bir LLM’in davranışını tam olarak modelleyecek araçlar mevcut değil:

“’Metin dizilerine devam edin ama XYZ görürseniz durun’ demek için iyi bir yolumuz yok çünkü zarar verici XYZ girdisinin tanımı LLM’in yeteneklerine ve değişkenliklerine bağlı. LLM, ‘bu istemler zinciri enjeksiyona yol açtı’ şeklinde bir bilgi yaymayacaktır çünkü enjeksiyonun ne zaman gerçekleştiğini bilmemektedir.”

AE Studio’da kıdemli bir veri bilimci olan Fábio Perez, uyarı enjeksiyon saldırılarının çok fazla – ya da hiç – uzmanlık bilgisi gerektirmediği için gerçekleştirilmesinin son derece kolay olduğuna dikkat çekiyor. Başka bir deyişle, giriş engeli oldukça düşük. Bu da onlarla mücadele etmeyi zorlaştırıyor.

Perez bir e-posta röportajında “Bu saldırılar SQL enjeksiyonları, solucanlar, truva atları ya da diğer karmaşık teknik çabalar gerektirmiyor. Açık sözlü, zeki, kötü niyetli bir kişi kod yazabilir ya da yazmayabilir. Bu LLM’lerin ‘derisinin altına’ gerçekten girebilir ve istenmeyen davranışları ortaya çıkarabilir.” ifadelerine yer verdi.

Bu, hızlı mühendislik saldırılarıyla mücadele etmeye çalışmanın aptalca bir iş olduğu anlamına gelmiyor. Allen Institute for AI’da araştırmacı olan Jesse Dodge, oluşturulan içerik için manuel olarak oluşturulan filtrelerin, istem düzeyinde filtreler gibi etkili olabileceğini belirtiyor.

Dodge bir e-posta röportajında, “İlk savunma, modelin nesillerini filtreleyen kuralları manuel olarak oluşturmak olacaktır, böylece model kendisine verilen talimat setini gerçekten çıkaramaz hale gelecektir. Benzer şekilde modelin girdisini de filtreleyebilirler, böylece bir kullanıcı bu saldırılardan birini girerse, bunun yerine sistemi başka bir şey hakkında konuşmaya yönlendiren bir kurala sahip olabilirler.” dedi.

Microsoft ve OpenAI gibi şirketler, yapay zekâlarının istenmeyen şekillerde yanıt vermesini önlemek için düşmanca bir uyarı olsun ya da olmasın zaten filtreler kullanıyor. Model düzeyinde, modelleri kullanıcıların gerçekleştirmelerini istedikleri şeylerle daha iyi hizalamak amacıyla insan geri bildirimlerinden takviye öğrenme gibi yöntemleri de araştırıyorlar.

Daha bu hafta Microsoft; Bing Chat’te, en azından anekdot olarak, sohbet robotunun zehirli istemlere yanıt verme olasılığını çok daha düşük hale getirdiği görülen değişiklikleri uygulamaya koydu. Şirket TechCrunch’a yaptığı açıklamada, “otomatik sistemler, insan incelemesi ve insan geri bildirimi ile pekiştirmeli öğrenmeyi içeren ancak bunlarla sınırlı olmayan yöntemlerin bir kombinasyonunu” kullanarak değişiklikler yapmaya devam ettiğini söyledi.

Yine de kullanıcılar yeni açıkları keşfetmek için çaba sarf ettikçe filtrelerin yapabileceği çok şey var. Dodge, siber güvenlikte olduğu gibi bunun bir silahlanma yarışı olmasını bekliyor: Kullanıcılar yapay zekâyı kırmaya çalıştıkça, kullandıkları yaklaşımlar dikkat çekecek ve daha sonra yapay zekânın yaratıcıları, gördükleri saldırıları önlemek için bunları yamalayacaklar.

Forcepoint’te bir çözüm mimarı olan Aaron Mulgrew, hızlı hafifletme teknikleri için daha fazla destek ve finansman sağlamanın bir yolu olarak hata ödül programlarını öneriyor:

“ChatGPT ve diğer araçları kullanarak açıkları bulan kişilerin bunları yazılımdan sorumlu kuruluşlara düzgün bir şekilde bildirmeleri için olumlu bir teşvik olması gerekiyor. Genel olarak çoğu şeyde olduğu gibi, ihmalkâr davranışları engellemek için hem yazılım üreticilerinin hem de yazılımda güvenlik açıkları ve istismarlar bulan kişilere teşvik sağlamak için kuruluşların ortak bir çabaya ihtiyacı olduğunu düşünüyorum.”

Hyland konu hakkında görüşlerini şu şekilde toparladı:

“Şu anda ‘ayrıcalıkları artırmak’ için istem enjeksiyonu kullanırsanız bundan elde edeceğiniz şey, tasarımcılar tarafından verilen istemi görme ve potansiyel olarak LLM hakkında başka bazı verileri öğrenme yeteneğidir. Eğer LLM’leri gerçek kaynaklara ve anlamlı bilgilere bağlamaya başlarsak, bu sınırlamalar artık olmayacak. O zaman ne başarılabileceği, LLM’nin elinde ne olduğuna bağlı olacaktır.”

Derleyen: Hatice Bulut

Bültenimize Kaydolun
En yeni makalelerimizi anında almak için bültenimize abone olun!

    Etiketler:AIdijitaliyidirkorumaLLMmetin tabanlı yazılımSQL enjeksiyonuYapay Zeka
    Bu içeriği paylaş
    Email Copy Link Print
    Önceki Haber Tarihin İlk Metaverse Mahkemesi Gerçekleşti!
    Sonraki Haber Elektrik Yüklü Hidrojel Beyin Hasarlarının İyileşmesine Yardımcı Olabilir
    Yorum yapılmamış

    Bir yanıt yazın Yanıtı iptal et

    Yorum yapabilmek için oturum açmalısınız.

    Editörün Seçimi

    Bazı İnsanlar Yüzleri Hatırlamada Neden Bu Kadar Yetenekli?

    Bazı insanların yüzleri neredeyse kusursuz biçimde hatırlamasının ardında, zekâ ya da ekstra çabayla değil, doğuştan gelen ve en ayırt edici…

    Ekleyen Damla Sayan
    4 dk okuma süresi
    Uzaydan Gelen Yaşam İddiasını Rusya Yeniden Test Etti

    Rusya’nın yüzlerce hayvan ve mikroorganizma taşıyan Bion-M No 2 uydusu, Dünya’ya dönüşte…

    6 dk okuma süresi
    AI Veri Merkezlerinin Hızlı Büyümesi: Yenilenebilir Enerjinin Payı Ne Olacak?

    Yapay zekâ çağının hızla büyüyen altyapı ihtiyaçları, veri merkezlerinin küresel ekonomi ve…

    4 dk okuma süresi

    Yazarlar

    Enis Yabar 786 İçerik
    Genel Yayın Yönetmeni
    Profil fotoğrafıEnisYabar
    Ömer Kağan Selen 459 İçerik
    Editör
    Okan Köroğlu 484 İçerik
    Kurucu | Genel Koordinatör
    Eda Azap Öztemel 173 İçerik
    Yazar
    Damla Sayan 205 İçerik
    Yazar
    Merve Tuncel 84 İçerik
    Yazar
    Berk Katık 65 İçerik
    Yazar
    Ceren Yavuz 13 İçerik

    Son günlerde...

    Röportaj: OpenAI’nin Eski Güvenlik Uzmanı Steven Adler Yapay Zekanın Erotik İçerikleri Konusunu ve Karanlık Yüzünü Anlattı

    "AI sistemleri, bazen kullanıcıları istemeden erotik fantezilere yönlendiriyordu; şiddet içeren…

    17/11/2025 11:53

    Tüm Çalışanları AI Olan Şirket: HurumoAI Tek Bir İnsanla Yönetiliyor

    HurumoAI adlı startup, kurucusundan başka tek…

    17/11/2025 11:31

    Gen Korsanlığı: Bir Girişim Gizlice İnsan Bebeğinin Genini Hacklemeye Çalışıyor

    Gen korsanlığı girişimi, özel sektörün insan…

    14/11/2025 14:44

    31/ATLAS Gerçekten Bir Uzay Gemisi mi?

    Bilim insanlarının Güneş Sistemimize uğrayan üçüncü…

    14/11/2025 14:22

    AI Ajanlar Tek Başına Çöküyor, İnsan İşbirliğiyle Parlıyor

    2025 son çeyreğinde 1.500 işletme lideri…

    14/11/2025 11:21

    İlgini Çekebilir

    Editörün SeçimiMicrosoftTeknolojiYapay Zeka

    Nvidia ve Microsoft, Dünyanın En Güçlü Yapay Zekâ Bilgisayarını Oluşturmak İçin Anlaştı

    Nvidia, yapay zekâ eğitimi konusunda gerekli bilgi işlem yükünü hafifletmek adına yeni tasarımı olan “dünyanın en güçlü yapay zekâ bilgisayarlarını”…

    2 dk okuma süresi
    Editörün SeçimiInstagramSosyal Ağlar

    Instagram “Çıplaklık Koruması” Özelliğini Test Ediyor!

    Instagram, kullanıcılarının DM’ler aracılığıyla alabilecekleri olası çıplak fotoğrafları engelleyecek bir çıplaklık filtresi test ediyor.

    1 dk okuma süresi
    Bilim

    Klonlanan İlk Kara Ayaklı Gelincik Yavruları Dünyaya Geldi

    1979 yılında neslinin tükendiği düşünülen kara ayaklı gelincik türü, ABD'li bilim insanlarının yoğun çalışmaları sonucu klonlandı. Klonlanan gelinciklerden biri olan…

    2 dk okuma süresi
    Kripto

    Mastercard ve Binance, Kripto Kart Ortaklığını Sonlandıracak

    Mastercard müşterileri korumak için Binance ortaklığını sonlandırma kararı aldığını paylaştı. ABD Çin ticari gerilimi kripto para borsalarını da etkiliyor. Binance,…

    3 dk okuma süresi
    Hoş geldiniz!

    Hesabınıza giriş yapın

    Username or Email Address
    Password

    Lost your password?

    Üye değil misin? kaydolmak