“AI sistemleri, bazen kullanıcıları istemeden erotik fantezilere yönlendiriyordu; şiddet içeren kaçırmalar bile dahil. Bunu önlemek için erotik içeriği yasakladık, ama şimdi OpenAI bu kısıtlamayı kaldırıyor. Zihin sağlığı sorunları içinse haftalık 560 bin kullanıcı manik veya psikotik belirtiler gösteriyor – bu rakamlar şok edici. Şirketler ‘düzelttik’ diyor, ama halka kanıt sunmuyorlar. Güvenlik için daha fazla şeffaflık şart!” – Steven Adler, OpenAI’nin eski güvenlik lideri, Wired’a çarpıcı itiraflarda bulundu. Dijitaliyidir.com okurları için, Katie Drummond moderatörlüğündeki bu röportajı tam metin olarak çevirdik; AI’nin kontrolsüzlükten doğabilecek olan karanlık yüzünü keşfedin.
Detaylar röportajda…
Bu röportaj, Wired dergisi ve Katie Drummond tarafından hazırlanmış olup, OpenAI’nin iç dinamikleri, güvenlik riskleri ve etik ikilemleri üzerine derinlemesine bir bakış sunmaktadır. Röportaj, Steven Adler’in OpenAI’deki dört yıllık deneyimlerini ve şirketin erotik içerik politikalarındaki dönüşümünü ele aldığı için önemsiyoruz ve dijitaliyidir olarak, teknolojinin geleceğini şekillendiren bu tartışmaları okurlarımızla paylaşıyoruz. Çeviri ve uyarlama tamamen tarafsız bir yaklaşımla gerçekleştirilmiş ve editörlerin kontrolünden geçirilmiştir.
Röportaj: Steven Adler ile OpenAI’nin Güvenlik Mücadelesi
Katie Drummond: Başlamadan önce iki şeyi netleştirelim. Birincisi, ne yazık ki Guns N’ Roses’ın davulcusu Steven Adler değilsiniz, doğru mu?
Steven Adler: Kesinlikle doğru.
Katie Drummond: Tamam, o siz değilsiniz. İkincisi, teknolojide, özellikle yapay zeka alanında çok uzun bir kariyeriniz var. Tüm bunlara girmeden önce, kariyerinizden, geçmişinizden ve çalıştığınız projelerden biraz bahsedin.
Steven Adler: Yapay zeka endüstrisinin her alanında çalıştım, özellikle güvenlik açısından odaklandım. En son dört yıl OpenAI’de görev yaptım. Temel olarak hayal edebileceğiniz her boyuttan güvenlik sorunlarıyla uğraştım: Ürünleri müşteriler için nasıl daha iyi hale getiririz ve halihazırda olan riskleri nasıl ortadan kaldırırız? Biraz daha ileriye bakarsak, AI sistemleri gerçekten aşırı tehlikeli hale geldiğinde bunu nasıl bileceğiz?
OpenAI’ye gelmeden önce, Partnership on AI adlı bir organizasyonda çalıştım. Bu organizasyon, endüstriye genel bir bakış atıp şöyle diyordu: Bu zorlukların bazıları tek bir şirketin kendi başına üstesinden gelebileceğinden daha geniş. Bu sorunları nasıl birlikte tanımlayalım, bir araya gelip bunların sorunlar olduğunu kabul edelim, çözümlere doğru çalışalım ve nihayetinde her şeyi daha iyi hale getirelim?

Katie Drummond: Şimdi, OpenAI’deki ön saflardaki yerinizden bahsetmek istiyorum. Şirketi geçen yılın sonunda terk ettiniz. Dört yıl oradaydınız ve ayrıldığınızda, şirketin güvenlik odaklı araştırma ve programlarını yönetiyordunuz. Bu rolün ne içerdiğini biraz daha anlatın.
Steven Adler: OpenAI’deki kariyerim birkaç farklı bölümden oluşuyordu. Oradaki ilk üçte bir kadar sürede, ürün güvenliğini yönettim; bu, GPT-3 gibi insanların ticarileştirmeye başladığı ilk büyük AI ürünlerinden biri için kuralları tanımlamak anlamına geliyordu. Yararlı uygulamalar için yol haritalarını nasıl belirleriz, ama köşeyi dönünce gelebilecek riskleri nasıl önleriz?
İki büyük rolüm daha vardı: Tehlikeli yetenek değerlendirme ekibimizi yönettim; bu, sistemlerin daha tehlikeli hale geldiğini nasıl bileceğimizi tanımlamaya odaklanıyordu. Bunları nasıl ölçeriz, sonrasında ne yaparız? Son olarak, AGI hazırlığı soruları genel olarak. İnternetin her yönden değişmeye başladığını görebiliyoruz. AI ajanlarının popüler bir terim haline geldiğini görüyoruz. Erken işaretler var. Henüz tam orada değiller, ama bir gün olacaklar. OpenAI veya rakiplerinden birinin hedefledikleri bu çılgınca iddialı vizyonda başarılı olması için bir dünyaya nasıl hazırlanırız?
OpenAI’ın Erken Dönemi
Katie Drummond: Biraz geri saralım ve GPT-3’ten bahsedelim. Yol haritalarını tanımlarken, önlenmesi gereken ana riskleri düşünürken, OpenAI’de erken dönemde size ne öne çıktı?
Steven Adler: O erken günlerde, bugünkünden daha fazla, AI sistemleri zaman zaman dengesiz davranırdı. Bu sistemler yetenekli olacak şekilde eğitilmişti ve insanların yapabildiği bazı görevleri yapmanın ilk parıltılarını gösteriyorlardı. O noktada, internette okudukları metni taklit edebiliyorlardı. Ama insan duyarlılığı ve değerleri açısından bir şeyler eksikti.
Bir AI sistemini, bir işletme tarafından bazı işleri halletmek için kullanılan dijital bir çalışan olarak düşünürseniz, bu AI sistemleri, bir çalışanın sizin adınıza yapmasını asla istemeyeceğiniz her türlü şeyi yapardı. Ve bu, her türlü zorluk yaratıyordu. Bunları yönetmek için yeni teknikler geliştirmemiz gerekiyordu.
Bence OpenAI gibi şirketlerin hala mücadele ettiği bir başka derin sorun da, sistemlerin nasıl kullanıldığına dair çok sınırlı bilgiye sahip olmaları. Aslında, sistemlerin topluma olan etkileri hakkında sahip oldukları görünürlük dar ve genellikle, eğer biraz daha fazla sorumlu bir şekilde izleme yatırım yapsalardı gözlemleyebilecekleri şeye göre yetersiz.
Yani, sistemlerin topluma olan etkilerinin gölgeleriyle uğraşıyorsunuz ve gerçekten küçük bir etki verisi dilimiyle, buradan nereye gideceğimizi anlamaya çalışıyorsunuz.
Katie Drummond: 2020-2024 dönemi OpenAI için elbette inanılmaz derecede sonuç odaklı bir dönemdi. Görev süreniz sırasında şirketin iç kültürünü, özellikle risk etrafında nasıl tarif edersiniz? Çözmeye çalıştığınız sorunlarda ve yanıtlamaya çalıştığınız sorularda o ortamda çalışmak nasıl hissettiriyordu?
Steven Adler: Katıldığımda kendini öncelikle bir araştırma organizasyonu olarak gören bir organizasyondan, zamanla giderek daha fazla normal bir işletmeye dönüşen bir organizasyona gerçekten derin bir dönüşüm oldu. Katıldığımda insanlar şöyle derdi: “OpenAI sadece bir araştırma laboratuvarı ve kar amacı gütmeyen bir kuruluş değil, aynı zamanda ticari bir kolu da var.” Görev süremde bir noktada, GPT-4 lansmanıyla ilgili bir güvenlik offsite’ındaydım – belki tam peşinden – ve biri odanın önünde kalkıp şöyle dedi: “OpenAI sadece bir işletme değil, aynı zamanda bir araştırma laboratuvarı.”
Bu sadece inanılmaz bir dönüm noktasıydı. Odadaki insanları saydım. Belki 60 kadarımız vardı, sanırım GPT-3 lansmanından önce şirkette olan sadece beş veya altı kişiydi. Yani kültürün ayaklarınızın altında değiştiğini gerçekten görüyordunuz.
OpenAI’in Çalışanlar Açısından Çekiciliği
Katie Drummond: Şirkete katılmak size ne heyecan veriyordu? Sizi 2020’de OpenAI’ye çeken neydi?
Steven Adler: Bu organizasyonun belirlediği charter’a gerçekten inanıyordum; AI’nin derinlemesine etkili olabileceğini kabul etmek, önümüzde gerçek riskler olduğunu kabul etmek ve aynı zamanda gerçek faydalar olduğunu, ve insanların bunu nasıl yöneteceğini bulması gerektiğini kabul etmek.
Bence daha geniş olarak, teknolojinin bir türünü seviyorum. Bence gerçekten inanılmaz ve göz açıcı. GPT-3’ün lansmanından sonraki anı hatırlıyorum, Twitter’da bir kullanıcının gösterdiği, Vay be, buna bak. Tarayıcıma bir karpuz gibi görünen bir hesap makinesi yapmasını söylüyorum ve sonra zürafa gibi görünen bir tane ve kodun arka planda değiştiğini ve gerçek zamanlı tepki verdiğini görebiliyorsunuz. Bu biraz aptalca bir oyuncak örneği ama sadece sihir gibi hissettirdi.
Bununla hiç gerçekten yüzleşmemiştim. Bu kadar yakın olabileceğimizi, insanların yeni şeyler inşa edebileceğini, yaratıcılığı açabileceğini. Tüm bu vaatler, ama aynı zamanda insanlar etrafındaki kıvrımlarda neyin yattığını yeterince düşünüyor mu?
Katie Drummond: Bu bizi son dönemlerinize getiriyor. Geçen yılın sonunda OpenAI’den ayrılma kararını verdiniz. O karardan biraz bahsedebilir misiniz? Sizi kenara iten tek bir şey miydi? Neydi?
Steven Adler: Eh, 2024 OpenAI’de çalışan güvenlik insanları için çok garip bir yıldı. Şirketin ve endüstrinin bu sorunlara nasıl yaklaştığı konusunda güveni sarsan bir sürü şey oldu. Birkaç kez ayrılmayı düşündüm. Ama o noktada mantıklı gelmiyordu. Canlı projelerim vardı ve endüstrideki farklı insanlara karşı sorumluluklarım vardı. Sonunda, Miles Brundage sonbaharda OpenAI’den ayrıldığında, ekibimiz dağıldı. Ve soru şuydu: OpenAI içinde en çok önemsediğim güvenlik konularında çalışmaya devam etmek için gerçekten bir fırsat var mı?
Bunu düşündüm ve sonunda devam etmek ve bağımsız bir ses olmak daha mantıklı geldi; umarım sadece bu şirketlerden birinden söylemek için uygun olan şeyleri söylemekle kalmayan. O zamandan beri çok, çok özgürleştirici bulduğum şekillerde çok daha özgürce konuşabilmek.

Katie Drummond: Sormam gerekiyor: Teknolojide genellikle dört yıllık bir vesting cliff ile hisse biriktirirsiniz, değil mi? Sonra dört yılda tamamen vest edersiniz. Şirkette şimdi finansal bir payınız var mı?
Steven Adler: Dört yıl sözleşmelerinin doğru olduğu doğru. Ama terfi ettikçe ve zamanla yeni sözleşmeler alırsınız, benim durumumda da öyleydi. Yani hissem bitmişti veya bir şey gibi değildi. Farklı grant’ların zamanlaması nedeniyle küçük bir kısım ilgim kaldı.
Katie Drummond: Soruyorum çünkü potansiyel olarak büyük bir miktardan vazgeçiyorsunuz. Ekim ayında The New York Times’ta yayınlanan bir op-ed’inizden bahsetmek istiyorum. O yazıda, 2021 baharında ekibinizin AI kullanarak erotik içerikle ilgili bir kriz keşfettiğini yazıyorsunuz. O bulgudan biraz bahsedebilir misiniz?
Steven Adler: Yani 2021 baharında, OpenAI’de ürün güvenliğinden sorumlu olmuştum. WIRED’in o zaman rapor ettiği gibi, yeni bir izleme sistemi devreye girdiğinde, bir şey yapmamız gerektiğini hissettiğimiz büyük bir trafik alt akımı keşfettik. Önemli müşterilerimizden biri, temelde bir choose-your-own-adventure metin oyunu gibiydi. AI ile gidip gelirdiniz ve ne tür eylemler almak istediğinizi söylerdiniz, o da sizinle etkileşimli bir hikaye yazardı. Ve bu trafiğin rahatsız edici miktarı, her türlü cinsel fantezilere dönüşüyordu. Temel olarak hayal edebileceğiniz her şey – bazen kullanıcı tarafından yönlendirilen, bazen AI tarafından yönlendirilen, ki AI’nin kendi aklı vardı. Erotik rol yapma yerine veya belirli fantezilere gitmeyi niyet etmeseniz bile, AI sizi oraya yönlendirebilirdi.
Katie Drummond: Vay be. Neden? Neden sizi oraya yönlendirirdi? Bir AI’nin sizi erotik konuşmaya yönlendirmesi tam olarak nasıl çalışır?
Steven Adler: Bu sistemler hakkında temel şey, kimsenin onları belirli bir yöne güvenilir bir şekilde nasıl işaret edeceğini gerçekten anlamamasıdır. Bazen insanlar AI sistemine kimin değerlerini koyduğumuz hakkında tartışmalar yapar ve o tartışmayı anlıyorum, ama daha temel bir soru var: Herhangi bir değeri nasıl güvenilir bir şekilde koyarız? Bu özel durumda, insanların altta yatan eğitim verilerinden bazılarını bulduğu oldu ve bunları bir araya getirerek, Oh, sistem genellikle bu şiddet içeren kaçırmalar yapan karakterleri tanıtıyor diyebilirsiniz ve eğitim verilerine bakarsanız, bu eğilimlere sahip belirli karakterleri bulabilir ve izini sürebilirsiniz. Ama önceden, kimse bunu öngörmemişti.
Ne biz GPT-3’ün geliştiricileri olarak, ne de bunun üzerine modellerini ince ayarlayan müşterimiz bunu olması için niyet etmemiştik. Sadece planlanmamış bir istenmeyen sonuçtu. Ve şimdi bunu bir şekilde temizlemek zorunda kalıyorduk.
Katie Drummond: Yani o zaman OpenAI, platformlarında üretilen erotik içeriği yasaklamaya karar verdi. Doğru mu anlıyorum?
Steven Adler: Doğru.

Katie Drummond: Bu yılın Ekim ayında şirket, bu kısıtlamayı kaldırdıklarını duyurdu. Teknoloji ve OpenAI’nin elindeki araçlar açısından, veya iç kültür, kültürel manzara açısından 2021’den bugüne ne değiştiğini hissediyor musunuz? OpenAI’nin bu kararı rahatça vermesini ve Sam Altman’ın bunu kendisi duyurmasını rahatça yapmasını ne değiştirdi?
Steven Adler: OpenAI’de uzun süredir, makul bir şekilde, ahlak polisi olmak istememe ilgisi var. Bence geliştiren ve bu sistemleri kontrol etmeye çalışan insanların toplumda farklı normların nasıl oynanacağı üzerinde çok fazla etkiye sahip olduğunu kabul ediyorlar ve bundan rahatsız hissediyorlar. Ayrıca zamanın farklı noktalarında, eğer gerçekten serbest bırakırsanız işlerin nereye gideceğini yönetmek için araçlara sahip olmama. Ve erotika sorunuyla yüzleşirken bizim durumumuz buydu.
OpenAI’nin bunu yeniden tanıtmayı ertelemesinin bir nedeni, bu yıl ChatGPT platformunda zihin sağlığıyla ilgili sorunlarda görünen bir artış olması. Yani Sam Ekim’deki duyurusuna, bu yıl çok ciddi zihin sağlığı sorunlarıyla uğraştığımızı söyledi, ama iyi haber, bunları hafiflettik. Yeni araçlara sahibiz ve dolayısıyla, bu kısıtlamaların çoğunu kaldıracağız, doğrulama yapılmış yetişkinler için erotikayı yeniden tanıtmak dahil.
Katie Drummond: Onun bu duyurusunu fark ettiğim şey, sorunların hafifletildiğini iddia etmesi. Bu yeni araçlara atıfta bulunuyor. Bu aslında ne anlama geliyor? Bu sorunların düzeltildiğini anlamak için gerçek temel ne? AI şirketlerinin sözüne inanmaktan başka bir normal halk üyesi ne yapabilir?
“Kanıtla!”
Steven Adler: Doğru, ve bunu The New York Times’ta yazdınız. Dediniz ki, “İnsanlar bir şirketin güvenlik sorunlarını ele aldığını sadece sözüne inanmayı hak etmiyor. Yani: Kanıtla.”
Katie Drummond: Özellikle ilgileniyorum çünkü WIRED bir OpenAI duyurusunu kapsadı, bu da Ekim’de, küresel olarak belirli bir haftada ChatGPT kullanıcılarının ne kadarının ciddi bir zihin sağlığı krizi belirtileri gösterebileceğinin kaba bir tahminiydi. Ve bulduğum rakamlar, bence WIRED’deki hepimizin bulduğu, oldukça şok ediciydi. Haftalık yaklaşık 560 bin kişi mani veya psikoz yaşadıklarını belirten mesajlar ChatGPT ile değiştiriyor. Yaklaşık 1.2 milyon daha intihar düşünceleri ifade ediyor olabilir. Başka 1.2 milyon, ve bence bu gerçekten ilginçti, sevdiklerinden, okulundan veya işinden ziyade ChatGPT ile konuşmayı önceliklendiriyor olabilir. Bu rakamları ve o bilgiyi, zihin sağlığı etrafındaki sorunları hafifletme fikriyle nasıl uzlaştırıyorsunuz?
Steven Adler: Bunu mantıklı hale getirebileceğimi sanmıyorum, ama birkaç düşüncem var. Birincisi, elbette bu rakamları düşünmeniz gerekiyor…
(Not: Röportaj metni, Wired’ın orijinal yayınında burada kesiliyor; tam transkript podcast’in tam sürümünde mevcut. Dijitaliyidir.com olarak, mevcut metni kısaltmadan sunduk. Devamı için orijinal Wired podcast’ini dinleyebilirsiniz.)
:






