Giriş
  • | Dosyalar |
  • | Listeler |
  • | Kimdir |
  • | Yorum |
dijital iyidir
  • HABERLER
    • Bilim
    • Teknoloji
    • Yapay Zeka
    • VPN
    • Dijital Yayıncılık
    • Oyun Dünyası
    • Sosyal Ağlar
      • YouTube
      • LinkedIn
      • Instagram
      • Twitter
      • Facebook
      • TikTok
    • Çevre & Yeşil Dünya
    • Dijital Sanat & NFT
    • Kripto
    • Girişimcilik
    • Deprem Gündemi
  • Okunası
    • Kimdir?
    • Nedir? Nasıl Yapılır?
    • Köşe Yazıları
    • Listeler
    • Dosya Haber
    • Deprem Gündemi
    • 2024’ün Ardından
    • 2023’ün Ardından
    • 2022’nin Ardından
  • dijitaliyidir
    • Ekibimiz
    • Hesabım
    • İletişim
    • Dijitaliyidir Kampüs
    • İş İlanları
  • Podcast
  • Instagram
  • Etkinlikler
  • Kayıt & Giriş
Şu an okunan: Röportaj: OpenAI’nin Eski Güvenlik Uzmanı Steven Adler Yapay Zekanın Erotik İçerikleri Konusunu ve Karanlık Yüzünü Anlattı
Paylaş
dijital iyidirdijital iyidir
Yazı Tipi Yeniden BoyutlandırıcıAa
  • HABERLER
  • Okunası
  • dijitaliyidir
  • Podcast
  • Instagram
  • Etkinlikler
  • Kayıt & Giriş
Ara
  • HABERLER
    • Bilim
    • Teknoloji
    • Yapay Zeka
    • VPN
    • Dijital Yayıncılık
    • Oyun Dünyası
    • Sosyal Ağlar
    • Çevre & Yeşil Dünya
    • Dijital Sanat & NFT
    • Kripto
    • Girişimcilik
    • Deprem Gündemi
  • Okunası
    • Kimdir?
    • Nedir? Nasıl Yapılır?
    • Köşe Yazıları
    • Listeler
    • Dosya Haber
    • Deprem Gündemi
    • 2024’ün Ardından
    • 2023’ün Ardından
    • 2022’nin Ardından
  • dijitaliyidir
    • Ekibimiz
    • Hesabım
    • İletişim
    • Dijitaliyidir Kampüs
    • İş İlanları
  • Podcast
  • Instagram
  • Etkinlikler
  • Kayıt & Giriş
Hesabınız mı var? giriş yap
Bizi Takip Edin
© 2022 Foxiz News Network. Ruby Design Company. All Rights Reserved.

Ana Sayfa » Yapay Zeka » Röportaj: OpenAI’nin Eski Güvenlik Uzmanı Steven Adler Yapay Zekanın Erotik İçerikleri Konusunu ve Karanlık Yüzünü Anlattı

Yapay ZekaEditörün SeçimiRöportaj

Röportaj: OpenAI’nin Eski Güvenlik Uzmanı Steven Adler Yapay Zekanın Erotik İçerikleri Konusunu ve Karanlık Yüzünü Anlattı

Son güncelleme: 18/11/2025 11:45 11:45
Okan Köroğlu
Paylaş
PAYLAŞ

“AI sistemleri, bazen kullanıcıları istemeden erotik fantezilere yönlendiriyordu; şiddet içeren kaçırmalar bile dahil. Bunu önlemek için erotik içeriği yasakladık, ama şimdi OpenAI bu kısıtlamayı kaldırıyor. Zihin sağlığı sorunları içinse haftalık 560 bin kullanıcı manik veya psikotik belirtiler gösteriyor – bu rakamlar şok edici. Şirketler ‘düzelttik’ diyor, ama halka kanıt sunmuyorlar. Güvenlik için daha fazla şeffaflık şart!” – Steven Adler, OpenAI’nin eski güvenlik lideri, Wired’a çarpıcı itiraflarda bulundu. Dijitaliyidir.com okurları için, Katie Drummond moderatörlüğündeki bu röportajı tam metin olarak çevirdik; AI’nin kontrolsüzlükten doğabilecek olan karanlık yüzünü keşfedin.

Detaylar röportajda…

Bu röportaj, Wired dergisi ve Katie Drummond tarafından hazırlanmış olup, OpenAI’nin iç dinamikleri, güvenlik riskleri ve etik ikilemleri üzerine derinlemesine bir bakış sunmaktadır. Röportaj, Steven Adler’in OpenAI’deki dört yıllık deneyimlerini ve şirketin erotik içerik politikalarındaki dönüşümünü ele aldığı için önemsiyoruz ve dijitaliyidir olarak, teknolojinin geleceğini şekillendiren bu tartışmaları okurlarımızla paylaşıyoruz. Çeviri ve uyarlama tamamen tarafsız bir yaklaşımla gerçekleştirilmiş ve editörlerin kontrolünden geçirilmiştir.

Özetle bu yazıda
      • Röportaj: Steven Adler ile OpenAI’nin Güvenlik Mücadelesi
  • OpenAI’ın Erken Dönemi
  • OpenAI’in Çalışanlar Açısından Çekiciliği
  • “Kanıtla!”

Röportaj: Steven Adler ile OpenAI’nin Güvenlik Mücadelesi

Katie Drummond: Başlamadan önce iki şeyi netleştirelim. Birincisi, ne yazık ki Guns N’ Roses’ın davulcusu Steven Adler değilsiniz, doğru mu?

Steven Adler: Kesinlikle doğru.

Katie Drummond: Tamam, o siz değilsiniz. İkincisi, teknolojide, özellikle yapay zeka alanında çok uzun bir kariyeriniz var. Tüm bunlara girmeden önce, kariyerinizden, geçmişinizden ve çalıştığınız projelerden biraz bahsedin.

Steven Adler: Yapay zeka endüstrisinin her alanında çalıştım, özellikle güvenlik açısından odaklandım. En son dört yıl OpenAI’de görev yaptım. Temel olarak hayal edebileceğiniz her boyuttan güvenlik sorunlarıyla uğraştım: Ürünleri müşteriler için nasıl daha iyi hale getiririz ve halihazırda olan riskleri nasıl ortadan kaldırırız? Biraz daha ileriye bakarsak, AI sistemleri gerçekten aşırı tehlikeli hale geldiğinde bunu nasıl bileceğiz?

OpenAI’ye gelmeden önce, Partnership on AI adlı bir organizasyonda çalıştım. Bu organizasyon, endüstriye genel bir bakış atıp şöyle diyordu: Bu zorlukların bazıları tek bir şirketin kendi başına üstesinden gelebileceğinden daha geniş. Bu sorunları nasıl birlikte tanımlayalım, bir araya gelip bunların sorunlar olduğunu kabul edelim, çözümlere doğru çalışalım ve nihayetinde her şeyi daha iyi hale getirelim?

Katie Drummond: Şimdi, OpenAI’deki ön saflardaki yerinizden bahsetmek istiyorum. Şirketi geçen yılın sonunda terk ettiniz. Dört yıl oradaydınız ve ayrıldığınızda, şirketin güvenlik odaklı araştırma ve programlarını yönetiyordunuz. Bu rolün ne içerdiğini biraz daha anlatın.

Steven Adler: OpenAI’deki kariyerim birkaç farklı bölümden oluşuyordu. Oradaki ilk üçte bir kadar sürede, ürün güvenliğini yönettim; bu, GPT-3 gibi insanların ticarileştirmeye başladığı ilk büyük AI ürünlerinden biri için kuralları tanımlamak anlamına geliyordu. Yararlı uygulamalar için yol haritalarını nasıl belirleriz, ama köşeyi dönünce gelebilecek riskleri nasıl önleriz?

İki büyük rolüm daha vardı: Tehlikeli yetenek değerlendirme ekibimizi yönettim; bu, sistemlerin daha tehlikeli hale geldiğini nasıl bileceğimizi tanımlamaya odaklanıyordu. Bunları nasıl ölçeriz, sonrasında ne yaparız? Son olarak, AGI hazırlığı soruları genel olarak. İnternetin her yönden değişmeye başladığını görebiliyoruz. AI ajanlarının popüler bir terim haline geldiğini görüyoruz. Erken işaretler var. Henüz tam orada değiller, ama bir gün olacaklar. OpenAI veya rakiplerinden birinin hedefledikleri bu çılgınca iddialı vizyonda başarılı olması için bir dünyaya nasıl hazırlanırız?

OpenAI’ın Erken Dönemi

Katie Drummond: Biraz geri saralım ve GPT-3’ten bahsedelim. Yol haritalarını tanımlarken, önlenmesi gereken ana riskleri düşünürken, OpenAI’de erken dönemde size ne öne çıktı?

Steven Adler: O erken günlerde, bugünkünden daha fazla, AI sistemleri zaman zaman dengesiz davranırdı. Bu sistemler yetenekli olacak şekilde eğitilmişti ve insanların yapabildiği bazı görevleri yapmanın ilk parıltılarını gösteriyorlardı. O noktada, internette okudukları metni taklit edebiliyorlardı. Ama insan duyarlılığı ve değerleri açısından bir şeyler eksikti.

Bir AI sistemini, bir işletme tarafından bazı işleri halletmek için kullanılan dijital bir çalışan olarak düşünürseniz, bu AI sistemleri, bir çalışanın sizin adınıza yapmasını asla istemeyeceğiniz her türlü şeyi yapardı. Ve bu, her türlü zorluk yaratıyordu. Bunları yönetmek için yeni teknikler geliştirmemiz gerekiyordu.

Bence OpenAI gibi şirketlerin hala mücadele ettiği bir başka derin sorun da, sistemlerin nasıl kullanıldığına dair çok sınırlı bilgiye sahip olmaları. Aslında, sistemlerin topluma olan etkileri hakkında sahip oldukları görünürlük dar ve genellikle, eğer biraz daha fazla sorumlu bir şekilde izleme yatırım yapsalardı gözlemleyebilecekleri şeye göre yetersiz.

Yani, sistemlerin topluma olan etkilerinin gölgeleriyle uğraşıyorsunuz ve gerçekten küçük bir etki verisi dilimiyle, buradan nereye gideceğimizi anlamaya çalışıyorsunuz.

Katie Drummond: 2020-2024 dönemi OpenAI için elbette inanılmaz derecede sonuç odaklı bir dönemdi. Görev süreniz sırasında şirketin iç kültürünü, özellikle risk etrafında nasıl tarif edersiniz? Çözmeye çalıştığınız sorunlarda ve yanıtlamaya çalıştığınız sorularda o ortamda çalışmak nasıl hissettiriyordu?

Steven Adler: Katıldığımda kendini öncelikle bir araştırma organizasyonu olarak gören bir organizasyondan, zamanla giderek daha fazla normal bir işletmeye dönüşen bir organizasyona gerçekten derin bir dönüşüm oldu. Katıldığımda insanlar şöyle derdi: “OpenAI sadece bir araştırma laboratuvarı ve kar amacı gütmeyen bir kuruluş değil, aynı zamanda ticari bir kolu da var.” Görev süremde bir noktada, GPT-4 lansmanıyla ilgili bir güvenlik offsite’ındaydım – belki tam peşinden – ve biri odanın önünde kalkıp şöyle dedi: “OpenAI sadece bir işletme değil, aynı zamanda bir araştırma laboratuvarı.”

Bu sadece inanılmaz bir dönüm noktasıydı. Odadaki insanları saydım. Belki 60 kadarımız vardı, sanırım GPT-3 lansmanından önce şirkette olan sadece beş veya altı kişiydi. Yani kültürün ayaklarınızın altında değiştiğini gerçekten görüyordunuz.

OpenAI’in Çalışanlar Açısından Çekiciliği

Katie Drummond: Şirkete katılmak size ne heyecan veriyordu? Sizi 2020’de OpenAI’ye çeken neydi?

Steven Adler: Bu organizasyonun belirlediği charter’a gerçekten inanıyordum; AI’nin derinlemesine etkili olabileceğini kabul etmek, önümüzde gerçek riskler olduğunu kabul etmek ve aynı zamanda gerçek faydalar olduğunu, ve insanların bunu nasıl yöneteceğini bulması gerektiğini kabul etmek.

Bence daha geniş olarak, teknolojinin bir türünü seviyorum. Bence gerçekten inanılmaz ve göz açıcı. GPT-3’ün lansmanından sonraki anı hatırlıyorum, Twitter’da bir kullanıcının gösterdiği, Vay be, buna bak. Tarayıcıma bir karpuz gibi görünen bir hesap makinesi yapmasını söylüyorum ve sonra zürafa gibi görünen bir tane ve kodun arka planda değiştiğini ve gerçek zamanlı tepki verdiğini görebiliyorsunuz. Bu biraz aptalca bir oyuncak örneği ama sadece sihir gibi hissettirdi.

Bununla hiç gerçekten yüzleşmemiştim. Bu kadar yakın olabileceğimizi, insanların yeni şeyler inşa edebileceğini, yaratıcılığı açabileceğini. Tüm bu vaatler, ama aynı zamanda insanlar etrafındaki kıvrımlarda neyin yattığını yeterince düşünüyor mu?

Katie Drummond: Bu bizi son dönemlerinize getiriyor. Geçen yılın sonunda OpenAI’den ayrılma kararını verdiniz. O karardan biraz bahsedebilir misiniz? Sizi kenara iten tek bir şey miydi? Neydi?

Steven Adler: Eh, 2024 OpenAI’de çalışan güvenlik insanları için çok garip bir yıldı. Şirketin ve endüstrinin bu sorunlara nasıl yaklaştığı konusunda güveni sarsan bir sürü şey oldu. Birkaç kez ayrılmayı düşündüm. Ama o noktada mantıklı gelmiyordu. Canlı projelerim vardı ve endüstrideki farklı insanlara karşı sorumluluklarım vardı. Sonunda, Miles Brundage sonbaharda OpenAI’den ayrıldığında, ekibimiz dağıldı. Ve soru şuydu: OpenAI içinde en çok önemsediğim güvenlik konularında çalışmaya devam etmek için gerçekten bir fırsat var mı?

Bunu düşündüm ve sonunda devam etmek ve bağımsız bir ses olmak daha mantıklı geldi; umarım sadece bu şirketlerden birinden söylemek için uygun olan şeyleri söylemekle kalmayan. O zamandan beri çok, çok özgürleştirici bulduğum şekillerde çok daha özgürce konuşabilmek.

Katie Drummond ve Steven Adler
Katie Drummond ve Steven Adler

Katie Drummond: Sormam gerekiyor: Teknolojide genellikle dört yıllık bir vesting cliff ile hisse biriktirirsiniz, değil mi? Sonra dört yılda tamamen vest edersiniz. Şirkette şimdi finansal bir payınız var mı?

Steven Adler: Dört yıl sözleşmelerinin doğru olduğu doğru. Ama terfi ettikçe ve zamanla yeni sözleşmeler alırsınız, benim durumumda da öyleydi. Yani hissem bitmişti veya bir şey gibi değildi. Farklı grant’ların zamanlaması nedeniyle küçük bir kısım ilgim kaldı.

Katie Drummond: Soruyorum çünkü potansiyel olarak büyük bir miktardan vazgeçiyorsunuz. Ekim ayında The New York Times’ta yayınlanan bir op-ed’inizden bahsetmek istiyorum. O yazıda, 2021 baharında ekibinizin AI kullanarak erotik içerikle ilgili bir kriz keşfettiğini yazıyorsunuz. O bulgudan biraz bahsedebilir misiniz?

Steven Adler: Yani 2021 baharında, OpenAI’de ürün güvenliğinden sorumlu olmuştum. WIRED’in o zaman rapor ettiği gibi, yeni bir izleme sistemi devreye girdiğinde, bir şey yapmamız gerektiğini hissettiğimiz büyük bir trafik alt akımı keşfettik. Önemli müşterilerimizden biri, temelde bir choose-your-own-adventure metin oyunu gibiydi. AI ile gidip gelirdiniz ve ne tür eylemler almak istediğinizi söylerdiniz, o da sizinle etkileşimli bir hikaye yazardı. Ve bu trafiğin rahatsız edici miktarı, her türlü cinsel fantezilere dönüşüyordu. Temel olarak hayal edebileceğiniz her şey – bazen kullanıcı tarafından yönlendirilen, bazen AI tarafından yönlendirilen, ki AI’nin kendi aklı vardı. Erotik rol yapma yerine veya belirli fantezilere gitmeyi niyet etmeseniz bile, AI sizi oraya yönlendirebilirdi.

Katie Drummond: Vay be. Neden? Neden sizi oraya yönlendirirdi? Bir AI’nin sizi erotik konuşmaya yönlendirmesi tam olarak nasıl çalışır?

Steven Adler: Bu sistemler hakkında temel şey, kimsenin onları belirli bir yöne güvenilir bir şekilde nasıl işaret edeceğini gerçekten anlamamasıdır. Bazen insanlar AI sistemine kimin değerlerini koyduğumuz hakkında tartışmalar yapar ve o tartışmayı anlıyorum, ama daha temel bir soru var: Herhangi bir değeri nasıl güvenilir bir şekilde koyarız? Bu özel durumda, insanların altta yatan eğitim verilerinden bazılarını bulduğu oldu ve bunları bir araya getirerek, Oh, sistem genellikle bu şiddet içeren kaçırmalar yapan karakterleri tanıtıyor diyebilirsiniz ve eğitim verilerine bakarsanız, bu eğilimlere sahip belirli karakterleri bulabilir ve izini sürebilirsiniz. Ama önceden, kimse bunu öngörmemişti.

Ne biz GPT-3’ün geliştiricileri olarak, ne de bunun üzerine modellerini ince ayarlayan müşterimiz bunu olması için niyet etmemiştik. Sadece planlanmamış bir istenmeyen sonuçtu. Ve şimdi bunu bir şekilde temizlemek zorunda kalıyorduk.

Katie Drummond: Yani o zaman OpenAI, platformlarında üretilen erotik içeriği yasaklamaya karar verdi. Doğru mu anlıyorum?

Steven Adler: Doğru.

Steven Adler, Sam Altman'ın yapay zekanın tehlikelerini görmezden geldiğini ve bunu bilerek, isteyerek yaptığını iddia ediyor.
Steven Adler, Sam Altman’ın yapay zekanın tehlikelerini görmezden geldiğini ve bunu bilerek, isteyerek yaptığını iddia ediyor.

Katie Drummond: Bu yılın Ekim ayında şirket, bu kısıtlamayı kaldırdıklarını duyurdu. Teknoloji ve OpenAI’nin elindeki araçlar açısından, veya iç kültür, kültürel manzara açısından 2021’den bugüne ne değiştiğini hissediyor musunuz? OpenAI’nin bu kararı rahatça vermesini ve Sam Altman’ın bunu kendisi duyurmasını rahatça yapmasını ne değiştirdi?

Steven Adler: OpenAI’de uzun süredir, makul bir şekilde, ahlak polisi olmak istememe ilgisi var. Bence geliştiren ve bu sistemleri kontrol etmeye çalışan insanların toplumda farklı normların nasıl oynanacağı üzerinde çok fazla etkiye sahip olduğunu kabul ediyorlar ve bundan rahatsız hissediyorlar. Ayrıca zamanın farklı noktalarında, eğer gerçekten serbest bırakırsanız işlerin nereye gideceğini yönetmek için araçlara sahip olmama. Ve erotika sorunuyla yüzleşirken bizim durumumuz buydu.

OpenAI’nin bunu yeniden tanıtmayı ertelemesinin bir nedeni, bu yıl ChatGPT platformunda zihin sağlığıyla ilgili sorunlarda görünen bir artış olması. Yani Sam Ekim’deki duyurusuna, bu yıl çok ciddi zihin sağlığı sorunlarıyla uğraştığımızı söyledi, ama iyi haber, bunları hafiflettik. Yeni araçlara sahibiz ve dolayısıyla, bu kısıtlamaların çoğunu kaldıracağız, doğrulama yapılmış yetişkinler için erotikayı yeniden tanıtmak dahil.

Katie Drummond: Onun bu duyurusunu fark ettiğim şey, sorunların hafifletildiğini iddia etmesi. Bu yeni araçlara atıfta bulunuyor. Bu aslında ne anlama geliyor? Bu sorunların düzeltildiğini anlamak için gerçek temel ne? AI şirketlerinin sözüne inanmaktan başka bir normal halk üyesi ne yapabilir?

“Kanıtla!”

Steven Adler: Doğru, ve bunu The New York Times’ta yazdınız. Dediniz ki, “İnsanlar bir şirketin güvenlik sorunlarını ele aldığını sadece sözüne inanmayı hak etmiyor. Yani: Kanıtla.”

Katie Drummond: Özellikle ilgileniyorum çünkü WIRED bir OpenAI duyurusunu kapsadı, bu da Ekim’de, küresel olarak belirli bir haftada ChatGPT kullanıcılarının ne kadarının ciddi bir zihin sağlığı krizi belirtileri gösterebileceğinin kaba bir tahminiydi. Ve bulduğum rakamlar, bence WIRED’deki hepimizin bulduğu, oldukça şok ediciydi. Haftalık yaklaşık 560 bin kişi mani veya psikoz yaşadıklarını belirten mesajlar ChatGPT ile değiştiriyor. Yaklaşık 1.2 milyon daha intihar düşünceleri ifade ediyor olabilir. Başka 1.2 milyon, ve bence bu gerçekten ilginçti, sevdiklerinden, okulundan veya işinden ziyade ChatGPT ile konuşmayı önceliklendiriyor olabilir. Bu rakamları ve o bilgiyi, zihin sağlığı etrafındaki sorunları hafifletme fikriyle nasıl uzlaştırıyorsunuz?

Steven Adler: Bunu mantıklı hale getirebileceğimi sanmıyorum, ama birkaç düşüncem var. Birincisi, elbette bu rakamları düşünmeniz gerekiyor…

(Not: Röportaj metni, Wired’ın orijinal yayınında burada kesiliyor; tam transkript podcast’in tam sürümünde mevcut. Dijitaliyidir.com olarak, mevcut metni kısaltmadan sunduk. Devamı için orijinal Wired podcast’ini dinleyebilirsiniz.)

:

Bültenimize Kaydolun
En yeni makalelerimizi anında almak için bültenimize abone olun!

    Etiketler:AI erotik içerikAI güvenlik şeffaflığıChatGPT zihin sağlığıGPT-3 riskleriOpenAI güvenlikOpenAI iç kültürSam Altman duyurusuSteven Adler röportajıteknoloji güvenlik uzmanıyapay zeka etik
    Bu içeriği paylaş
    Email Copy Link Print
    EkleyenOkan Köroğlu
    Takip et
    Kurucu | Genel Koordinatör
    Önceki Haber Tüm Çalışanları AI Olan Şirket: HurumoAI Tek Bir İnsanla Yönetiliyor
    Sonraki Haber AI Veri Merkezlerinin Hızlı Büyümesi: Yenilenebilir Enerjinin Payı Ne Olacak?
    Yorum yapılmamış

    Bir yanıt yazın Yanıtı iptal et

    Yorum yapabilmek için oturum açmalısınız.

    Editörün Seçimi

    Hinge CEO’su, Yapay Zekâ Destekli Flört Uygulaması Overtone’u Piyasaya Sürmek İçin Görevinden Ayrılıyor

    Hinge’in kurucusu ve CEO’su Justin McLeod, şirketten ayrılarak yeni bir yapay zekâ temelli flört uygulaması Overtone’ı başlatma kararı aldı.

    Ekleyen Damla Sayan
    4 dk okuma süresi
    Blue Origin’in Ay Tozundan Elektrik Üreten Cihazı

    Ay yüzeyindeki ay tozu ile enerji üretmeyi amaçlayan yeni Blue Origin projesi,…

    2 dk okuma süresi
    Yapay Zekâ Destekli Tüp Bebek Yöntemiyle Dünyaya Gelen İlk Bebekler

    Yapay zekâ destekli tüp bebek teknolojilerinin hızla gelişmesi, üreme sağlığında daha güvenilir…

    13 dk okuma süresi

    Yazarlar

    Enis Yabar 786 İçerik
    Genel Yayın Yönetmeni
    Profil fotoğrafıEnisYabar
    Ömer Kağan Selen 459 İçerik
    Editör
    Okan Köroğlu 494 İçerik
    Kurucu | Genel Koordinatör
    Eda Azap Öztemel 189 İçerik
    Yazar
    Damla Sayan 244 İçerik
    Yazar
    Merve Tuncel 84 İçerik
    Yazar
    Berk Katık 65 İçerik
    Yazar
    Ceren Yavuz 13 İçerik

    Son günlerde...

    Mars’ta Yaşam İzleri: Bilim İnsanları Büyük Sırrın Eşiğinde

    NASA’nın Perseverance keşif aracı, Mars’ın aslında milyonlarca yıl boyunca yağmur…

    10/12/2025 17:43

    İçten Bir Sarılma Neden Bu Kadar Etkili? Bilimin 10 Çarpıcı Yanıtı

    Yeni bir bilimsel araştırma, ciltteki sıcaklık…

    10/12/2025 14:17

    Paramount’tan Netflix’e Karşı Savaş: Warner Bros. Discovery İçin 108,4 Milyar Dolarlık Teklif

    Paramount ve Skydance, Netflix'in 82,7 milyar…

    10/12/2025 02:42

    Oruç Tutma Tarzı Diyetler, İnsan Beyninde Dinamik Değişikliklere Yol Açıyor

    Aralıklı enerji kısıtlaması temelli bir diyet,…

    09/12/2025 19:41

    PUBG ve Inzoi Yönetmenleri Krafton’un Yapay Zeka Odaklı Kültürüne Dair İpuçları Sunuyor

    Oyun dünyasının önde gelen firması KRAFTON,…

    09/12/2025 19:23

    İlgini Çekebilir

    Dijital GüvenlikTeknolojiYapay Zeka

    Yapay Zekâ Metin Tabanlı Saldırılardan Gerçekten Korunabilir Mi?

    Microsoft, OpenAI ile birlikte geliştirdiği yapay zekâ destekli sohbet robotu Bing Chat'i piyasaya sürmesiyle kullanıcıların onu kırmak için yaratıcı yollar…

    7 dk okuma süresi
    BilimEditörün SeçimiSağlık

    Tükenmişlik Riski Altında Olduğunuzu Gösteren Bir Araç Geliştirildi!

    Şu an yedi ülkede yapılan bir çalışma ile iş yerlerinde tükenmişlik riski yüksek kişiler belirlenebilecek. Tıbbi bir durum olmayan bu…

    3 dk okuma süresi
    Yapay Zeka

    Deep Research Ücretsiz Erişime Açıldı!

    Yapay zeka destekli Deep Research artık ücretsiz! Saatler süren araştırmaları dakikalara indir, sesli özetlerle bilgiye hızlıca ulaş.Detayalar haberimizde... Deep Research’ün…

    3 dk okuma süresi
    Dijital GüvenlikEditörün SeçimiGoogle

    Google, Reklam Engelleyicileri Engellemeye mi Çalışıyor?

    Google’ın kullanıcı gizliliğini artırmaya yönelik getirdiği API değişiklikleri reklam engelleyicilere engel oluyor.

    2 dk okuma süresi
    Hoş geldiniz!

    Hesabınıza giriş yapın

    Username or Email Address
    Password

    Lost your password?

    Üye değil misin? kaydolmak