TechCrunch tarafından görülen şirket içi yazışmalara göre Google’ın Gemini yapay zekasını geliştirmek için çalışanlar, yanıtlarını Anthropic’in rakip modeli Claude tarafından üretilen çıktılarla karşılaştırıyor.
TechCrunch’ın yorum için ulaştığı Google, Gemini’ye karşı testlerde Claude’u kullanmak için izin alıp almadığını söylemedi.
Teknoloji şirketleri daha iyi yapay zeka modelleri oluşturmak için yarışırken, bu modellerin performansı genellikle rakiplere karşı değerlendirilir ve genellikle yüklenicilerin rakiplerinin yapay zeka yanıtlarını titizlikle değerlendirmesi yerine kendi modellerini endüstri karşılaştırmalarından geçirerek değerlendirilir.
Gemini üzerinde çalışan ve modelin çıktılarının doğruluğunu değerlendirmekle görevli yüklenicilerin, gördükleri her yanıtı doğruluk ve laf kalabalığı gibi birden fazla kritere göre puanlamaları gerekiyor. TechCrunch tarafından görülen yazışmaya göre, yüklenicilere kimin cevabının daha iyi olduğunu belirlemeleri için her bir istem başına 30 dakikaya kadar süre veriliyor.
Yazışmalar, yüklenicilerin son zamanlarda Gemini’yi diğer isimsiz yapay zeka modelleriyle karşılaştırmak için kullandıkları dahili Google platformunda Anthropic’in Claude’una atıfta bulunulduğunu fark etmeye başladıklarını gösteriyor. TechCrunch tarafından görülen Gemini yüklenicilerine sunulan çıktılardan en az birinde açıkça şu ifade yer alıyordu: “Ben Claude, Anthropic tarafından yaratıldım.”
Claude’nin güvenlik konusunda daha iyi olduğu açıklandı
Bir iç yazışmada yüklenicilerin Claude’un yanıtlarının Gemini’den daha fazla güvenliği vurguladığını fark ettikleri görülüyor. Bir yüklenici, yapay zeka modelleri arasında “Claude’un güvenlik ayarları en katı olanı” diye yazdı. Bazı durumlarda Claude, farklı bir yapay zeka asistanının rolünü oynamak gibi güvenli olmadığını düşündüğü istemlere yanıt vermiyordu. Bir diğerinde Claude bir soruyu yanıtlamaktan kaçınırken, Gemini’nin yanıtı “çıplaklık ve bağımlılık” içerdiği için “büyük bir güvenlik ihlali” olarak işaretlendi.
Anthropic’in ticari hizmet koşulları, müşterilerin Claude’a “rakip bir ürün veya hizmet oluşturmak” veya Anthropic’in onayı olmadan “rakip yapay zeka modellerini eğitmek” için erişmesini yasaklıyor. Google, Anthropic’in önemli yatırımcılarından biri.
Gemini’yi işleten Google DeepMind’ın sözcüsü Shira McNamara, TechCrunch tarafından sorulduğunda Google’ın Claude’a erişmek için Anthropic’in onayını alıp almadığını söylemedi. Yayından önce ulaşılan bir Anthropic sözcüsü ise basın saatine kadar yorum yapmadı.
McNamara, DeepMind’ın değerlendirmeler için “model çıktılarını karşılaştırdığını” ancak Gemini’yi Anthropic modelleri üzerinde eğitmediğini söyledi.
McNamara, “Elbette, standart endüstri uygulamaları doğrultusunda, bazı durumlarda değerlendirme sürecimizin bir parçası olarak model çıktılarını karşılaştırıyoruz.” dedi. “Ancak Gemini’yi eğitmek için Anthropic modellerini kullandığımız yönündeki iddialar doğru değildir.”
Geçtiğimiz hafta TechCrunch, şirketin yapay zeka ürünleri üzerinde çalışan Google yüklenicilerinin, uzmanlıkları dışındaki alanlarda Gemini’nin yapay zeka yanıtlarını değerlendirmek zorunda bırakıldığını özel olarak bildirdi. Şirket içi yazışmalarda, yüklenicilerin Gemini’nin sağlık hizmetleri gibi son derece hassas konularda yanlış bilgiler üretebileceğine dair endişeleri dile getirildi.
Derleyen: Rüya Uzun