Google, Gemini AI’yi Geliştirmek İçin Anthropic’in Claude’unu Kullanıyor
TechCrunch’ın gördüğü iç yazışmalara göre, Google’ın Gemini AI’sını geliştirmek için çalışan yükleniciler, onun yanıtlarını Anthropic’in rakip modeli Claude tarafından üretilen çıktılarla karşılaştırıyor.
TechCrunch’ın yorum almak için ulaştığı Google, Gemini’ye karşı yapılan testlerde Claude’u kullanmak için izin alıp almadığını söylemedi.
Teknoloji şirketleri daha iyi yapay zeka modelleri geliştirmek için yarışırken, bu modellerin performansı sıklıkla rakiplerle karşılaştırılıyor; bunun için de yüklenicilerin rakiplerinin yapay zeka yanıtlarını titizlikle değerlendirmesi yerine , genellikle kendi modellerini sektör ölçütlerine göre çalıştırmaları gerekiyor.
Gemini üzerinde çalışan ve modelin çıktılarının doğruluğunu derecelendirmekle görevli yükleniciler, gördükleri her yanıtı doğruluk ve ayrıntı gibi birden fazla ölçüte göre puanlamalıdır. TechCrunch tarafından görülen yazışmaya göre, yüklenicilere Gemini’nin mi yoksa Claude’un mu yanıtının daha iyi olduğunu belirlemek için komut başına 30 dakikaya kadar süre verilir.
Yazışmalar, yüklenicilerin yakın zamanda Gemini’yi diğer isimsiz AI modelleriyle karşılaştırmak için kullandıkları dahili Google platformunda Anthropic’in Claude’una yapılan atıfları fark etmeye başladığını gösterdi. TechCrunch tarafından görülen Gemini yüklenicilerine sunulan çıktılardan en az birinde açıkça şöyle deniyordu: “Ben Claude’um, Anthropic tarafından yaratıldım.”
Dahili bir sohbette, müteahhitlerin Claude’un yanıtlarının Gemini’den daha fazla güvenliğe vurgu yapıyor gibi göründüğünü fark ettikleri görüldü. Bir müteahhit, “Claude’un güvenlik ayarları AI modelleri arasında en katı olanıdır” diye yazdı. Claude, belirli durumlarda, farklı bir AI asistanını canlandırmak gibi, güvenli olmadığını düşündüğü istemlere yanıt vermiyordu. Başka bir durumda, Claude bir istemi yanıtlamaktan kaçınırken, Gemini’nin yanıtı “çıplaklık ve esaret” içerdiği için “büyük bir güvenlik ihlali” olarak işaretlendi.
Anthropic’in ticari hizmet şartları, müşterilerin Anthropic’in onayı olmadan Claude’a “rekabet eden bir ürün veya hizmet oluşturmak” veya “rekabet eden AI modellerini eğitmek” için erişmesini yasaklıyor. Google, Anthropic’in büyük bir yatırımcısı .
Gemini’yi yöneten Google DeepMind’ın sözcüsü Shira McNamara, TechCrunch tarafından sorulduğunda, Google’ın Claude’a erişmek için Anthropic’in onayını alıp almadığını söylemedi. Yayınlanmadan önce ulaşıldığında, bir Anthropic sözcüsü basın saatine kadar yorum yapmadı.
McNamara, DeepMind’ın değerlendirmeler için “model çıktılarını karşılaştırdığını” ancak Gemini’yi Antropik modeller üzerinde eğitmediğini söyledi.
McNamara, “Elbette, standart endüstri uygulamalarına uygun olarak, bazı durumlarda değerlendirme sürecimizin bir parçası olarak model çıktılarını karşılaştırıyoruz,” dedi. “Ancak, Gemini’yi eğitmek için Antropik modeller kullandığımız yönündeki herhangi bir öneri yanlıştır.”
Geçtiğimiz hafta TechCrunch , şirketin AI ürünleri üzerinde çalışan Google yüklenicilerinin artık Gemini’nin AI yanıtlarını uzmanlık alanları dışındaki alanlarda derecelendirmek zorunda bırakıldığını özel olarak bildirdi. İç yazışmalarda yüklenicilerin Gemini’nin sağlık hizmetleri gibi son derece hassas konularda yanlış bilgi üretebileceği yönündeki endişeleri dile getirildi.
EN SON TV sitesinden daha fazla şey keşfedin
Subscribe to get the latest posts sent to your email.