Nvidia CEO’su: Yapay Zeka Çipleri, Moore Yasası’nın Ötesinde Hızla Gelişiyor”
Nvidia CEO’su Jensen Huang, şirketinin yapay zeka çiplerinin performansının, onlarca yıldır bilgisayar gelişimini yönlendiren Moore Yasası’nın belirlediği tarihsel oranlardan daha hızlı ilerlediğini söylüyor.
Huang , Las Vegas’taki CES’te 10.000 kişilik bir kalabalığa açılış konuşmasını yaptıktan sonraki sabah TechCrunch’a verdiği röportajda, “Sistemlerimiz Moore Yasası’ndan çok daha hızlı ilerliyor” dedi .
Intel’in kurucu ortağı Gordon Moore tarafından 1965’te ortaya atılan Moore Yasası, bilgisayar çiplerindeki transistör sayısının her yıl kabaca iki katına çıkacağını ve bu çiplerin performansının esasen iki katına çıkacağını öngörmüştü. Bu öngörü çoğunlukla gerçekleşti ve on yıllar boyunca yeteneklerde hızlı ilerlemeler ve düşen maliyetler yarattı.
Son yıllarda Moore Yasası yavaşladı. Ancak Huang, Nvidia’nın AI çiplerinin kendi hızlarında ilerlediğini iddia ediyor; şirket, son veri merkezi süper çipinin önceki nesline göre AI çıkarım iş yüklerini çalıştırmak için 30 kat daha hızlı olduğunu söylüyor.
Huang, “Mimariyi, çipi, sistemi, kütüphaneleri ve algoritmaları aynı anda inşa edebiliriz,” dedi. “Bunu yaparsanız, Moore Yasası’ndan daha hızlı hareket edebilirsiniz, çünkü tüm yığında yenilik yapabilirsiniz.”
Nvidia CEO’sunun bu cesur iddiası, birçok kişinin AI’nın ilerlemesinin durup durmadığını sorguladığı bir zamanda geldi . Google, OpenAI ve Anthropic gibi önde gelen AI laboratuvarları, AI modellerini eğitmek ve çalıştırmak için Nvidia’nın AI çiplerini kullanıyor ve bu çiplerdeki ilerlemeler muhtemelen AI modeli yeteneklerinde daha fazla ilerlemeye dönüşecektir.
Huang’ın Nvidia’nın Moore yasasını aştığını öne sürmesi bu ilk sefer değil. Kasım ayındaki bir podcast’te Huang, yapay zeka dünyasının “aşırı Moore Yasası”na doğru ilerlediğini öne sürdü.
Huang, AI ilerlemesinin yavaşladığı fikrini reddediyor. Bunun yerine, şu anda üç aktif AI ölçekleme yasası olduğunu iddia ediyor: AI modellerinin büyük miktardaki verilerden kalıplar öğrendiği ilk eğitim aşaması olan ön eğitim; insan geri bildirimi gibi yöntemler kullanarak bir AI modelinin cevaplarını ince ayarlayan eğitim sonrası; ve çıkarım aşamasında gerçekleşen ve bir AI modeline her sorudan sonra “düşünmek” için daha fazla zaman veren test zamanı hesaplaması.
Huang, TechCrunch’a “Moore Yasası, bilişim tarihinde çok önemliydi çünkü bilişim maliyetlerini düşürdü,” dedi. “Aynı şey, performansı artırdığımız çıkarımda da olacak ve sonuç olarak çıkarımın maliyeti daha az olacak.”
(Elbette Nvidia, yapay zeka patlamasından yararlanarak dünyanın en değerli şirketi haline geldi , dolayısıyla Huang’ın bunu söylemesi işine geliyor.)
Yapay zeka modellerini eğitmek isteyen teknoloji şirketlerinin tercihi Nvidia’nın H100 çipleriydi ancak artık teknoloji şirketleri çıkarıma daha fazla odaklandığından, bazıları Nvidia’nın pahalı çiplerinin zirvede kalıp kalamayacağını sorguluyor.
Test zamanı hesaplama kullanan AI modelleri bugün çalıştırmak için pahalıdır. Test zamanı hesaplamanın ölçeklendirilmiş bir versiyonunu kullanan OpenAI’nin o3 modelinin çoğu insan için çok pahalı olacağı konusunda endişeler var. Örneğin, OpenAI genel zeka testinde insan seviyesinde puanlar elde etmek için o3 kullanarak görev başına yaklaşık 20 dolar harcadı . Bir ChatGPT Plus aboneliği bir aylık kullanım için 20 dolara mal oluyor.
Huang, Pazartesi günkü açılış konuşmasında Nvidia’nın en son veri merkezi süper çipi GB200 NVL72’yi bir kalkan gibi sahnede tuttu. Bu çip, Nvidia’nın önceki en çok satan çipleri H100’den 30 ila 40 kat daha hızlı AI çıkarım iş yüklerini çalıştırıyor. Huang, bu performans artışının, çıkarım aşamasında önemli miktarda hesaplama kullanan OpenAI’nin o3’ü gibi AI akıl yürütme modellerinin zamanla daha ucuz hale geleceği anlamına geldiğini söylüyor.
Huang, genel olarak daha performanslı çipler üretmeye odaklandığını ve daha performanslı çiplerin uzun vadede daha düşük fiyatlar yarattığını söylüyor.
Huang TechCrunch’a “Hem performans hem de maliyet uygunluğu açısından test zamanı hesaplaması için doğrudan ve acil çözüm, hesaplama kapasitemizi artırmaktır” dedi. Uzun vadede, AI akıl yürütme modellerinin AI modellerinin ön eğitimi ve eğitim sonrası için daha iyi veriler oluşturmak için kullanılabileceğini belirtti.
Geçtiğimiz yıl AI modellerinin fiyatının düştüğünü kesinlikle gördük, kısmen Nvidia gibi donanım şirketlerinin hesaplama atılımları nedeniyle. Huang, OpenAI’dan gördüğümüz ilk versiyonlar oldukça pahalı olsa da, AI akıl yürütme modellerinde bunun devam etmesini beklediğini söylüyor.
Daha geniş anlamda, Huang bugün AI çiplerinin 10 yıl önce yaptıklarından 1.000 kat daha iyi olduğunu iddia etti. Bu, Moore yasasının belirlediği standarttan çok daha hızlı bir hız, Huang’ın yakın zamanda durma belirtisi görmediğini söylediği bir hız.
EN SON TV sitesinden daha fazla şey keşfedin
Subscribe to get the latest posts sent to your email.