Yapay Zeka
8/1/2025
Nvidia CEO'su Jensen Huang, şirketinin yapay zeka çiplerinin performansının, onlarca yıldır bilgisayarların ilerlemesine yön veren Moore Yasası'nın belirlediği tarihsel oranlardan daha hızlı ilerlediğini söylüyor.
Huang, Salı günü Las Vegas'taki CES'te 10.000 kişilik bir kalabalığa yaptığı açılış konuşmasının ertesi sabahı TechCrunch'a verdiği röportajda “Sistemlerimiz Moore Yasası'ndan çok daha hızlı ilerliyor” dedi.
Intel'in kurucu ortağı Gordon Moore tarafından 1965 yılında ortaya atılan Moore Yasası, bilgisayar çiplerindeki transistör sayısının her yıl kabaca iki katına çıkacağını ve böylece bu çiplerin performansının da iki katına çıkacağını öngörüyordu. Bu öngörü çoğunlukla gerçekleşti ve onlarca yıl boyunca yeteneklerde hızlı ilerlemeler ve maliyetlerde düşüş yarattı.
Son yıllarda Moore Yasası yavaşladı. Ancak Huang, Nvidia'nın yapay zeka çiplerinin kendi hızlarında ilerlediğini iddia ediyor; şirket, en son veri merkezi süper çipinin yapay zeka çıkarım iş yüklerini çalıştırmak için önceki nesle göre 30 kattan daha hızlı olduğunu söylüyor.
Huang, “Mimariyi, çipi, sistemi, kütüphaneleri ve algoritmaları aynı anda oluşturabiliyoruz” dedi. “Bunu yaparsanız, Moore Yasası'ndan daha hızlı hareket edebilirsiniz, çünkü tüm yığın boyunca yenilik yapabilirsiniz.”
Nvidia'nın CEO'sunun bu cesur iddiası, birçok kişinin yapay zekanın ilerlemesinin durup durmadığını sorguladığı bir dönemde geldi. Google, OpenAI ve Anthropic gibi önde gelen YZ laboratuvarları, YZ modellerini eğitmek ve çalıştırmak için Nvidia'nın YZ çiplerini kullanıyor ve bu çiplerdeki ilerlemeler muhtemelen YZ model yeteneklerinde daha fazla ilerleme anlamına gelecektir.
Huang, Nvidia'nın Moore Yasasını aştığını ilk kez dile getirmiyor. Kasım ayındaki bir podcast yayınında Huang, yapay zeka dünyasının “hiper Moore Yasası” yolunda ilerlediğini öne sürmüştü.
Huang, YZ ilerlemesinin yavaşladığı fikrini reddediyor. Bunun yerine, şu anda üç aktif YZ ölçeklendirme yasası olduğunu iddia ediyor: YZ modellerinin büyük miktarda veriden kalıplar öğrendiği ilk eğitim aşaması olan ön eğitim; insan geri bildirimi gibi yöntemleri kullanarak bir YZ modelinin yanıtlarına ince ayar yapan eğitim sonrası; ve çıkarım aşamasında meydana gelen ve bir YZ modeline her sorudan sonra “düşünmesi” için daha fazla zaman veren test zamanı hesaplama.
Huang TechCrunch'a verdiği demeçte, “Moore Yasası bilgi işlem tarihinde çok önemliydi çünkü bilgi işlem maliyetlerini düşürdü,” dedi. “Aynı şey, performansı artırdığımız çıkarımda da gerçekleşecek ve sonuç olarak çıkarım maliyeti daha az olacak.”
Nvidia'nın H100'leri yapay zeka modellerini eğitmek isteyen teknoloji şirketlerinin tercih ettiği çiplerdi, ancak şimdi teknoloji şirketleri çıkarıma daha fazla odaklandığından, bazıları Nvidia'nın pahalı çiplerinin hala zirvede kalıp kalmayacağını sorguluyor.
Test zamanı hesaplama kullanan yapay zeka modellerini çalıştırmak günümüzde oldukça pahalı. OpenAI'nin test zamanlı hesaplamanın ölçeklendirilmiş bir versiyonunu kullanan o3 modelinin çoğu insanın kullanamayacağı kadar pahalı olacağına dair endişeler var. Örneğin OpenAI, bir genel zeka testinde insan düzeyinde puanlar elde etmek için o3 kullanarak görev başına yaklaşık 20 dolar harcadı. Bir ChatGPT Plus aboneliği, bir aylık kullanım için 20 dolara mal oluyor.
Huang, Pazartesi günkü açılış konuşması sırasında Nvidia'nın en yeni veri merkezi süper çipi GB200 NVL72'yi sahnede bir kalkan gibi tuttu. Bu çip, yapay zeka çıkarım iş yüklerini çalıştırmada Nvidia'nın bir önceki en çok satan çipi olan H100'den 30 ila 40 kat daha hızlı. Huang bu performans artışının, çıkarım aşamasında önemli miktarda işlem kullanan OpenAI'nin o3'ü gibi yapay zeka muhakeme modellerinin zaman içinde daha ucuz hale geleceği anlamına geldiğini söylüyor.