Pat Gelsinger: Koko ala haluaa eliminoida CUDA:n

  • Keskustelun aloittaja Keskustelun aloittaja Kaotik
  • Aloitettu Aloitettu

Kaotik

Banhammer
Ylläpidon jäsen
Liittynyt
14.10.2016
Viestejä
22 211
Intelin toimitusjohtaja Pat Gelsinger on ollut Nasdaqissa vastaamassa kysymyksiin yhtiön hiljattaisen prosessorijulkaisutilaisuuden yhteydessä.
Gelsingerin mukaan koko tekoälyala on motivoitunut poistamaan CUDA:n markkinoilta ja antoi esimerkeiksi MLIR:n, Googlen ja OpenAI:n, jotka ovat jo siirtymässä tekoälyn opetuksessakin Python-pohjaisiin malleihin, jotka eivät ole CUDA-riippuvaisia. Tekoälypäättelypuolella vastaavaa CUDA-riippuvuutta ei ole enää olemassakaan Gelsingerin mukaan.

Lähde: Intel CEO attacks Nvidia on AI: 'The entire industry is motivated to eliminate the CUDA market'
 
hiukan harhaanjohtava lause kun yksi pytorchin bäkkäreistä on juuri CUDA

Muutenkin, AMD:n ROCm tukee vaan muutamaa GPU:ta, kun CUDA-tukea on kymmenille GPU:ille. Sitten on tietenkin se CPU, mutta se ei pärjää nopeudessa noille.

--

Ja tästä saan varmaan huomautuksen, mutta:
My Anaconda don't want none , unless you got CUDA, hun.

(ja siis tästä on kysymys, jos moderaattorit eivät harrasta datanpyörittelyä/AI:ta)
 
Viimeksi muokattu:
Joku paremmin tietävä voi vastata, mitä se tarkoittaisi Nvidialle jos koko ala eliminoisi CUDAn?
 
Joku paremmin tietävä voi vastata, mitä se tarkoittaisi Nvidialle jos koko ala eliminoisi CUDAn?

Se on vaan toiveuni, mutta jos teoriassa toteutuisi, niin muut tekoälykiihdyttimet olisi kaikki samalla viivalla ja Nvidialla ei olisi minkäänlaista etulyöntiasemaa.
 
Se on vaan toiveuni, mutta jos teoriassa toteutuisi, niin muut tekoälykiihdyttimet olisi kaikki samalla viivalla ja Nvidialla ei olisi minkäänlaista etulyöntiasemaa.
Niin, siis olettaen, että ne olisivat muuten keskenään ominaisuuksiltaan yhtä toimivia ja yhtä suorituskykyisiä.. Eipä Intelin edustajalta sinänsä yhtään yllättävä ja varmasti kotiinpäin vedetty lausunto.
 
Kuolihan 3Dfx:n glide myös pois aikoinaan, vaikka vaihtoehdot eivät suorituskyvyltään pärjänneet. Avoimen standardin hyödyt menevät lopulta tehoedun edelle
 
Kai python on millä moni haluaa tehdä koodit. Pythonin alapuolelle tarvitaan kuitenkin matalamman tason rautaoptimoitua toteutusta(cuda,...) Nvidian rapids hyvä esimerkki tästä. Standardi python kirjastoja saadaan käytettyä gpu kiihdytettynä rapidsin avulla. CUDA tapa millä nvidia totettaa rautaoptimoidut algoritminsa korkeamman tason kielen alapuolelle.




Intelin tapauksessa aika huvittavaa tuo nillittäminen. Yhtälailla voisi itkeä x86 monopolista, mutta se lienee sitten ihan oma keskustelunsa.
 
hiukan harhaanjohtava lause kun yksi pytorchin bäkkäreistä on juuri CUDA
Miten ihmeessä se on harhaanjohtava? Siinä lukee ettei se ole riippuvainen CUDAsta, ei että se ei voisi hyödyntää myös CUDAa.
 
@Kaotik @finWeazel

Tässä siis pytorchin stackki:
1702995247271.png


Siellä on CUDA pohjalla, tai AMD:n huonosti tuettu ROCm, tai CPU. CUDA "vaan toimii" ja se on melkein oletus. Itse ainakin käsitin Julmurin kommentin näin.
(valittuna Linux, koska ROCm ei tue tällä hetkellä muuta)
 
@Kaotik @finWeazel

Tässä siis pytorchin stackki:
1702995247271.png


Siellä on CUDA pohjalla, tai AMD:n huonosti tuettu ROCm, tai CPU. CUDA "vaan toimii" ja se on melkein oletus. Itse ainakin käsitin Julmurin kommentin näin.
(valittuna Linux, koska ROCm ei tue tällä hetkellä muuta)
Huonosti tuettu? Lamini ainakin vaikuttaisi olevan toista mieltä (jatkuu tuosta twiitistä, ovat sitä mieltä että sellaisenaan ROCm on 90% maalista ja he on tuunannut omalta osaltaan viimeset 10%)

Tuosta kaaviosta puuttuu ainakin Intelin OpenVINO (ja kaikkien muiden AI-piirien omat setit)
 
Nvidia on kehitellyt CUDAa viimeiset 16v ja päässyt hyvän matkaa edelle kun muut vasta heräsivät sen jälkeen kuin AI:sta tuli oikeasti jotain.
 
Nvidia on kehitellyt CUDAa viimeiset 16v ja päässyt hyvän matkaa edelle kun muut vasta heräsivät sen jälkeen kuin AI:sta tuli oikeasti jotain.
No ei se ihan noin mennyt, CUDA on NVIDIAn rinnakkaislaskenta-alusta (ts GPGPU), vastaavia on ja on ollut muillakin vaikkei ne CUDA:n suosion tasolle olekaan päässeet.
Eikä CUDAa kehitetty mitenkään 16 vuotta sitten "tekoälyä ajatellen" vaan sen hetkisten grafiikkapiirien valjastamiseen yleislaskentaan.
 
Pitäisikö CUDA AI:n mahdollistavana rajapintana ajoittaa 2012 alex net julkaisuun tai ehkä ensimmäinen dgx-1 tietokoneen toimitus openai:lla 2016? CUDAanhan nvidia on satsannut jo ennen AI aikoja. Ensimmäinen nvidia gtc messu järjestettiin 2011. GTC messujen esitysten iso anti on opettaa porukkaa koodaamaan nvidian gpu:lle. Jonkin rajapinnan tarvii gpu:n ohjelmointiin oli se sitten cuda tai direct x tai jotain muuta.



 
Viimeksi muokattu:
Juurihan se halinaamakin julkisti AMD tuen instinctille vai mikä se oli, ja seuraavaksi oli Radeonit listalla. Toki järjestelmän näkökulmasta se kuvitteli siinä olevan CUDA.

Kyllä se sieltä hiljalleen tulee muitakin vaihtoehtoja, vaikka järjettömän heikkoa on ollut kyllä näillä AMD:llä ainakin kaikki nämä vuodet saada mitään aikaiseksi. Kilpailu ei olisi pahaksi.
 
Kyllä cuda+ ai:n näemmä voi ajoittaa 2008 vuodelle eli jonnekin 15 vuoden päähän
Nvidia’s VP of Applied Deep Learning Research, Bryan Catanzaro, issued a concise dismissal of Gelsinger’s assertions about Nvidia benefitting from simple luck.
I worked at Intel on Larrabee applications in 2007. Then I went to NVIDIA to work on ML in 2008. So I was there at both places at that time and I can say:NVIDIA's dominance didn't come from luck. It came from vision and execution. Which Intel lacked. https://t.co/ygUJZIQWLHDecember 20, 2023
Intel boss told attendees that Nvidia CEO Jensen Huang “got extraordinarily lucky.” He went on to lament Intel giving up the Larrabee project, which could have made Intel just as ‘lucky,’ in his view.
 

Statistiikka

Viestiketjut
253 821
Viestejä
4 411 037
Jäsenet
73 260
Uusin jäsen
Avaruuslapsi

Hinta.fi

Back
Ylös Bottom