Tesla sai AI5-piirin valmiiksi

Kaotik

Banhammer
Ylläpidon jäsen
Liittynyt
14.10.2016
Viestejä
25 021
Tesla on saanut valmiiksi itse kehittämänsä AI5-piirin. AI5:n on tarkoitus pyörittää tekoälytehtäviä Teslan autoissa. AI5 on jatkoa aiemmin HW- eli Hardware-sarjana tunnetuille piireille.

Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.

Linkki: https://x.com/elonmusk/status/2044315118583066738


Elon Musk kiitti twiitissä piirin mahdollistamisesta sekä TSMC:tä että Samsungia, mikä selittyy sillä, että tiettävästi samaa piiriä tehdään kummankin valmistajan toimesta. Samsung valmistaa AI5-piirejä Texasissa ja TSMC Arizonassa. Muskin mukaan AI5-siru on noin puolet valmistusprosessin mahdollistamasta koosta (half the reticle size).

Itse AI5-piirin ohella samasta paketoinnista löytyy yhteensä 12 SK Hynixin muistipiiriä. TechPowerUpin mukaan ne olisivat LPDDR5X-piirejä, kun Tom's Hardware epäilee niiden olevan GDDR6- tai GDDR7-piirejä.
 
Viimeksi muokattu:
No ainakin Musk aikoo laittaa tosissaan lisää inferenssitehoa autoon jos vaihtaa tuollaiseen... Ei ole myöskään ihan halpa paketti.

Eikö noilla osanumeroilla muka löydy muistia suoraan jostain kuvastosta? Ovat kyllä sen verran muhjuisia että vaikea lukea tarkkaa koodia. Tämä tulee myös syömään sähköä ihan tosissaan.
 
Jos haluaisi yhtä järeän laskentakortin nvidialta, niin se maksaisi teslan auton verran. Mihin näitä olikaan tarkoitus oikein asennella?
 
Ovat kyllä sen verran muhjuisia että vaikea lukea tarkkaa koodia.
pino.png

Käsin asemoitu, mediaani-pinottu, Unsharp maskilla terävöity ja Camera Rawin Clarityllä photarissa selkeytetty kuva kahdeksasta terävimmästä piiristä. Sanoisin notta malli on D58GG6MK9Q? En löytänyt D58 sarjaan mitään viittausta, mutta H58GG6MK6GX037 olis LPDDR5-6400 12GB, että mahdollisesti sellaiselle sukua oleva? :comp:
 
pino.png

Käsin asemoitu, mediaani-pinottu, Unsharp maskilla terävöity ja Camera Rawin Clarityllä photarissa selkeytetty kuva kahdeksasta terävimmästä piiristä. Sanoisin notta malli on D58GG6MK9Q? En löytänyt D58 sarjaan mitään viittausta, mutta H58GG6MK6GX037 olis LPDDR5-6400 12GB, että mahdollisesti sellaiselle sukua oleva? :comp:
Gemini pro:n mielipide:

1776313620350.png
 
Jos haluaisi yhtä järeän laskentakortin nvidialta, niin se maksaisi teslan auton verran. Mihin näitä olikaan tarkoitus oikein asennella?
Ei voi verrata noin. Nvidia H100 on yleiskäyttöinen AI-Superpiiri eli erittäin monipuolinen monenlaiseen eri asiaan ja silti tehokkaasti vieläpä. Tesla AI5 on vain autopilot/FSD käyttöön eli aivan jumalattomasti yksinkertaisempi piiri. Kun tuo piiri on yhteen käytöttarkoitukseen niin sen optimointi on voitu myös tehdä ihan eri luokalla joka vaikuttanee paljon myös.
 
Ei voi verrata noin. Nvidia H100 on yleiskäyttöinen AI-Superpiiri eli erittäin monipuolinen monenlaiseen eri asiaan ja silti tehokkaasti vieläpä. Tesla AI5 on vain autopilot/FSD käyttöön eli aivan jumalattomasti yksinkertaisempi piiri. Kun tuo piiri on yhteen käytöttarkoitukseen niin sen optimointi on voitu myös tehdä ihan eri luokalla joka vaikuttanee paljon myös.
Mitä tarkoitat? Näitä on Musk ainaki twitterissä kehunut käytettävän vaikka missä.

Lisäksi se FSD homma on jotain tensor laskentaa siinä missä kaikki muukin tensor laskenta. Ilman todistusaineistoa on ihan humpuukia väittää että nämä tensor ytimet tietäisivät tekevänsä FSD laskentaa ja sen perusteella päättäisivät toimia nopeammin.
 
pino.png

Käsin asemoitu, mediaani-pinottu, Unsharp maskilla terävöity ja Camera Rawin Clarityllä photarissa selkeytetty kuva kahdeksasta terävimmästä piiristä. Sanoisin notta malli on D58GG6MK9Q? En löytänyt D58 sarjaan mitään viittausta, mutta H58GG6MK6GX037 olis LPDDR5-6400 12GB, että mahdollisesti sellaiselle sukua oleva? :comp:
Ennen stäkkäystäkin väittäisin että alkaa D:llä tai B:llä...
 
Tuleeko nämä nykyisten Ryzenien rinnalle vai niiden tilalle? Tesla on kyllä siitä mielenkiintoinen, että autossa on laskentatehoa enemmän, mitä monen tietokoneessa. Sinällään viisas ratkaisu, kun se mahdollistaa tulevat päivitykset ilman kompromisseja.
 
Mitä tarkoitat? Näitä on Musk ainaki twitterissä kehunut käytettävän vaikka missä.

Lisäksi se FSD homma on jotain tensor laskentaa siinä missä kaikki muukin tensor laskenta. Ilman todistusaineistoa on ihan humpuukia väittää että nämä tensor ytimet tietäisivät tekevänsä FSD laskentaa ja sen perusteella päättäisivät toimia nopeammin.
No erona vaikka se, että nvidian piiri tukee ~kaikkia laskentatarkuuksia vähintään jollain tavalla + sen muistiohjaimen tulee toimia hyvin kaikilla mahdollisilla käyttötavoilla jne.

Jos vaikka tesla on päättänyt optimoida inferenssin float8:lle tai float6:selle tai int4:lle, niin se on voinut suunnitella fyysisesti laskentayksiköt laskemaan vain oikean bittimäärin lukuja ja muistiohjaimet on voitu optimoida hakemaan juuri sopivat määrät dataa ja oikealla tahdilla jne. Nvidiassa on myös kaikenlaisia virtualisointi + tenant-isolation härdelleitä jne jotka ovat turhia tälläiselle tasan yhden käytön yhdessä autossa yhtä AI-mallia ajavalle piirille. Kaikkien turhien ominaisuuksien poisto säästää transistoreita ja mahdollistaa niiden käyttämisen vain siihen mitä tesla tarvitsee omassa käytössään.
--
Tälläinen täysin räätälöity piiri tarjoaa varmasti paremman energiahyötysuhteen + suorituskyvyn per transistori kun sillä ajetaan malleja joita varten se on erikseen optimoitu.
 
Tuleeko nämä nykyisten Ryzenien rinnalle vai niiden tilalle? Tesla on kyllä siitä mielenkiintoinen, että autossa on laskentatehoa enemmän, mitä monen tietokoneessa. Sinällään viisas ratkaisu, kun se mahdollistaa tulevat päivitykset ilman kompromisseja.
Ei kai, Ryzenithän on infotainment hommissa
 
Jos vaikka tesla on päättänyt optimoida inferenssin float8:lle tai float6:selle tai int4:lle, niin se on voinut suunnitella fyysisesti laskentayksiköt laskemaan vain oikean bittimäärin lukuja ja muistiohjaimet on voitu optimoida hakemaan juuri sopivat määrät dataa ja oikealla tahdilla jne.
Onko nämä teslan laskimet siis kykeneviä laskemaan vain jollain tarkkuudella? Vai onko kyse mutusta?
Nvidiassa on myös kaikenlaisia virtualisointi + tenant-isolation härdelleitä jne jotka ovat turhia tälläiselle tasan yhden käytön yhdessä autossa yhtä AI-mallia ajavalle piirille.
Nuo ovat häviävän pieni osa piiriä. Lisäksi tosiaan musk on twitterissä maininnut että näitä käytetään muuallakin kuin autoissa, ja että nämä eivät ole vaatimus FSD:lle vanhoissa autoissa.

Liekö tämä FSD AI-mallikaan valmis? Ja jos se kerran ei ole, niin miten jollekkin jota ei ole vielä olemassakaan voidaan mukamas tehdä optimoitu siru?
 
Kait nämä nyt robotteihin pääsääntöisesti ovat tulossa? Eikös se pitänyt olla se seuraava kultakaivos ja nämä kelpaavat autoihin vain fsd tilauksille korkeintaan.
 
Onko nämä teslan laskimet siis kykeneviä laskemaan vain jollain tarkkuudella? Vai onko kyse mutusta?

Nuo ovat häviävän pieni osa piiriä. Lisäksi tosiaan musk on twitterissä maininnut että näitä käytetään muuallakin kuin autoissa, ja että nämä eivät ole vaatimus FSD:lle vanhoissa autoissa.

Liekö tämä FSD AI-mallikaan valmis? Ja jos se kerran ei ole, niin miten jollekkin jota ei ole vielä olemassakaan voidaan mukamas tehdä optimoitu siru?

EI ole vain yhdelle vaan muutamaa valittua tarkkuutta (esim. INT8 + FP16 tyyppiset) mutta ei myöskään yhtä joustava kuin Nvidia joka tukee FP32, FP16, BF16, INT8, INT4 jne. koska tarkoitus nVidian piirissä on toimia kaikessa mahdollisessa.
Tarkkuus (precision) on yksi suurimmista suorituskykytekijöistä piireissä AI:ssa eikä todellakaan pieni osa saati häviävän pieniosa piiriä. Vaikuttaa suoraan esim. nopeuteen, virrankulutukseen, muistin käyttöön...

Vaikka malli ei ole täysin vlamis vielä niin ei Tesla tietämätön ole kun sillä on kuitenkin tärkeimmät eli neuroverkkotyypit, tensorikoot, datavirrat, kamerainputit, inference pipeline tiedossa ja rakenne tuon tiedon jälkeen pysyy melko samana loppuun.

Eri asia että Tesla käyttää piiriä myös training clusterissa ja inference servereissä verrattuna tosiaan tuohon nVidian käytännössä mihin vaan AI- hommaan.

Vanhemmat HW3 autot pyörittää FSD:tä mutta rajoitetummin.
 
Elon Musk on mainostanut, että teslan etu verrattuna nvidiaan/geneeriseen on, että he ovat suunnitelleet AI5 piirin juuri siihen mitä tarvivat ja kaikelle ylimääräiselle painettu deleteä. Ts. rauta suunniteltu&optimoitu teslan softapinon käyttöön. Tästä oli juttua viime syksynä. Google löytää, muskin twiitit missä oli tarkemmin kerrottu mille asioille painettu delete nappia, ylätason summarointi linkissä

Musk emphasized that Tesla’s focus on designing for a single customer gives it a massive advantage in simplicity and optimization. “NVIDIA… (has to) satisfy a large range of requirements from many customers. Tesla only has to satisfy one customer, Tesla,” he said. This, Musk stressed, allows Tesla to delete unnecessary complexity and deliver what could be the best performance per watt and per dollar in the industry once AI5 production scales

Ilmeisesti menossa robotteihin ja konesaleihin AI5 piiri aluksi. Autoihin myöhemmin.
1776335882026.png
 
Tarkkuus (precision) on yksi suurimmista suorituskykytekijöistä piireissä AI:ssa eikä todellakaan pieni osa saati häviävän pieniosa piiriä. Vaikuttaa suoraan esim. nopeuteen, virrankulutukseen, muistin käyttöön...
Taisit lukea väärin että mihin tuo tekstini viittasi.
EI ole vain yhdelle vaan muutamaa valittua tarkkuutta (esim. INT8 + FP16 tyyppiset) mutta ei myöskään yhtä joustava kuin Nvidia joka tukee FP32, FP16, BF16, INT8, INT4 jne. koska tarkoitus nVidian piirissä on toimia kaikessa mahdollisessa.
Mitkä on nämä valitut tarkkuudet ja saadaanko niillä tosiaan suurempi nopeus kuin nvidia + int4 tms?
Vaikka malli ei ole täysin vlamis vielä niin ei Tesla tietämätön ole kun sillä on kuitenkin tärkeimmät eli neuroverkkotyypit, tensorikoot, datavirrat, kamerainputit, inference pipeline tiedossa ja rakenne tuon tiedon jälkeen pysyy melko samana loppuun.
Onko noita mitään siis lyöty lukkoon siten että voitaisiin piiri mitoittaa hyvin lopulliseen malliin nähden?

Vaikea uskoa että olisi.
Eri asia että Tesla käyttää piiriä myös training clusterissa ja inference servereissä verrattuna tosiaan tuohon nVidian käytännössä mihin vaan AI- hommaan.
Luitko jo että mihin kaikkeen tuota oli kaavailtu? Miten kuvittelet että noin laajalla skaalalla tuotteita ja käyttökohteita saataisiin mitään etua siitä että tuote on viritetty nimenomaan vain tuohon käyttötarkoitusten osajoukkoon?
Vanhemmat HW3 autot pyörittää FSD:tä mutta rajoitetummin.
Ei pyöritä lainkaan, ainakaan vielä.
Kaistavahti (eli FSD supervised) taitaa toimia.
Elon Musk on mainostanut, että teslan etu verrattuna nvidiaan/geneeriseen on, että he ovat suunnitelleet AI5 piirin juuri siihen mitä tarvivat ja kaikelle ylimääräiselle painettu deleteä. Ts. rauta suunniteltu&optimoitu teslan softapinon käyttöön. Tästä oli juttua viime syksynä. Google löytää, muskin twiitit missä oli tarkemmin kerrottu mille asioille painettu delete nappia, ylätason summarointi linkissä



Ilmeisesti menossa robotteihin ja konesaleihin AI5 piiri aluksi. Autoihin myöhemmin.
1776335882026.png
Ilman lukuja nää Muskin hallusinaatiot on pelkkää hölynpölyä.
 
Taisit lukea väärin että mihin tuo tekstini viittasi.

Mitkä on nämä valitut tarkkuudet ja saadaanko niillä tosiaan suurempi nopeus kuin nvidia + int4 tms?

Tarkkoja formaatteja Tesla ei ole täysin julkistanut (varsinkaan AI5:stä), mutta aiemmista tiedetään suunta Tesla HW3/HW4 jossa pääpaino INT8 + osin FP16/FP32 ja uudemmissa todennäköisesti mukana myös alemmat tarkkuudet (INT4/FP8-tyyppiset). Koko datapolku on optimoitu juuri näille tarkkuuksille eism. muistiväylät juuri siihen bittileveyteen, välimuistit juuri oikeaan kokoon, laskentayksiköt ilman “turhaa yleislogiikkaa” joten voi olla nopeampi kuin Nvidia. Kyse ei ole siitä kuitenknaan lopulta tukeeko Nvidia samaa tarkkuutta vaan siitä että Teslalla koko arkkitehtuuri on rakennettu vain muutamalle tarkkuudelle ilman yleiskäyttöisen GPU:n overheadia.
Onko noita mitään siis lyöty lukkoon siten että voitaisiin piiri mitoittaa hyvin lopulliseen malliin nähden?

Vaikea uskoa että olisi.

Mallin yksityiskohdat muuttuvat mutta datavirta, tensorikoot ja latency-vaatimukset ovat tiedossa jo vuosia etukäteen. Piiri mitoitetaan niihin ei yksittäiseen malliversioon.
Luitko jo että mihin kaikkeen tuota oli kaavailtu? Miten kuvittelet että noin laajalla skaalalla tuotteita ja käyttökohteita saataisiin mitään etua siitä että tuote on viritetty nimenomaan vain tuohon käyttötarkoitusten osajoukkoon?

Käyttökohteita on useita mutta ne kaiki ajavat samaa Tesla AI -pipelinea joka ei ole yleiskäyttöinen AI-piiri kuten Nvidia vaan yhden ongelma-alueen piiri eri ympäristöissä.
Ei pyöritä lainkaan, ainakaan vielä.
Kaistavahti (eli FSD supervised) taitaa toimia.

Ilman lukuja nää Muskin hallusinaatiot on pelkkää hölynpölyä.

HW3 pyörittää nykyistä FSD supervised -versiota mutta uudemmat mallit ja kapasiteetti on selvästi suunnattu uudelle raudalle.


Eli siis Tesla ei yritä tehdä yleiskäyttöistä AI-piiriä kuten Nvidia vaan optimoida koko arkkitehtuurin yhdelle datavirralle ja muutamalle tarkkuudelle. Siksi se voi olla tehokkaampi siinä käytössä vaikka Nvidia tukee enemmän formaatteja. Mallia ei tarvitse tietää täysin valmiiksi koska laskennan rakenne ja datavirrat ovat jo tiedossa.
 
Tarkkoja formaatteja Tesla ei ole täysin julkistanut (varsinkaan AI5:stä), mutta aiemmista tiedetään suunta Tesla HW3/HW4 jossa pääpaino INT8 + osin FP16/FP32 ja uudemmissa todennäköisesti mukana myös alemmat tarkkuudet (INT4/FP8-tyyppiset). Koko datapolku on optimoitu juuri näille tarkkuuksille eism. muistiväylät juuri siihen bittileveyteen, välimuistit juuri oikeaan kokoon, laskentayksiköt ilman “turhaa yleislogiikkaa” joten voi olla nopeampi kuin Nvidia. Kyse ei ole siitä kuitenknaan lopulta tukeeko Nvidia samaa tarkkuutta vaan siitä että Teslalla koko arkkitehtuuri on rakennettu vain muutamalle tarkkuudelle ilman yleiskäyttöisen GPU:n overheadia.
Ja samalla sitten pakotetaan laskemaan korkeammalla tarkkuudella ja hitaammin kuin mitä vaikka nvidian korteilla voisi. Muutenkin vähän hassua vetää näitä HW 1-2-3-4 mukaan kun nämä laitteet ei väitetysti ole tulossa autoihin.
Mallin yksityiskohdat muuttuvat mutta datavirta, tensorikoot ja latency-vaatimukset ovat tiedossa jo vuosia etukäteen. Piiri mitoitetaan niihin ei yksittäiseen malliversioon.
Miten se tapahtuu? Mikä on latency-vaatimus (eli suomeksi varmaan maksimiviive?) grokin vastaukselle? Datavirratkin on varmaan suuri mysteeri, kun optimus robosta tuskin on edes ekaa tuotantomallia lyöty lukkoon raudan suhteen.

Mitä tarkoitat sillä että tensorikokovaatimus on ollut tiedossa jo vuosia? Tässä on 100% varmuudella maksimimäärä tensoreita mitä muskin riskinottokyky kestää ja sitten toivotaan että viiden vuoden päästä kehitetty malli toimii sillä lopulta riittävän nopeasti robotaxia tms. varten.
Käyttökohteita on useita mutta ne kaiki ajavat samaa Tesla AI -pipelinea joka ei ole yleiskäyttöinen AI-piiri kuten Nvidia vaan yhden ongelma-alueen piiri eri ympäristöissä.
Onko siellä datacenttereissäkin minne näitä pääasiallisesti varmaan laitetaan siis jotain autonomista ajelua? Vai onko joku grok samaa ongelma-aluetta kuin FSD?
HW3 pyörittää nykyistä FSD supervised -versiota mutta uudemmat mallit ja kapasiteetti on selvästi suunnattu uudelle raudalle.
Eli ei pyöritä FSD:tä. Kaistavahti toimii ok.
Eli siis Tesla ei yritä tehdä yleiskäyttöistä AI-piiriä kuten Nvidia vaan optimoida koko arkkitehtuurin yhdelle datavirralle ja muutamalle tarkkuudelle.
Mikä se datavirta on?!? Edelleen, nää ei ole tulossa autoihin muskin mukaan.
 
Viimeksi muokattu:
Ja samalla sitten pakotetaan laskemaan korkeammalla tarkkuudella ja hitaammin kuin mitä vaikka nvidian korteilla voisi. Muutenkin vähän hassua vetää näitä HW 1-2-3-4 mukaan kun nämä laitteet ei väitetysti ole tulossa autoihin.

Miten se tapahtuu? Mikä on latency-vaatimus (eli suomeksi varmaan maksimiviive?) grokin vastaukselle? Datavirratkin on varmaan suuri mysteeri, kun optimus robosta tuskin on edes ekaa tuotantomallia lyöty lukkoon raudan suhteen.

Latency-vaatimukset eivät ole mysteeri vaan ne tulevat suoraan ajamisesta. Kamera, päätös, ohjaus pitää tapahtua kymmenissä millisekunneissa muuten auto ei reagoi ajoissa. Tämä asettaa hyvin tiukan ylärajan koko pipelineen ja sitä vastaan arkkitehtuuri mitoitetaan. Datavirrat eivät myöskään ole tuntemattomia vaam kameramäärä, resoluutiot ja frame rate on tiedossa jo vuosia ennen tuotantoa joten muistikaistat ja bufferit voidaan mitoittaa niiden mukaan.
Mitä tarkoitat sillä että tensorikokovaatimus on ollut tiedossa jo vuosia? Tässä on 100% varmuudella maksimimäärä tensoreita mitä muskin riskinottokyky kestää ja sitten toivotaan että viiden vuoden päästä kehitetty malli toimii sillä lopulta riittävän nopeasti robotaxia tms. varten.

Tensorikokojen tarkat arvot muuttuvat mutta niiden suuruusluokka ei. Esim. kuvapohjaisesa mallissa feature mapien koot ja kerrosrakenteet pysyvät samantyyppisinä vaikka malli kehittyy. Piiri optimoidaan näille luokille eikä yksittäiselle malliversiolle.
Onko siellä datacenttereissäkin minne näitä pääasiallisesti varmaan laitetaan siis jotain autonomista ajelua? Vai onko joku grok samaa ongelma-aluetta kuin FSD?

Datacenterissäkin ajetaan pääosin samaa ongelmaa Tesla AI pipelinea. Se ei ole yleiskäyttöistä AI:ta kuten Nvidialla vaan samaa workloadia eri mittakaavassa.
Eli ei pyöritä FSD:tä. Kaistavahti toimii ok.

FSD supervised on juuri se nykyinen FSD-versio. Se ei ole täysi autonomia mutta se on sama pipeline rajoitetulla kapasiteetilla. HW3 pyöritää sitä mutta uudemmat mallit eivät enää mahdu siihen samalla tavalla.
Mikä se datavirta on?!? Edelleen, nää ei ole tulossa autoihin muskin mukaan.

Datavirrat eivät riipu siitä onko laite jo autossa. Kamerakonfiguraatio, resoluutio ja FPS on päätetty vuosia ennen tuotantoa koska koko auton suunnittelu perustuu niihin.

Summasummarun... Ajattelet tätä liian ohjelmistolähtöisesti. Piiriä ei optimoida valmiille mallille vaan datavirralle ja laskentaprofiilille jotka ovat paljon vakaampia kuin yksittäinen maliversio ja siksi optimointi toimii vaikka malli kehittyy.
 
Latency-vaatimukset eivät ole mysteeri vaan ne tulevat suoraan ajamisesta. Kamera, päätös, ohjaus pitää tapahtua kymmenissä millisekunneissa muuten auto ei reagoi ajoissa. Tämä asettaa hyvin tiukan ylärajan koko pipelineen ja sitä vastaan arkkitehtuuri mitoitetaan. Datavirrat eivät myöskään ole tuntemattomia vaam kameramäärä, resoluutiot ja frame rate on tiedossa jo vuosia ennen tuotantoa joten muistikaistat ja bufferit voidaan mitoittaa niiden mukaan.
Ja tämä olisi ihan loogista jos näiden käyttökohde olisi vaikka HW3 autojen päivittäminen. Käyttökohde vaan ei vaikuta olevan tälläinen tunnetun legacy laitteen päivittäminen, mitä olen jo yrittänyt selväsanaisesti täällä kirjoittaa.
Tensorikokojen tarkat arvot muuttuvat mutta niiden suuruusluokka ei. Esim. kuvapohjaisesa mallissa feature mapien koot ja kerrosrakenteet pysyvät samantyyppisinä vaikka malli kehittyy. Piiri optimoidaan näille luokille eikä yksittäiselle malliversiolle.
Mitä nyt yrität selittää? Että tälläinen monsteripiiri oltaisiin kaikilta osin optimoitu tekemään kuvantunnistusta jostain 30 fps HD-ready kamerasta? Ei moinen tarvitse juuri mitään suorituskykyä.

Piiri on iso koska sillä ajetaan jotain ihan muuta tuon rinnalla, jotain joka oikeasti vaatii laskentatehoa.
Datacenterissäkin ajetaan pääosin samaa ongelmaa Tesla AI pipelinea. Se ei ole yleiskäyttöistä AI:ta kuten Nvidialla vaan samaa workloadia eri mittakaavassa.
Mikä tämä workload siis on? Anna joku esimerkki.
FSD supervised on juuri se nykyinen FSD-versio. Se ei ole täysi autonomia mutta se on sama pipeline rajoitetulla kapasiteetilla.
Se ei ole FSD, vaan joku glorifioitu kaistavahti. Jos kaistavahti muuttuisi FSD:ksi "kapasiteettirajoitusta" vähentämällä niin se oltaisiin tehty jo. Miksi tälläinen kapasiteettirajoitus on tehty?
Datavirrat eivät riipu siitä onko laite jo autossa. Kamerakonfiguraatio, resoluutio ja FPS on päätetty vuosia ennen tuotantoa koska koko auton suunnittelu perustuu niihin.
Nämä ei edelleenkään ole tulossa autoihin t. musk.
Summasummarun... Ajattelet tätä liian ohjelmistolähtöisesti. Piiriä ei optimoida valmiille mallille vaan datavirralle ja laskentaprofiilille jotka ovat paljon vakaampia kuin yksittäinen maliversio ja siksi optimointi toimii vaikka malli kehittyy.
Tämä on ihan täyttä potaskaa. Vaikka leikittäisiin että tämä olisi autoihin tulossa, niin on kyllä aivan absurdia väittää että tämän piirin hyödyllisyys tuossa käytössä olisi jotenkin dramaattisesti parempi kuin jonkun toisen datavirtojen perusteella. Ne teslan 720p30Hz kamerat ei tarvitse kovin kummoisia resursseja. Laskentaprofiilin stabiliteetista ei varmasti ole näyttää myöskään yhtään mitään konkreettista.
 

Statistiikka

Viestiketjuista
305 271
Viestejä
5 168 852
Jäsenet
82 661
Uusin jäsen
ToniO

Hinta.fi

Back
Ylös Bottom