Ubitium kehittää "universaalia" RISC-V-prosessoria

  • Keskustelun aloittaja Keskustelun aloittaja Kaotik
  • Aloitettu Aloitettu

Kaotik

Banhammer
Ylläpidon jäsen
Liittynyt
14.10.2016
Viestejä
22 621
Ubitiumin kehittämän arkkitehtuurin kerrotaan kykenevän hoitamaan niin prosessorin, GPU:n, DSP:n kuin FPGA:nkin tehtävät samoilla transistoreilla, ollen kuitenkin samalla selvästi pienempi, energiatehokkaampi ja selvästi halvempi, kuin perinteinen FPGA, joka periaatteessa voisi tehdä saman.
Ubitiumin toimitusjohtaja Hyun Shin Chon mukaan kyseessä ei ole mikään pieni parannus, vaan täysi ajattelutavan muutos prosessoreiden suunnittelussa ja olevan juuri sitä, mitä AI-aikakausi tarvitsee. Firman henkilöstöön kuuluu alan ammattilaisia, jotka ovat aiemmin työskennelleet mm. Intelillä, NVIDIAlla ja Texas Instrumentsilla.
Yhtiön universaalin prosessorin visioidaan olevan julkaisuvalmis vuonna 2026.

Lähde: Ubitium announces development of 'universal' processor that combines CPU, GPU, DSP, and FPGA functionalities – RISC-V powered chip slated to arrive in two years
 
Melko voimakkaasti haiskahtaa kusetukselle tai käytännössä ratkaisulle, jolla mikään ei toimi kovinkaan hyvin..
 
Melko voimakkaasti haiskahtaa kusetukselle tai käytännössä ratkaisulle, jolla mikään ei toimi kovinkaan hyvin..
Melkein näyttäis, että mennään enemmän spesialisoituihin laskentayksiköihin, ja perinteinen cpu generalistina toimii vain orkestroinnissa ja kevyeissä taskeissa.
 
Tässä oleellista on, että luvataanko että "tämä korvaa ja yhdistää sekä perinteisen CPUn että GPUn yleisesti kaikkialla" vai että "tämä tulee siihen väliin ja voi jossain määrin joissain sovelluksissa/erikoistietokoneissa korvata molempia, muttei yritä korvata molempia kaikkialla"

Ensimmäinen olisi ihan puhdasta huuhaata ja snake oilia, mutta jälkimmäinen on ihan mahdollista.

Joku Fujitsun A64FX/Fukagu oli jo vähän tällainen tieteellisen laskennan puolella, ajalla kun muut supertietokoneet meni siihen että niissä numeronmurskaus tehtiin GPUlla ja CPUt vaan ruokki GPUille dataa, Fujitsu teki supertietokoneen jossa CPUn SIMD-puolesta oli vaan tehty niin järeä että se pärjäsi GPUille tarpeeksi hyvin siinä raa'assa numeronmurskauksessa eikä erillistä GPUta numeronmurskaukseen tarvittu (mikä sitten auttoi säästämään mm. datansiirroissa ja ohjelmoinnin helppoudessa). Toki sitten A64FX-prossun kellotaajuus ja sen myötä haaraisen koodin kokonaislukusuorituskyky ei ollut niissä nopeampien CPUiden tasoa, mutta riittävän hyvä, että erillistä CPUta ei tarvittu.


Mutta, prossu on aina optimoitu jollekin. Jos halutaan maksimaalista suorituskykyä monimutkaista kontrollia sisältävillä kokonaislukukoodeilla, tarvitaan äärimmäisen hyvää haarautumisenennustusta(joka vaatii isot historiataulukot jotka vievät paljon tilaa), kohtalaisen suurta kellotaajuutta, ja järeää käskyjen uudelleenjärjestelyä, ja kohtalaista määrää rinnakkaisia laskentayksiköitä ja lataus-tallennusyksiköitä.

Tähtääminen suuriin kellotaajuuksiin kuitenkin tarkoittaa pitkää liukuhihnaa joka tarkoittaa huonoa energiatehokkuutta.

Maksimaalisen energiatehokas numeronmurskaus/DSP taas tarkoittaa matalaa kellotaajuutta, melko leveää SIMDiä, ja pienempää määrää käskytason rinnakkaisuutta.

Aina voidaan tehdä kompromissi näiden välistä, mutta siitä kärsii sitten sekä se kokonaislukusuorituskyky että se numeronmurskauksen energiatehokkuus.

Mutta jos se kompromissi mahdollistaa suuret säästöt datansiirtelyssä niin se voi olla sen arvoinen; Toisaalta datan siirtrly maksaa usein enemmän virtaa kuin itse laskenta, joten itse laskenta voi olla hiukan huonommalla energiatehokkuudella jos datansiirroissa säästetään enemmän.
 
Mitenköhän nää meinaa onnistua riittävän tehokkaan saamaan, kun Sony ei oikein onnistunut aikanaan PS3:sessa käytetyssä Cell-prossussa saamaan riittävän tehokasta eli sama piiri olisi hoitanut GPU/CPU hommat vaan GPU-osaaminen ostettiin Nvidialta?
 
Olisi isa:n perustuvassa gpussa omat hyödyt. Ei tarvitsisi kääntää shadereita asiakas koneella ja monimutkaiset vulkanit unohtaa. Ainaki compute shaderien osalta voisi isa olla mahdollinen
 
Mitenköhän nää meinaa onnistua riittävän tehokkaan saamaan, kun Sony ei oikein onnistunut aikanaan PS3:sessa käytetyssä Cell-prossussa saamaan riittävän tehokasta eli sama piiri olisi hoitanut GPU/CPU hommat vaan GPU-osaaminen ostettiin Nvidialta?
Sony ei kyllä minusta ole koskaan ollut gpu-spesialisti eli sen puolesta ei yllätä
 
Jos saisi halvempia FPGA korvikkeita, niin ehkä tuonne retro touhuiluun saisi edullisempia laitteita, esim. Mister projekti on Intelin DE10 FPGA devkitin takia aika kallis, tosin tähän oli tullutkin jo hintaa tiputtava versio. Mutta katsotaan mitä käärmeöljyä sieltä sitten saadaan vai tuleeko joku oikea tuote. :geek:
 
Kyselivät mielipidettä piiristä ja totesin ettei tule ikinä lunastamaan lupauksiaan. @hkultala tosin osoitti että ehkä siinä sitten kuitenkin on jotain sisältöä. Voi olla että kyseessä on joku ohjelmoitava liukuhihna ala TTA tai sitten on lueskeltu graafisuorittimien pelikirja. Pitää odottaa ja katsoa. 🦄 Kääntäjää tämäkin huutaa.
Taitaa olla ensimmäinen kerta ikinä kun RISC-V uutisessa mielipiteet menevät näin päin 😁
 
Mitenköhän nää meinaa onnistua riittävän tehokkaan saamaan, kun Sony ei oikein onnistunut aikanaan PS3:sessa käytetyssä Cell-prossussa saamaan riittävän tehokasta eli sama piiri olisi hoitanut GPU/CPU hommat vaan GPU-osaaminen ostettiin Nvidialta?
Siten, että tässä ei oikeasti olla tekemässä mitään pelinäyttistå vaan "näyttiksellä" tarkoitetaan massiivisen rinnakkaislaskennan prosessoria GPGPU-/tekoälykäyttöön.

Kilpailijaa AMDn CDNAlle, mutta ei RDNAlle.

Toki jonkinlainen graffanpiirtokin tällä onnistuu mutta sellaisessa hommassa suorituskyky on kaukana oikeasta näyttiksestä jossa mukana fixed funktion -rautaa z-testaukseen, teksturointiin yms.

PS3ssa taas nimenomaan sen peligrafiikan piti pyöriä nopeasti.
 

Statistiikka

Viestiketjuista
261 458
Viestejä
4 538 553
Jäsenet
74 800
Uusin jäsen
Eemu04

Hinta.fi

Back
Ylös Bottom