AMD-spekulaatioketju (RDNA:n ja CDNA:n tulevat sukupolvet)

Huhusaiteilla on ollut juttuja, että Navi ei korjaisi juurikaan Vegan ongelmia ja korjaaja tulisi olemaan Navin jälkeinen uusi arkkitehtuuri. Samat huhupajat väittävät, että AMD olisi itsekin todennut Vegan / Navin taydeksi flopiksi tehon suhteen ja pistänyt kaikki paukut sen uuden arkkitehtuurin kehitykseen siinä toivossa, että siitä tulisi Ryzenin vastine grafiikkapuolelle. Jos noihin huhuihin on luottamista, niin AMD olisi nopeuskilpailussa kunnolla mukana 2020. Siihen asti tuotteet olisivat lähinnä eniten myyvää keskisarjaa.

Jos oletetaan, että nuo tiedot olisivat oikeita, niin Navi lienee pienemmällä viivanleveydellä ja muutamalla parannuksella tehty Vega. Tosin jos AMD saa painettua Navin hinnan riittävän alas, niin suurin osa pelaajakunnasta kiittää ja kumartaa.
No niinpä tietysti. Toivottavasti saisivat sellaisen helposti skaalattavan ja toimivan vehkeen jolla pikkupiireistä loihdittaisiin tehokkaita kortteja. Halpoja tuottaa ja kasa niitä riittäisi isompaankin tehonälkään. Noh ei tullut huonoon aikaan ostettua vegaa. Launch hinnalla ulkomailta oikein hyvä ostos. :)
 
No niinpä tietysti. Toivottavasti saisivat sellaisen helposti skaalattavan ja toimivan vehkeen jolla pikkupiireistä loihdittaisiin tehokkaita kortteja. Halpoja tuottaa ja kasa niitä riittäisi isompaankin tehonälkään. Noh ei tullut huonoon aikaan ostettua vegaa. Launch hinnalla ulkomailta oikein hyvä ostos. :)
Toisaalta kannattaa muistaa, että Ryzeniäkin pidettiin vielä alle 4kk ennen julkaisua toivottomana paskana joten ihmeitäkin joskus tapahtuu.
 
Huhusaiteilla on ollut juttuja, että Navi ei korjaisi juurikaan Vegan ongelmia ja korjaaja tulisi olemaan Navin jälkeinen uusi arkkitehtuuri. Samat huhupajat väittävät, että AMD olisi itsekin todennut Vegan / Navin taydeksi flopiksi tehon suhteen ja pistänyt kaikki paukut sen uuden arkkitehtuurin kehitykseen siinä toivossa, että siitä tulisi Ryzenin vastine grafiikkapuolelle. Jos noihin huhuihin on luottamista, niin AMD olisi nopeuskilpailussa kunnolla mukana 2020. Siihen asti tuotteet olisivat lähinnä eniten myyvää keskisarjaa.

Jos oletetaan, että nuo tiedot olisivat oikeita, niin Navi lienee pienemmällä viivanleveydellä ja muutamalla parannuksella tehty Vega. Tosin jos AMD saa painettua Navin hinnan riittävän alas, niin suurin osa pelaajakunnasta kiittää ja kumartaa.

Niin eli tekisivät atimaisen tempun malliin Vega = hd 2900xt -> Navi = hd 3870. Ja seuraavaksi leipoisivat jotain hd 4870:sen tyylistä ratkaisua. Ainoa vain että toisin kuin silloin kilpailija on paljon edellä perf/W rintamalla.
 
Niin eli tekisivät atimaisen tempun malliin Vega = hd 2900xt -> Navi = hd 3870. Ja seuraavaksi leipoisivat jotain hd 4870:sen tyylistä ratkaisua. Ainoa vain että toisin kuin silloin kilpailija on paljon edellä perf/W rintamalla.
Tuokin väite on vähän niin ja näin. AMD kortit ovat käsittääkseni hyvin kilpailukykyisia perf/W suhteen kun kelloja tiputtaa jonkin verran. Ongelmana niissä on ollut, että ne on kaikki jouduttu vetämään väkisin kellotaajuuksille joille rakenne ei enää kunoilla skaalaudu ja se pilaa tuon energiatehokkuuden.
 
Niin eli tekisivät atimaisen tempun malliin Vega = hd 2900xt -> Navi = hd 3870. Ja seuraavaksi leipoisivat jotain hd 4870:sen tyylistä ratkaisua. Ainoa vain että toisin kuin silloin kilpailija on paljon edellä perf/W rintamalla.
Paitsi jos säädät vegan voltit kohdilleen niin eipä olekkaan. Moni kuvittelee vegan olevan kauhea wattihirmu, mutta se johtuu vain vakioasetuksista. Huipputehot siitä kyllä puuttuu kunnon perf/w alueella, mutta pienemmällä jännitteellä se on oikein energiatehokas.
 
Tuokin väite on vähän niin ja näin. AMD kortit ovat käsittääkseni hyvin kilpailukykyisia perf/W suhteen kun kelloja tiputtaa jonkin verran. Ongelmana niissä on ollut, että ne on kaikki jouduttu vetämään väkisin kellotaajuuksille joille rakenne ei enää kunoilla skaalaudu ja se pilaa tuon energiatehokkuuden.

Vertaat niitä kelloja kilpailijaan, niin ei se ole ihan tuulesta temmattu. AMD tarvitsisi enemmän shadereitä->isomman piirin kuin nvidia, jotta kelloja pystyisi pitämään arkkitehtuurille optimaalisella tasolla. Toki die shrink tähän auttaa hetkellisesti, mutta saman tulee vääjäämättömästi tekemään myös nvidia.
 
Samat huhupajat väittävät, että AMD olisi itsekin todennut Vegan / Navin taydeksi flopiksi tehon suhteen ja pistänyt kaikki paukut sen uuden arkkitehtuurin kehitykseen siinä toivossa, että siitä tulisi Ryzenin vastine grafiikkapuolelle.

Niin no huhuja on kaikenmoisia.



Jos tuota testiä kattoo ja miettii hiukan niin tuskin Vega nyt kovin paskana voi pitää ja tuskin AMD itsekään sitä täysin paskana pitää. Jos se AMD:n mielestä olisi floppi niin tuskin pistäisivät paukkuja 7nm Vegaan yhtää vaan keskittyisivät tulevaan. Datacenter puolelle on kuitenkin 7nm Vega tulossa vielä tuossa syksyllä ilmeisesti.
 
Jos tuota testiä kattoo ja miettii hiukan niin tuskin Vega nyt kovin paskana voi pitää ja tuskin AMD itsekään sitä täysin paskana pitää. Jos se AMD:n mielestä olisi floppi niin tuskin pistäisivät paukkuja 7nm Vegaan yhtää vaan keskittyisivät tulevaan. Datacenter puolelle on kuitenkin 7nm Vega tulossa vielä tuossa syksyllä ilmeisesti.
Ei Vegaa kukaan käsittääkseni laskutehon perusteella ole paskana pitänytkään. Ongelmahan on ollut, että se teho ei pelatessa näy ruudulla. Jollen ihan väärin muista, niin AMD:lla on melkein aina ollut teoreettisen laskutehon puolesta nopeampi piiri kuin nVidialla. Sitä vaan ei ole saatu näkymään ruudulla samaan tapaan syystä tai toisesta.
 
AMD tarvitsee fp64 kortin pysyäkseen HPC rintamalla varteenotettavana vaihtoehtona. Ja kaikkien huhujen mukaan siihen se 7nm vega tuleekin panostamaan. Toki jossain slidessä oli myös puhetta koneoppimiseen tarkoitetusta raudasta eli mahdollisesti myös tensoreita tai jotain muuta vastaavaa rautaa sirussa tulee todennäköisesti olemaan. Uusimmissa ARM prossuissakin on jo koneoppimmiselle pyhitettyä rautaa mukana joten amd on vähän myöhässä omalla raudallaan(en laske täyttä fp16 tai int8 laskenta kykyä omaksi raudakseen).
 
Noiden Navi-huhujen takaa löytyy tosiaan vanha tuttu Fuad ja Fudzilla ;)
 
Tuokin väite on vähän niin ja näin. AMD kortit ovat käsittääkseni hyvin kilpailukykyisia perf/W suhteen kun kelloja tiputtaa jonkin verran. Ongelmana niissä on ollut, että ne on kaikki jouduttu vetämään väkisin kellotaajuuksille joille rakenne ei enää kunoilla skaalaudu ja se pilaa tuon energiatehokkuuden.
Tässä pitää huomioida se juttu, että jos alikellotat vegaa 10% ja pudotat voltteja niin alas kuin pystyt ja toteat piirin olevan energiatehokas, niin miten käy vertailun kun teet saman sille 1080ti:lle? 10% kelloja alas ja voltit myös minimiin...

Vega hyötyy alivoltituksesta, mutta niin hyötyy nvidiakin.

Se on tosiaan ongelma, että AMD on joutunut nostamaan nuo kortit aivan liian rajoille saadakseen niistä jotakuinkin kilpailukykyisiä suorituskyvyn osalta.
 
Tässä pitää huomioida se juttu, että jos alikellotat vegaa 10% ja pudotat voltteja niin alas kuin pystyt ja toteat piirin olevan energiatehokas, niin miten käy vertailun kun teet saman sille 1080ti:lle? 10% kelloja alas ja voltit myös minimiin...

Vega hyötyy alivoltituksesta, mutta niin hyötyy nvidiakin.

Se on tosiaan ongelma, että AMD on joutunut nostamaan nuo kortit aivan liian rajoille saadakseen niistä jotakuinkin kilpailukykyisiä suorituskyvyn osalta.
Kai se pointti oli juuri siinä että Vegat (kuten Polariksetkin) on jouduttu kellottamaan liian ylös, mikä söi perf/watt-suhteen, kun NVIDIA on voinut jättää omansa optimaaliselle alueelle
 
Lähinnä saisi tulla sellanen 1440p 144Hz+ tai 4K 60Hz+ kortti. Ei nämä vegat kovin pitkälle yli 1440p 60Hz riitä. Tietysti freesync näytön kanssa ei kauheasti tarvitsekaan.

Pitäisikö spekulaatioketjun nimeen lisätä Navi?
Oliko mitään tietoa siitä että voiko tuo olla ns. multi-chip mallinen gpu? Eli vähän kuin Threadripper/epyc mutta näyttiksillä? Eli tekisivät noita "pieniä" piirejä ja niitä sitten vierekkäin tehokkaampiin kortteihin. Johan tällaista huhuiltiin 1.5v sitten, mutta en ole sen jälkeen mitään kuullut.

Nuo usean piirin kortit eivät ole toimineet kunnolla sitten 3DFX:n. Ilmeisesti homman jakaminen pienempiin osiin on vain hankalaa ja siitä sitten seuraa kehnon suorituskyvyn lisäksi kaikenlaista tökkimistä, epätasaista frameratea, viivettä tai jakaminen ei vain onnistu, eikä ole crossfire ym tukia.. Ei siis kannata odotella ihmeitä tuollaisilta virityksiltä.
 
Nuo usean piirin kortit eivät ole toimineet kunnolla sitten 3DFX:n. Ilmeisesti homman jakaminen pienempiin osiin on vain hankalaa ja siitä sitten seuraa kehnon suorituskyvyn lisäksi kaikenlaista tökkimistä, epätasaista frameratea, viivettä tai jakaminen ei vain onnistu, eikä ole crossfire ym tukia.. Ei siis kannata odotella ihmeitä tuollaisilta virityksiltä.
Ajattelet asiaa liian yksinkertaisesti vain CF/SLI-kannalta, XB360:ssa esimerkiksi oli GPU jaettu kahteen piiriin ja se toimi vallan mainiosti
 
Nuo usean piirin kortit eivät ole toimineet kunnolla sitten 3DFX:n. Ilmeisesti homman jakaminen pienempiin osiin on vain hankalaa ja siitä sitten seuraa kehnon suorituskyvyn lisäksi kaikenlaista tökkimistä, epätasaista frameratea, viivettä tai jakaminen ei vain onnistu, eikä ole crossfire ym tukia.. Ei siis kannata odotella ihmeitä tuollaisilta virityksiltä.
Nythän tuo nvidian uusin kortti on nvlink2:lla kaks korttia yhessä ja omien sanojensa mukaan toimii yhtenä korttina, ei siis tarvi sli tukea sovelluksilta. Nyt vaan odottelemaan miten se toimii pelimaailmassa kun eivät maksakaan ku 8000$/kortti. Ei kovin monella testisaitilla ole mahdollisuuksia ostaa noita.
 
Nuo usean piirin kortit eivät ole toimineet kunnolla sitten 3DFX:n. Ilmeisesti homman jakaminen pienempiin osiin on vain hankalaa ja siitä sitten seuraa kehnon suorituskyvyn lisäksi kaikenlaista tökkimistä, epätasaista frameratea, viivettä tai jakaminen ei vain onnistu, eikä ole crossfire ym tukia.. Ei siis kannata odotella ihmeitä tuollaisilta virityksiltä.
No ei olekkaan. Nykytilasta on kuitenkin huono vetää johtopäätökdiä tulevaisuuteen. Ehkä jatkossa tämä fakta muuttuu ja tulee lisää näitä nvidian nvlink2 tyylisiä ratkaisuja. Ihmettelen suuresti jos 5v sisällä ei multi-chip-gpu:ta ilmesty. Enskä siis tarkoita sli/cf vaan oikeasti multi-chip, vähän kuten threadripper ja epyc. Useampi pienempi piiri on todella paljon halvempi valmistaa kuin samantehoinen single piiri.
 
Samalle interposerille useampien sirujen latominen mahdollistaa paljon korkeamman bandwidthin ja matalamman latenssin väyläratkaisut fyysisesti erillisten gpu:iden sijaan, joten se kyllä sinänsä on paljon parempi ratkaisu sli/cf verrattuna. Se voisi mahdollistaa eri gpu:uiden yhteisen muistin, joka käytännössä korjaisi kaikki sli:n ongelmat mahdollistaen tiled renderöinnin saman framen sisällä eri gpu:ille.

Riippuu myös aika paljon foundryn prosessista ja sen yieldeistä, että mikä on optimaalinen sirukoko ja on ihan mahdollista, että kustannussäästöt MCM:stä ovat niin pienet, että on parempi vaan tehdä GV100 kokoisia piirejä 4x Polaris 10:n yhteen pulttaamisen sijaan.

Yksi ongelma on todennäköisesti myös AMD:n rajoitettu rnd-budjetti, jota ei voi loputtomasti venyttää. Rahat on sijoitettava sinne, missä on helpointa luoda kilpailukykyisiä tuotteita...

En pidätä hengitystä multi-die mcm gpu:iden suhteen toistaiseksi. En vaan nykyisellään näe niiden ratkaisevan niitä onglemia, joita kummallakaan valmistajalla on.
 
Riippuu myös aika paljon foundryn prosessista ja sen yieldeistä, että mikä on optimaalinen sirukoko ja on ihan mahdollista, että kustannussäästöt MCM:stä ovat niin pienet, että on parempi vaan tehdä GV100 kokoisia piirejä 4x Polaris 10:n yhteen pulttaamisen sijaan.
Toki uusi prosessi on aina uusi prosessi, mutta sekä AMD:n että NVIDIA:n laskelmat pitävät MCM:ää edullisempana ratkaisuna, AMD:n Epycit myös varmistavat sen nykyisellä prosessilla.
 
Riippuu myös aika paljon foundryn prosessista ja sen yieldeistä, että mikä on optimaalinen sirukoko ja on ihan mahdollista, että kustannussäästöt MCM:stä ovat niin pienet, että on parempi vaan tehdä GV100 kokoisia piirejä 4x Polaris 10:n yhteen pulttaamisen sijaan.
Yleinen trendi on ollut että mitä pienemmäksi menee viivanleveys niin sitä enemmän virheitä per kiekko. Jos kiekosta tehdään isoja piirejä niin saannot sukeltaa todella pahasti. Siksi ne intelin huippupiiritkin on niin kalliita ja 10nm prosessi ollut vuosia ongelmissa. Paljon pieniä piirejä auttaa saantoihin todella paljon, eli vaikka se mcm lisälogiikka veisi 30% enemmän pinta-alaa niin se olisi silti kannattavaa.
 
Mahdolliset saanoista saatavat hyödyt uppoavat osin kalliimpaan paketointiin. Esim. Silicon interposer lisää core-kompleksin valmistuskustannuksia selvästi ja toisaalta esim. Epycin infinity fabric on aivan liian hidas kelvatakseen kahden tehokkaan gpu:n yhdistämiseen sellaisenaan.

Ainakin minulle on epäselvää, että pystyykö kahden gpu:n välille lätkimään satojen gigabittien siirron sekunnissa mahdollistavan väylän halvalla ja lisäksi myös se, että mitä sen ja numa-rakenteiden tuotekehitys maksaa. Moisen härdellin tekeminen softalle transparentiksi on ainakin nopeasti ajateltuna hankalaa ja jos tarvitaan erikseen tukea softalta, niin se on melkoinen urakka...

Nvidia ei ainakaan ole kainostellut GV100:sen valmistuksessa, vaan selkeästi tilannut niin isoa kuin valmistaja pystyy toimittamaan. Ja tämä TSMC:n uusimmalla prosessilla.

http://research.nvidia.com/sites/default/files/publications/ISCA_2017_MCMGPU.pdf

Jos nyt katsotaan tuota, niin Nvidia speksaa 4 isoa 64 SM:n gpu:ta samalle MCM packagelle ja jokaiselle niistä 768GB/s muistikaistan, sekä GPM:ien väliseksi muistikaistaksi myös 768GB/s.

Paperi puhuu orgaanisesta paketoinnista ja suurin syy miksi tuota halutaan on se, että lähtöoletuksena 256 SM:n piirin oletetaan olevan mahdoton rakentaa, koska se ei mahdu foundryn mahdollistaman 800mm2 sisään.

Ollaan nähdäkseni vielä kaukana siitä, että GV104:sta tai sen seuraajaa pilkottaisiin useampiin palasiin...

Itse en usko valmistuskustannusten sanelevan käytännössä mitään cpu- /gpu-busineksessa. Piirivendorit laskuttavat sen verran minkä pystyvät, eivätkä kustannustensa mukaan.

Jos kustannukset olisivat tärkein hinnoittelu-driveri, eivät Intelin ja Nvidian tuottoprosentit olisi niin korkeita kuin ne nyt ovat.
 
Nvidia ei ainakaan ole kainostellut GV100:sen valmistuksessa, vaan selkeästi tilannut niin isoa kuin valmistaja pystyy toimittamaan. Ja tämä TSMC:n uusimmalla prosessilla.
TSMC:n "12nm" on vähän viilailtu 16nm joka nimettiin uudelleen markkinatilanteen vuoksi (kilpailijoilla pienemmät numerot), ei voida siis puhua täysin uudesta prosessista.
 
Itse en usko valmistuskustannusten sanelevan käytännössä mitään cpu- /gpu-busineksessa. Piirivendorit laskuttavat sen verran minkä pystyvät, eivätkä kustannustensa mukaan.
Joo ei se pakosti ole ongelma että yhdestä piikiekosta saadaan 4 toimivaa piiriä, jos ne sitten myydään 8000€/kpl. Mutta kun niitä pitäisi saada tehtyä 10000kpl ja samalla laitoksella vielä paljon pieniäkin piirejä. Ei riitä kapasiteetti jos yli puolet heitetään rikkinäisinä roskiin.

Ja mitä itse ymmärtänyt niin nykyprosessit on vielä siinä vaiheessa että isot onnistuukin. Mitä pienemmäksi menee niin se virheiden määrä per piikiekko vain nousee. Johtuu myös siitä että noiden kiekkojen työvaiheiden määrä kasvaa kaiken aikaa. Eli virheiden määrä alkaa kumuloitua aika eksponentiaalisesti.

Jos siis joskus tulevaisuudessa halutaan hyötyä "uusimmasta 4nm" prosessista niin tarvitaan pieniä piirejä mitä sillä tehdään. Isoja ei saada kuin vasta pari vuotta myöhemmin. Esim, missä viipyi intelin 10nm? Miksi amd tekee 7nm kanssa ensin pienempiä piirejä eikä monsteria?
 
Joo ei se pakosti ole ongelma että yhdestä piikiekosta saadaan 4 toimivaa piiriä, jos ne sitten myydään 8000€/kpl. Mutta kun niitä pitäisi saada tehtyä 10000kpl ja samalla laitoksella vielä paljon pieniäkin piirejä. Ei riitä kapasiteetti jos yli puolet heitetään rikkinäisinä roskiin.
Pitäisi olla joku uskottava lähde defect densityistä, jotta olisi mahdollista arvioida yieldejä. Minulla ei sellaisia ole, joten en uskalla lähteä heittelemään mitään arvioita. Pienetkin erot defect density-lukemassa kun vaikuttavat valtavilla piireillä yieldeihin paljon.
 
Pitäisi olla joku uskottava lähde defect densityistä, jotta olisi mahdollista arvioida yieldejä. Minulla ei sellaisia ole, joten en uskalla lähteä heittelemään mitään arvioita. Pienetkin erot defect density-lukemassa kun vaikuttavat valtavilla piireillä yieldeihin paljon.
Eipä noita taida muut tietää kuin valmistajat. Mutulla siis mentävä.
Piirien koko on kuitenkin tiedossa sekä kiekon koko. Näistä voi jo tehdä laskureilla suuntaa-antavia laskelmia. Ongelma on juuri se että tuon defect densityn pitää olla todella pieni noille isoille piireille. Uusilla prosesseilla se ei käytännössä koskaan sitä ole.

 
Samalle interposerille useampien sirujen latominen mahdollistaa paljon korkeamman bandwidthin ja matalamman latenssin väyläratkaisut fyysisesti erillisten gpu:iden sijaan, joten se kyllä sinänsä on paljon parempi ratkaisu sli/cf verrattuna. Se voisi mahdollistaa eri gpu:uiden yhteisen muistin, joka käytännössä korjaisi kaikki sli:n ongelmat mahdollistaen tiled renderöinnin saman framen sisällä eri gpu:ille.

Riippuu myös aika paljon foundryn prosessista ja sen yieldeistä, että mikä on optimaalinen sirukoko ja on ihan mahdollista, että kustannussäästöt MCM:stä ovat niin pienet, että on parempi vaan tehdä GV100 kokoisia piirejä 4x Polaris 10:n yhteen pulttaamisen sijaan.

Yksi ongelma on todennäköisesti myös AMD:n rajoitettu rnd-budjetti, jota ei voi loputtomasti venyttää. Rahat on sijoitettava sinne, missä on helpointa luoda kilpailukykyisiä tuotteita...

En pidätä hengitystä multi-die mcm gpu:iden suhteen toistaiseksi. En vaan nykyisellään näe niiden ratkaisevan niitä onglemia, joita kummallakaan valmistajalla on.
Tosin jos useamman GPU:n käyttö yhdessä vaatii ohjelmallista tukea ja sitä ei ole, niin kuin SLI / CF tukea ei aina ole, niin niissä tuollainen monisirukokoelma kusee täysin, riippumatta siitä, miten nopealla väylällä ne sirut on yhdistetty..
......
Tietysti jos RAYtracing on erilainen kuorma, sitähän ei nyt vielä tiedä..
--------------------
Nythän tuo nvidian uusin kortti on nvlink2:lla kaks korttia yhessä ja omien sanojensa mukaan toimii yhtenä korttina, ei siis tarvi sli tukea sovelluksilta. Nyt vaan odottelemaan miten se toimii pelimaailmassa kun eivät maksakaan ku 8000$/kortti. Ei kovin monella testisaitilla ole mahdollisuuksia ostaa noita.
Tuo on valmistajan mainos, sitä ei kannata ottaa "suurena totuutena". Onko tuosta kolmannen osapuolen kattavia testejä?
 
Tosin jos useamman GPU:n käyttö yhdessä vaatii ohjelmallista tukea ja sitä ei ole, niin kuin SLI / CF tukea ei aina ole, niin niissä tuollainen monisirukokoelma kusee täysin, riippumatta siitä, miten nopealla väylällä ne sirut on yhdistetty..
......
Tietysti jos RAYtracing on erilainen kuorma, sitähän ei nyt vielä tiedä..
Oikeastaan ero on siinä että riittääkö että ajuri tukee sitä kaikkeen vai että vaatii myös sovelluksilta (peleiltä) tuen. Jos vaatii peleiltä tuen niin asian voi unohtaa. Jos taas Vulkan/DX12/rayTracing tosiaan mahdollistaisi toisenlaisen työnjaon jo ajureilla, voisi tuollainen multi-chip olla mahdollinen. Uusille valmistustekniikoille kun ei voida kovin nopeasti siirtyä isojen piirien kanssa, mutta pienillä piireillä voitaisiin, kuten video yllä selittää.
 
Oikeastaan ero on siinä että riittääkö että ajuri tukee sitä kaikkeen vai että vaatii myös sovelluksilta (peleiltä) tuen. Jos vaatii peleiltä tuen niin asian voi unohtaa. Jos taas Vulkan/DX12/rayTracing tosiaan mahdollistaisi toisenlaisen työnjaon jo ajureilla, voisi tuollainen multi-chip olla mahdollinen. Uusille valmistustekniikoille kun ei voida kovin nopeasti siirtyä isojen piirien kanssa, mutta pienillä piireillä voitaisiin, kuten video yllä selittää.
Olen sitä mieltä, että jossain vaiheessa multi-chip tulee olemaan se ainoa lähestymismuoto tehon kasvatukselle. Silloin piirit todennäköisesti suunnitellaan alusta asti multi-chip käyttöä varten ja koko paketti näkyy koneelle yhtenä valtavana piirinä ilman, että ajurit erikseen piilottaisivat eri piirejä käyttöjärjestelmältä. Tuotahan AMD:n isommat Zen pohjaiset prosessorit ovat jo nyt enemmän tai vähemmän.
 
Olen sitä mieltä, että jossain vaiheessa multi-chip tulee olemaan se ainoa lähestymismuoto tehon kasvatukselle. Silloin piirit todennäköisesti suunnitellaan alusta asti multi-chip käyttöä varten ja koko paketti näkyy koneelle yhtenä valtavana piirinä ilman, että ajurit erikseen piilottaisivat eri piirejä käyttöjärjestelmältä. Tuotahan AMD:n isommat Zen pohjaiset prosessorit ovat jo nyt enemmän tai vähemmän.

Siinä tulee se liitäntäväylä ja sen kaistarajoitteet vastaan.
 
Siinä tulee se liitäntäväylä ja sen kaistarajoitteet vastaan.
Onko ylipäänsä mahdollista tehdä yksittäistä prosessoria useammasta palasesta? Toki mittatarkkuus ja virhemarginaali vaikuttaa nyt utopistiselta, mutta tällä kierrettäisiin paljon muita kompastuskiviä. Edes jotenkin osittain lomittain piirien yhteenliittäminen kuulostaisi kyllä ihan mahdolliselta. Tyyliin, edelleen infinity fabric, mutta jotain osia fyysisistä prosessoreista olisi kiinni toisissaan. Eikös HBM2 ole jo fyysisesti kiinni ytimessään noissa vegoissakin?
 
Onko ylipäänsä mahdollista tehdä yksittäistä prosessoria useammasta palasesta? Toki mittatarkkuus ja virhemarginaali vaikuttaa nyt utopistiselta, mutta tällä kierrettäisiin paljon muita kompastuskiviä. Edes jotenkin osittain lomittain piirien yhteenliittäminen kuulostaisi kyllä ihan mahdolliselta. Tyyliin, edelleen infinity fabric, mutta jotain osia fyysisistä prosessoreista olisi kiinni toisissaan. Eikös HBM2 ole jo fyysisesti kiinni ytimessään noissa vegoissakin?
Mitähän tarkoitat tällä fyysisellä? HBMt on kyllä ihan sen alustan kautta kiinni, kuten zen ytimetkin.
 
Mitähän tarkoitat tällä fyysisellä? HBMt on kyllä ihan sen alustan kautta kiinni, kuten zen ytimetkin.
Siis sitä, että yksi fyysinen ydin koostuisi useammasta kuin yhdestä palasesta, jotka liitetään suoraan toisiinsa. Lähinnä pitäisin mahdollisena jonkin sortin vaiheittaista valmistamista, jossa yhden ison piirin kerralla valmistamisen sijaan voitaisiin piiri kasata vaiheittain, ikäänkuin lisäämällä moduleita. Toi nykyisten prosessien tarkkuus on jo sen verran hämmentävää, että jotenkin en ihmettelis, vaikka joku saisikin nastat osumaan toisiinsa.

Ja selvennyksenä vielä:
hypoteettinen tilanne
ei toimi nykyarkkitehtuurilla
ajatusleikki.
 
Siis sitä, että yksi fyysinen ydin koostuisi useammasta kuin yhdestä palasesta, jotka liitetään suoraan toisiinsa. Lähinnä pitäisin mahdollisena jonkin sortin vaiheittaista valmistamista, jossa yhden ison piirin kerralla valmistamisen sijaan voitaisiin piiri kasata vaiheittain, ikäänkuin lisäämällä moduleita. Toi nykyisten prosessien tarkkuus on jo sen verran hämmentävää, että jotenkin en ihmettelis, vaikka joku saisikin nastat osumaan toisiinsa.

Ja selvennyksenä vielä:
hypoteettinen tilanne
ei toimi nykyarkkitehtuurilla
ajatusleikki.
Vähän kuin HBM pinot?
 
Joo, Jotenkin vaan kuvittelin, että ne juttelis sivuttain prossulle, kun ovat kiinni ytimessä.
Tulipa sekin nyt selvitettyä sitten.
Siis HBM pinot on kasa muistilastuja päällekäin, mutta GPU:lle ne juttelee alustan kautta. Vegaa löytyy sekä "täytettyä" mallia että "täyttämätöntä". Eli onko HMB:n ja coren välillä tavaraa vai pelkkää ilmaa.
 
Uskon että laskentakäyttöön tullaan helpostikin näkemään multi-chip ratkaisuja, mutta ei pelikäyttöön. Laskennassa ei haittaa vaikka tulee pientä stutterointia yms. mikä toisaalta pilaa pelikokemuksen.
 
Uskon että laskentakäyttöön tullaan helpostikin näkemään multi-chip ratkaisuja, mutta ei pelikäyttöön. Laskennassa ei haittaa vaikka tulee pientä stutterointia yms. mikä toisaalta pilaa pelikokemuksen.

No sitten ei kannata hengitystä pidätellä että fps:t paljoa lähitulevaisuudessa nousisi. Volta on jo kokonsa puolesta ihan rajoilla ja on siksi todella kallis valmistaa joka on pitkälti se syy miksi nvidialla ei ole ollut mielenkiintoa voltaa pelikäyttöön tuoda.
Eiköhän se tulevaisuus myös pelipuolella ole MCM toteutuksessa, siitä pitää vaan tehdä toimiva.
 
No sitten ei kannata hengitystä pidätellä että fps:t paljoa lähitulevaisuudessa nousisi. Volta on jo kokonsa puolesta ihan rajoilla ja on siksi todella kallis valmistaa joka on pitkälti se syy miksi nvidialla ei ole ollut mielenkiintoa voltaa pelikäyttöön tuoda.
Eiköhän se tulevaisuus myös pelipuolella ole MCM toteutuksessa, siitä pitää vaan tehdä toimiva.

GTX1080Ti:lle ei ole kilpailijaa, joten Nvidian ei ole kannattanut tuoda markkinoille mitään uutta, joka syrjäyttäisi sen. Ei se koosta ole vielä kiinni.
 
On siksi että kun kiekolta saadaan 0-1 ehjää gputa alkaa hinta nousta. Volta on jo isompi kuin mitä tsmc edes oikeasti tekee.
Tarkoitat siis ilmeisesti V100 sirua?
Jos nyt puhutaan näyttiksistä, joista voidaan karsia turhat pois, niin ei tuo nyt niin äärettömän iso ole, vaikka onkin yksi isoimmista.
V100: 815mm2
P100: 610mm2
Edellinen Titan: 471mm2 (P100 karsittu?)

Jos tuosta olisi tehty peliGPU versio ja karsittu siitä siinä turha painolasti, niin varmaankin olisi oltu siinä 600mm2:n tietämissä huippupiirissä, jos menee vastaavasti..
Tosin, kun nyt ei ollut kilpailua, niin Nvidia taisi jättää ko piirin joko tekemättä kokonaan tai ainakaan tuotetta ei julkaistu, kun ei ollut tarvista.
---------------------
Sehän on osittain selkiö, että suunnitelmissa on ollut selkeästi dieshrinkin jälkeen tehtävä tuote, mutta viivanleveyden pienentäminen kun on törmännyt kaikilla ongelmiin (Jotka tosin ennustettiin jo varmaankin 10 vuotta sitten), niin se on sitten tehty edellisellä prosessilla..
 
Tarkoitat siis ilmeisesti V100 sirua?
Jos nyt puhutaan näyttiksistä, joista voidaan karsia turhat pois, niin ei tuo nyt niin äärettömän iso ole, vaikka onkin yksi isoimmista.
V100: 815mm2
P100: 610mm2
Edellinen Titan: 471mm2 (P100 karsittu?)

Jos tuosta olisi tehty peliGPU versio ja karsittu siitä siinä turha painolasti, niin varmaankin olisi oltu siinä 600mm2:n tietämissä huippupiirissä, jos menee vastaavasti..
Tosin, kun nyt ei ollut kilpailua, niin Nvidia taisi jättää ko piirin joko tekemättä kokonaan tai ainakaan tuotetta ei julkaistu, kun ei ollut tarvista.
---------------------
Sehän on osittain selkiö, että suunnitelmissa on ollut selkeästi dieshrinkin jälkeen tehtävä tuote, mutta viivanleveyden pienentäminen kun on törmännyt kaikilla ongelmiin (Jotka tosin ennustettiin jo varmaankin 10 vuotta sitten), niin se on sitten tehty edellisellä prosessilla..

Nvidia CEO, Jen-Hsun Huang, presented the GPU on stage calling it a masterpiece. I mean he would, wouldn’t he? But it sure is one hell of an engineering feat and has been created “at the limits of photolithography,” explains Huang, “meaning you can’t make a chip any bigger than this because the transistors would fall on the ground.

"To make one chip work per 12-inch wafer, I would characterise it as ‘unlikely.’ So the fact that this is manufacturable is an incredible feat.”

Aika paljon saa karsia, että sirusta tulee järkevästi tuotettavan kokoinen :D
 
Aika paljon saa karsia, että sirusta tulee järkevästi tuotettavan kokoinen :D

Eikäs Grafiikkapiiristä sinänsä voi mättää kankaalle tensoriyksiköt ja suurinosa laskentayksiköistä voi olla puolet kapempia.. Muistiohjainkin taitaa vaatia enemmän tilaa , kuin GDDR muistien kanssa.
esim GM200 (Esim980Ti) oli kuitenkin. 601mm2, joten ei se nyt niin ihmeellisen iso varmasti olisi.
 
Eikäs Grafiikkapiiristä sinänsä voi mättää kankaalle tensoriyksiköt ja suurinosa laskentayksiköistä voi olla puolet kapempia.. Muistiohjainkin taitaa vaatia enemmän tilaa , kuin GDDR muistien kanssa.
esim GM200 (Esim980Ti) oli kuitenkin. 601mm2, joten ei se nyt niin ihmeellisen iso varmasti olisi.
juurihan ne esitteli pelipuolelle tulevaisuuteen RTX:ää jossa jos ei suoraan käytetä tensor coreja niin ainakin niissä on lisänä A.I. based denoising joka käyttää.
 
juurihan ne esitteli pelipuolelle tulevaisuuteen RTX:ää jossa jos ei suoraan käytetä tensor coreja niin ainakin niissä on lisänä A.I. based denoising joka käyttää.

Njoo, voltassa nyt on kuitenkin eriytetty myös int32 ja fp32 yksikötkin, eli ne voivat toimia yhtäaikaa toisin kuin pascalilla. Toki tensoreilla homma hoituisi ripeämmin, mutta pystyykö niitä oikeasti käyttämään kyllin joustavasti(=piirtämään graffaa ja laskemaan yhtäaikaa). Käsittääkseni nuo A.I. denoiserit on treenattu valmiiksi(training, fp16) ja käytettäessä sitten vain käydään opittua kuvamateriaalia läpi(inference, int8).
 
Jotenkin hankala uskoa, että pelkkä prosessi oli vegassa ongelma, kun ovat uutisten perusteella päättäneet pitää uudella 7nm-prosessilla valmistetut kortit laskentakorttisegmentissä.

Laskentakorteissa varmaan maltillisemmat kellot joten myös tehonkulutus maltillisempi joka ei kuitenkaan merkittävästi vaikuta kortin laskentatehoon. Ja voi sitä Vegaa tulla myös kuluttajapuolelle myöhemmin kun saannot 7nm paranee, alkuun saannot on niin huonot että toimivista halutaan fyrkkaa ja laskentapuolella noista ollaan ilmeisesti valmiita maksamaan.
 
Njoo, no ei tämä ihan spekulointia ole, eikä tuo kbl-G:n gpu taida ihan täys vegakaan olla muulta kuin nimeltään. Mutta notebookcheck on nyt testannut Dell XPS 15 9575 2-in-1 läppärin. Kyseisessä läpsyssä on se heikoin kaby lake G prossu(i5-8305G). Nojoo form factori nostaa ton hinnan melko suolaiseksi eli $1500(eikä tuo xps nyt mikään varsinainen peliläpsytin ole koskaan ollutkaan). Mutta mielenkiintoinen joka tapauksessa.
 
GloFo veikkaisin kun se on korvamerkattu vegalle putkien putsaukseen niin eiköhän nää ole niitä putsauksen hedelmiä.

Jos GloFo:n 7nm on valmis, miksei Zen2:ta tehdä sillä jo nyt? On ollut pitkään tiedossa TSMC:n saavan ensin 7nm valmiiksi joten eiköhän Vegat tehdä (ainakin aluksi) sillä.
 
Jos GloFo:n 7nm on valmis, miksei Zen2:ta tehdä sillä jo nyt? On ollut pitkään tiedossa TSMC:n saavan ensin 7nm valmiiksi joten eiköhän Vegat tehdä (ainakin aluksi) sillä.
Vaikea tehdä, jos se ei ole valmis. AMD:llä ei ole ollut resursseja, joilla se olisi kyennyt tekemään sen valmiiksi jo nyt.
 

Statistiikka

Viestiketjuista
258 511
Viestejä
4 498 548
Jäsenet
74 216
Uusin jäsen
TTeuras

Hinta.fi

Back
Ylös Bottom