Virallinen: NVIDIA vs AMD (vs Intel) keskustelu- ja väittelyketju

  • Keskustelun aloittaja Keskustelun aloittaja Sampsa
  • Aloitettu Aloitettu
Kuiske kuuluu että nvidia on ajanut cryptoboomi miinaan ja joku/jotkin AIB valmistajat on palauttanu 300000 piiriä nvidialle.
Varmaan yksi syy miksei uutta olla tuotu markkinoille, veikkaan että se on nvidian intresseissä koittaa päästä noista ensin eroon.
Palauttanut, onko nvidian piireissä jotain vikaa? Ellei niin tilattujen piirien myyminen on AIB valmistajien ongelma.
 
Eiköhän tästä kohta hyvät väännöt saada kun nähdään vihreiden korttien uusi kattaus. Ihan kiva olisi toki jos punaiseltakin tulisi jotain, mutta hiljaista taitaa olla. Nähtäväksi jää kuinka törkeästi vihreä tämän varjolla rahastaa, toivottavasti hinnat pysyy kurissa.
 
Ellei niin tilattujen piirien myyminen on AIB valmistajien ongelma.

Riippuu ihan sopimuksesta, voi olla mahdollista palauttaa tai sitten ei.

Niin tai näin, 300000 piiriä on sen verran paljon, että tuollaisen määrän alaskirjaaminen saattaisi heittää pienemmän AIB:in aika pahaan kuseen, niin voi olla nvidian intresseissä joustaa ja ottaa ne piirit takaisin.
 
Vaikea sanoa mitä noiden piirien kanssa on tapahtunut ja kuinka paikkansa pitävä tuo huhu on. Varmasti taustalla on kuitenkin sopimuksia ja niissä varmasti kaikenlaisia pykäliä joissa esim. palautuksien ehdot on määritelty. En pitäisi mitenkään mahdottomana jos vaikka siellä olisi mainittuna, että edellisen generaation piirejä saa palauttaa mikäli uudemman generaation piirejä otetaan tilalle jne.

Tai voihan se olla niinkin että GPP kikkailun hyvityksenä niitä otetaan takaisin ja korvataan uudemmilla piireillä, kun siihen kuitenkin monet valmistajat laittoivat paukkuja turhan takia. Tuskin siitä ihan puhtain paperein selvisivät niidenkään valmistajien toimesta ketkä lähtivät mukaan loppujen lopuksi.
 
Tunteja tuota closed alphaa tahkonneena täytyy sanoa, että nyt on kyllä liaan aikaista mitään suorituskykyä tuolla testata suuntaan taikka toiseen. Sama kuin testaisi lambo vastaan ferrari kilometrin pätkällä hiekkarantaa:D
 
Sama kuin testaisi lambo vastaan ferrari kilometrin pätkällä hiekkarantaa:D
b62aaf8d5940121362bffd72072d46cc.jpg
 
Siirretty muualta tänne oikeaan säikeeseen

Otan toisen näkökannan asiaan, eli valmistustekniikan vaihdolla saadun parannuksen.

GTX580 vs GTX680. GTX680 uudisti arkkitehtuuria jossakin määrin ja samalla vaihtui valmistustekniikka 40nm tekniikasta 28 nm tekniikkaan. Eli: arkkitehtuuria kehitettiin ja siirryttiin "seuraavaan" valmistustekniikkaan.

GTX980Ti vs GTX1080. GTX1080 uudisti arkkitehtuuria hyvin vähän, voidaan laittaa sen painoarvo lähelle nollaa. Hieman kärjistäen arkkitehtuurin vaikutus on olematon joten kaikki parannus tulee valmistustekniikasta.

Ensinnäkin:

Parannus mihin?

Parempi valmistustekniikka mahdollistaa

1) Arkkitehtuurin jossa on enemmän logiikkaa
2) Suuremmat kellotaajuudet.
3) Pienemmän sähkönkulutuksen.

Sama logiikka samalla kellotaajuudella on tasan yhtä nopea valmistustekniikasta riippumatta.


Toisekseen:


"Uudisti arkkitehtuuria hyvin vähän" ei oikeasti ollutkaan niin vähän: Prosessoriytimien rekisterimäärät tuplattiin, ja ilmeisesti myös jaetun muistin määrä/säie suureni selvästi, Ja kunnollinen rautatuki kuuluisalle "asynchronous compute"lle lisättiin.

Ja framepuskurinpakkausta parannettiin selvästi, mikä tarkoittaa muistikaistansäästöä, millä on selvä vaikutus pelisuorituskykyyn, kun muistikaista tulee vähemmän pullonkaulaksi.

Koska GTX980Ti-GTX1080 parannus oli karkeasti sanoen kaksi kertaa suurempi (annetaan painoarvoa sillekin ettei arkkitehtuuria uusittu) kuin GTX580-GTX680

Eikä ollut.

Sotket nyt GTX980 -> GTX1080 tai GTX980ti -> GTX1080ti -parannukseen.

GTX980 ja GTX980Ti ovat täysin eri piirit.

GTX1080 ja GTX1080Ti ovat myös täysin eri piirit.

Ja sitä arkktitehtuuria muutettiin selvästi maxwellista pascaliin.

ja parannus johtui käytännössä yksinomaan valmistustekniikan paranemisesta, voidaan todeta muutoksen karkeasti vastanneen yhden valmistustekniikan ylihyppäämistä.

Eikä voida.

Valmistustekniikan vaihtaminen "seuraavaan" tarkoittaa käytännössä normaalisti energiatehokkuuden (melkein) tuplautumista.

Yhden valmistustekniikan "skippaaminen" tarkoittaisi siis energiatehokkuuden nelinkertaistumista, ja energiatehokkuus ei lähellekään nelinkertaistunut näiden piirien välillä, se ei edes tuplaantunut.

Vaikka se absoluuttisesti valmistustekniikoita tarkastelemalla ei menisikään tarkalleen noin, niin käytännössä parannus vastaa yhden valmistustekniikan ylihyppyä.

Eikä vastaa. Kaikki tekniset luvut mitä niistä prosesseista ja niiden suorituskyvystä tiedetään sanoo, että "28nm" -> "16nm" vastaa nimenomaan normaalia yhtä prosessisukupolvea.

Siitä kertoo myös karkeat aikataulut:

40nm joulukuu 2009, 28nm maaliskuu 2012, väliä vähän yli 2 vuotta.

28nm maaliskuu 2012, 16nm toukokuu 2016, väliä hieman vajaat 4 vuotta.

Eli myös aikataulujen suhteen 16nm vastaa yhden valmistustekniikan hyppäämistä yli.

Tämä kertoo siitä, kuinka valmistustekniikoiden kehitys on hidastunut, kun se on käynyt yhä vaikeammaksi kun fysiikan rajat alkaa enenevissä määrin tulla vastaan.

Ja kertoo myös siitä, että kun TSMC mokasi 20nm prosessinsa kanssa kun alunperin kehitti en ilman FinFETiä tai SOIta, meni sitten ylimääräistä aikaa sen korjaamisen.

Eli: on melko turha odottaa seuraavan GeForcen vetävän samanlaista hyppyä kuin GTX1080 teki GTX980Ti:ta vastaan ellei arkkitehtuuripuolella ole tehty ihmeitä.

Hyppy noiden välillä oli pieni, helposti saadaan paljon suurempi.

nVidialla on jo olemassa GV100/Titan V, joka on iso ja kallis piiri. Ja sen suorituskykyero jopa 1080 Ti:hin on paljon suurempi kuin 980 ti:n ja 1080:n ero.


Jättämällä tensoriytimet pois ja valmistamalla sen "10nm" tai "7nm" valmistustekniikalla se menisi oikein inhimilliseen tilaan ja olisi selvästi halvempi valmistaa, voitaisiiin julkaista GTX2080-nimellä kuluttajille.


Rajoittavaksi tekijäksi voisi tulla lähinnä muistikaista - HBM2lla sitä saisi varmasti tarpeeksi lisää, mutta se on kallista. GDDR6 on kuitenkin tulossa, ja 384-bittinen GDDR6-muisti tarjoisi jo yli tuplasti kaistaa 1080een nähden, ja jo 256-bittiselläkin GDDR6lla kaistaa voisi olla riittävästi
 
Viimeksi muokattu:
Ensinnäkin:

Parannus mihin?

Parempi valmistustekniikka mahdollistaa

1) Arkkitehtuurin jossa on enemmän logiikkaa
2) Suuremmat kellotaajuudet.
3) Pienemmän sähkönkulutuksen.

Sama logiikka samalla kellotaajuudella on tasan yhtä nopea valmistustekniikasta riippumatta.


Toisekseen:


"Uudisti arkkitehtuuria hyvin vähän" ei oikeasti ollutkaan niin vähän: Prosessoriytimien rekisterimäärät tuplattiin, ja ilmeisesti myös jaetun muistin määrä/säie suureni selvästi, Ja kunnollinen rautatuki kuuluisalle "asynchronous compute"lle lisättiin.

Ja framepuskurinpakkausta parannettiin selvästi, mikä tarkoittaa muistikaistansäästöä, millä on selvä vaikutus pelisuorituskykyyn, kun muistikaista tulee vähemmän pullonkaulaksi.

Parannus siihen nopeuteen joka saatiin julkaisuvaiheessa käyttämällä valmistustekniikan antamat edut vs edellinen huippumalli.

Arkkitehtuuria uusittiin hyvin vähän väite pitää mainiosti paikkaansa. Samoilla kellotaajuuksilla Pascal oli julkaisuhetkellä käytännössä yhtä nopea kuin Maxwell kun otetiin käytännössä vastaavat piirit vertailuun. Muistikaistan vaatimusten väheneminen vaikuttaa enemmän siihen kuinka heikkoa muistia voidaan käyttää jotta saadaan sama suorituskyky. Ei käytännössä vaikuta valmistustekniikan tuomiin hyötyihin.

Koska käytännön suorituskyky on hyvin lähelle 1:1 samoilla kellotaajuuksilla, voidaan väitettä "arkkitehtuuri muuttui hyvin vähän" pitää tässä yhteydessä (edellinen huippumalli vs julkaisun paras malli) täysin perusteltuna.

Eikä ollut.

Sotket nyt GTX980 -> GTX1080 tai GTX980ti -> GTX1080ti -parannukseen.

GTX980 ja GTX980Ti ovat täysin eri piirit.

GTX1080 ja GTX1080Ti ovat myös täysin eri piirit.

Ja sitä arkktitehtuuria muutettiin selvästi maxwellista pascaliin.

Tässä verrattiin edellinen huippumalli vs julkaisun paras. GTX1080 Ti julkaistiin melkein vuosi myöhemmin kuin GTX1080. Valmistustekniikka paranee ajan kanssa ja samalla parempien piirien julkaisu muuttu järkevämmäksi. Alunperin vertailu oli GTX1080Ti vs tuleva GTX2xxx huippumalli julkaisussa, ei GTX1080Ti vs joku GTX2xxx joka julkaistaan vuosi sen jälkeen kun ensimmäinen GTX2xxx huippumalli on julkaistu. Samaten jos suorituskyky samalla kellotaajuudella on vastaavalla piirillä julkaisussa lähelle 1:1, arkkitehtuuria ei ole muutettu merkittävästi ellei se sitten näy esim. selkeästi pienempänä virrankulutuksena.

Eikä voida.

Valmistustekniikan vaihtaminen "seuraavaan" tarkoittaa käytännössä normaalisti energiatehokkuuden (melkein) tuplautumista.

Yhden valmistustekniikan "skippaaminen" tarkoittaisi siis energiatehokkuuden nelinkertaistumista, ja energiatehokkuus ei lähellekään nelinkertaistunut näiden piirien välillä, se ei edes tuplaantunut.

Millaisilla piireillä? Kun verrataan Intelin puolelta 32nm vs 22 nm, performance per watt on pientä jännitettä käyttävissä piireissä parantunut huimasti. Kun katsotaan mitä tapahtuu kun jännitettä nostetaan desktop prosessorien jännitteiden tasolle, parannus on lähellä nollaa. Performance per watt mittaria on huono käyttää koska se riippuu lähes täysin siitä mitä valmistetaan ja mihin kategoriaan.

Eikä vastaa. Kaikki tekniset luvut mitä niistä prosesseista ja niiden suorituskyvystä tiedetään sanoo, että "28nm" -> "16nm" vastaa nimenomaan normaalia yhtä prosessisukupolvea.

Niillä teknisillä luvuilla ei ole mitään väliä kun katsotaan mitä saadaan aikaan käytännön tapauksessa. Huomioiden arkkitehtuurin aiheuttamien parannusten olevan käytännössä nolla, GTX980Ti vs GTX1080 tapauksessa voidaan puhua yhden valmistustekniikan yli hyppäämisestä kun katsotaan mitä saatiin käytännössä aikaan edellinen huippumalli vs uuden tekniikan julkaisun huippumalli.

Kuten yllä. Jos katsotaan Intelin 32nm-22nm teknisillä luvuilla, on tehty yhden sukupolven hyppäys. Kun katsotaan käytännössä desktop prosessoreissa, voidaan puhua 22nm:n kohdalla hädin tuskin 32nm+:sta.

Tämä kertoo siitä, kuinka valmistustekniikoiden kehitys on hidastunut, kun se on käynyt yhä vaikeammaksi kun fysiikan rajat alkaa enenevissä määrin tulla vastaan.

Ja kertoo myös siitä, että kun TSMC mokasi 20nm prosessinsa kanssa kun alunperin kehitti en ilman FinFETiä tai SOIta, meni sitten ylimääräistä aikaa sen korjaamisen.

Tietysti, myös GF mokasi 20nm prosessin kanssa. Tietenkin lähes kaksinkertainen aika kehittää valmistusprosessia myös auttaa saamaan suuremman parannuksen.

Hyppy noiden välillä oli pieni, helposti saadaan paljon suurempi.

nVidialla on jo olemassa GV100/Titan V, joka on iso ja kallis piiri. Ja sen suorituskykyero jopa 1080 Ti:hin on paljon suurempi kuin 980 ti:n ja 1080:n ero.

Jättämällä tensoriytimet pois ja valmistamalla sen "10nm" tai "7nm" valmistustekniikalla se menisi oikein inhimilliseen tilaan ja olisi selvästi halvempi valmistaa, voitaisiiin julkaista GTX2080-nimellä kuluttajille.

Rajoittavaksi tekijäksi voisi tulla lähinnä muistikaista - HBM2lla sitä saisi varmasti tarpeeksi lisää, mutta se on kallista. GDDR6 on kuitenkin tulossa, ja 384-bittinen GDDR6-muisti tarjoisi jo yli tuplasti kaistaa 1080een nähden, ja jo 256-bittiselläkin GDDR6lla kaistaa voisi olla riittävästi

Totta kai saadaan jos halutaan ja ollaan valmiit karsinmaan tuloista. Mitään teknistä estettä ei ollut julkaista GTX1080Ti:ta samaan aikaa kuin GTX1080:a. Näytönohjaimien koko poikkeuksetta kasvaa kun valmistustekniikka kehittyy ja saannot paranevat. Mikään ei estä Nvidiaa julkaisemasta jättipiiriä heti kun 7nm tekniikka toimii joten kuten. Huonoilla saannoilla ei tule yhtä paljoa voittoa kuin tulee tekemällä ensin maltillisemman kokoista. Tämä siis massamarkkinoille. Huonot sannot tarkoittavat ettei sieltä tule heti alussa jättipiiriä vaan sellainen joka järkevästi pystytään tekemään hyvillä saannoilla. Vahvasti veikkaan ettei sellainen piiri ole lähelläkään sitä parannusta vs GTX1080Ti mitä oli GTX1080 vs GTX980Ti.

Kun edellisessä sukupolvessa AMD ja Nvidia julkaisivat keskisarjan piirit (RX480 ja GTX1060), ne olivat hämmästyttävän lähellä nopeudessa huomioiden ettei kumpikaan varsinaisesti tiennyt mitä kilpailija tarkalleen tekee ja valmistustekniikatkin olivat erilaiset. Molemmat tekivät keskisarjan kortin siihen sweet spotiin mikä hyvillä saannoilla onnistuu ja Nvidia skaalasi paremmat piirit sen mukaan (1070 ja 1080).

On melko helppo veikata seuraavan sukupolven GeForcen "mid end" piirin "GTX2060" (jos sellainen tulee) olevan valmistusteknisesti sweet spot ja parempien skaalautuvan sen mukaan. Voisivat tietenkin julkaista sikahintaisen jättiläisenkin massamarkkinoille, en usko siihen koska rahallisesti siinä ei ole järkeä.
 
Parannus siihen nopeuteen joka saatiin julkaisuvaiheessa käyttämällä valmistustekniikan antamat edut vs edellinen huippumalli.

Arkkitehtuuria uusittiin hyvin vähän väite pitää mainiosti paikkaansa. Samoilla kellotaajuuksilla Pascal oli julkaisuhetkellä käytännössä yhtä nopea kuin Maxwell kun otetiin käytännössä vastaavat piirit vertailuun. Muistikaistan vaatimusten väheneminen vaikuttaa enemmän siihen kuinka heikkoa muistia voidaan käyttää jotta saadaan sama suorituskyky. Ei käytännössä vaikuta valmistustekniikan tuomiin hyötyihin.

Koska käytännön suorituskyky on hyvin lähelle 1:1 samoilla kellotaajuuksilla, voidaan väitettä "arkkitehtuuri muuttui hyvin vähän" pitää tässä yhteydessä (edellinen huippumalli vs julkaisun paras malli) täysin perusteltuna.



Tässä verrattiin edellinen huippumalli vs julkaisun paras. GTX1080 Ti julkaistiin melkein vuosi myöhemmin kuin GTX1080. Valmistustekniikka paranee ajan kanssa ja samalla parempien piirien julkaisu muuttu järkevämmäksi. Alunperin vertailu oli GTX1080Ti vs tuleva GTX2xxx huippumalli julkaisussa, ei GTX1080Ti vs joku GTX2xxx joka julkaistaan vuosi sen jälkeen kun ensimmäinen GTX2xxx huippumalli on julkaistu. Samaten jos suorituskyky samalla kellotaajuudella on vastaavalla piirillä julkaisussa lähelle 1:1, arkkitehtuuria ei ole muutettu merkittävästi ellei se sitten näy esim. selkeästi pienempänä virrankulutuksena.



Millaisilla piireillä? Kun verrataan Intelin puolelta 32nm vs 22 nm, performance per watt on pientä jännitettä käyttävissä piireissä parantunut huimasti. Kun katsotaan mitä tapahtuu kun jännitettä nostetaan desktop prosessorien jännitteiden tasolle, parannus on lähellä nollaa. Performance per watt mittaria on huono käyttää koska se riippuu lähes täysin siitä mitä valmistetaan ja mihin kategoriaan.



Niillä teknisillä luvuilla ei ole mitään väliä kun katsotaan mitä saadaan aikaan käytännön tapauksessa. Huomioiden arkkitehtuurin aiheuttamien parannusten olevan käytännössä nolla, GTX980Ti vs GTX1080 tapauksessa voidaan puhua yhden valmistustekniikan yli hyppäämisestä kun katsotaan mitä saatiin käytännössä aikaan edellinen huippumalli vs uuden tekniikan julkaisun huippumalli.

Kuten yllä. Jos katsotaan Intelin 32nm-22nm teknisillä luvuilla, on tehty yhden sukupolven hyppäys. Kun katsotaan käytännössä desktop prosessoreissa, voidaan puhua 22nm:n kohdalla hädin tuskin 32nm+:sta.



Tietysti, myös GF mokasi 20nm prosessin kanssa. Tietenkin lähes kaksinkertainen aika kehittää valmistusprosessia myös auttaa saamaan suuremman parannuksen.



Totta kai saadaan jos halutaan ja ollaan valmiit karsinmaan tuloista. Mitään teknistä estettä ei ollut julkaista GTX1080Ti:ta samaan aikaa kuin GTX1080:a. Näytönohjaimien koko poikkeuksetta kasvaa kun valmistustekniikka kehittyy ja saannot paranevat. Mikään ei estä Nvidiaa julkaisemasta jättipiiriä heti kun 7nm tekniikka toimii joten kuten. Huonoilla saannoilla ei tule yhtä paljoa voittoa kuin tulee tekemällä ensin maltillisemman kokoista. Tämä siis massamarkkinoille. Huonot sannot tarkoittavat ettei sieltä tule heti alussa jättipiiriä vaan sellainen joka järkevästi pystytään tekemään hyvillä saannoilla. Vahvasti veikkaan ettei sellainen piiri ole lähelläkään sitä parannusta vs GTX1080Ti mitä oli GTX1080 vs GTX980Ti.

Kun edellisessä sukupolvessa AMD ja Nvidia julkaisivat keskisarjan piirit (RX480 ja GTX1060), ne olivat hämmästyttävän lähellä nopeudessa huomioiden ettei kumpikaan varsinaisesti tiennyt mitä kilpailija tarkalleen tekee ja valmistustekniikatkin olivat erilaiset. Molemmat tekivät keskisarjan kortin siihen sweet spotiin mikä hyvillä saannoilla onnistuu ja Nvidia skaalasi paremmat piirit sen mukaan (1070 ja 1080).

On melko helppo veikata seuraavan sukupolven GeForcen "mid end" piirin "GTX2060" (jos sellainen tulee) olevan valmistusteknisesti sweet spot ja parempien skaalautuvan sen mukaan. Voisivat tietenkin julkaista sikahintaisen jättiläisenkin massamarkkinoille, en usko siihen koska rahallisesti siinä ei ole järkeä.

GTX1080 oli tehty ko sukupolven "keskisarjan" ytimellä
GTX1060 oli muistaakseni hieman pienempi, saman sukupolven ydin. (isompi, kuin 1050:n ydin)
GTX1080 Ti on ko sukupolven isoin ydin, jonkinverran leikattuna (Titan xp täydellisin ko "GP102" coren sisältävä)

Itse en ole ikinä tukenut, kuin kolmea eri tasoa kuluttajakorteissa.
Halppispaskoja: ( Esim 1030-1050Ti)"entry", näillä näkyy kuva ja joku pelikin periaatteessa pyörii, jopa kohtuudella, kun tiputtaa karkkeja ja resoa.
Keskitason kortteja (esim 1060-1080) Näillä jo pelataan jopa ok, mutta ei huippuresoilla.
Yläpään kortit: Näissä on se isoin ydin, korkeintaan kohtuudella leikattuna (esim 1080TI ja titanit)

En käsitä miksi yrität sotkea ja mutuilla 980 Ti:n kanssa, kun se nyt vain on ihan eri ytimiä, edellistä sukupolvea.
 
GTX1080 oli tehty ko sukupolven "keskisarjan" ytimellä
GTX1060 oli muistaakseni hieman pienempi, saman sukupolven ydin. (isompi, kuin 1050:n ydin)
GTX1080 Ti on ko sukupolven isoin ydin, jonkinverran leikattuna (Titan xp täydellisin ko "GP102" coren sisältävä)

Itse en ole ikinä tukenut, kuin kolmea eri tasoa kuluttajakorteissa.
Halppispaskoja:(esim 1030-1050Ti)"entry", näillä näkyy kuva ja joku pelikin periaatteessa pyörii, jopa kohtuudella, kun tiputtaa karkkeja ja resoa.
Keskitason kortteja (esim 1060-1080) Näillä jo pelataan jopa ok, mutta ei huippuresoilla.
Yläpään kortit: Näissä on se isoin ydin, korkeintaan kohtuudella leikattuna (esim 1080TI ja titanit)

En käsitä miksi yrität sotkea ja mutuilla 980 Ti:n kanssa, kun se nyt vain on ihan eri ytimiä, edellistä sukupolvea.

Noh jos tarkkoja ollaan gp100 oli pascal sukupolven suurin ydin, toki siitä ei koskaan kuluttajapuolen tuotetta tehty. Mutta pjooh Pascal -> Volta on vähän kuin Kepler -> Maxwell, perf/W paranee vaikka pysytään samalla viivanleveydellä.
 
Noh jos tarkkoja ollaan gp100 oli pascal sukupolven suurin ydin, toki siitä ei koskaan kuluttajapuolen tuotetta tehty. Mutta pjooh Pascal -> Volta on vähän kuin Kepler -> Maxwell, perf/W paranee vaikka pysytään samalla viivanleveydellä.
Niin, siksi sanoin tuolla tuon "kuluttajakorteissa"
 
Tässä verrattiin edellinen huippumalli vs julkaisun paras.

Vertailusi on typerä, kun saman sarjan eri piirejä julkaistiin pari kuukautta eri tahtiin.

Järkevää on verrata saman hinnan, pii-pinta-alan tai markkinasegmentin piirejä keskenään.

GM200 oli aivan eri markkinasegmentin piiri kuin GP104, ja näiden vertaileminen keskenään on typerää.

GTX1080 Ti julkaistiin melkein vuosi myöhemmin kuin GTX1080.

... mutta GP102-piiri johon se perustuu, titan X (pascal) julkaistiin pari kuukautta GTX 1080n jälkeen.

Mutta jätit nämä titanit pois vertailustasi - perusteetta.

Piiri oli valmis, sitä ei vaan tarvinnut tuoda markkinoille tuohon markkinasegmenttiin koska kilpailua ei olltui ja 1080 pieksi mennen tullen kaikkea mitä AMDllä oli tarjolla.

Valmistustekniikka paranee ajan kanssa ja samalla parempien piirien julkaisu muuttu järkevämmäksi. Alunperin vertailu oli GTX1080Ti vs tuleva GTX2xxx huippumalli julkaisussa, ei GTX1080Ti vs joku GTX2xxx joka julkaistaan vuosi sen jälkeen kun ensimmäinen GTX2xxx huippumalli on julkaistu. Samaten jos suorituskyky samalla kellotaajuudella on vastaavalla piirillä julkaisussa lähelle 1:1, arkkitehtuuria ei ole muutettu merkittävästi ellei se sitten näy esim. selkeästi pienempänä virrankulutuksena.

Mitähän tarkoitat nyt "vastaavalla piirillä" ? Tähän mennessä olet verrannut keskenään piirejä jotka eivät ole millään järkevällä mittarilla "vastaavia piirejä".

Vertasit järeintä maxwell-piiriä KOLMANNEKSI JÄREIMPÄÄN Pascal-piiriin.

Millaisilla piireillä? Kun verrataan Intelin puolelta 32nm vs 22 nm, performance per watt on pientä jännitettä käyttävissä piireissä parantunut huimasti. Kun katsotaan mitä tapahtuu kun jännitettä nostetaan desktop prosessorien jännitteiden tasolle, parannus on lähellä nollaa. Performance per watt mittaria on huono käyttää koska se riippuu lähes täysin siitä mitä valmistetaan ja mihin kategoriaan.

Uudet valmistustekniikan nimenomaan mahdollistavat niiden matalampien jännitteiden käytön (kellotaajuutta laskematta), ja se on juuri yksi (muttei ainoa) syy siihen, miksi ne ovat energiatehokkaampia.

Kun molempia piirejä ajetaan sellaisella jännitteellä, että se juuri saavuttaa jonkun "keskitasoa" olevan kellotaajuuden, uusi valmistustekniikka tekee sen n. kaksi kertaa energiatehokkaammin.
Jos taas uutta ajetaan hiukan suuremmalla kellotaajuudella siten että käytety jännite on "suhteessa samaa tasoa" prosessin maksimi- ja minimijännitteisiin verrattuna, uusi on vähän alle kaksi kertaa energiatehokkampi. Nämä on ne tilanteet, mitä näyttiksillä tulee vastaan.

Sen sijaan kun aletaan käyttämään hyvin suuria jännitteitä maksimikellotaajuuden saavuttamiseksi, alkaa se uusikin prosessi viemään paljon sähköä. Ei relevantti tilanne näyttiksissä, paitsi ehkä Vegan kohdalla, kun AMD halusi kellottaa Vegan liian korkeisiin kelloihin.

Niillä teknisillä luvuilla ei ole mitään väliä kun katsotaan mitä saadaan aikaan käytännön tapauksessa.

:facepalm:

Eli siis ignoraat täysin ne suoraan prosessin ominaisuuksista kertovat tekniset luvut ja ominaisuudet vain sen takia että LUULET että ne muka "käytännössä toimii" jotenkin erilailla. Eikä edes toimi.

Niinkuin oikeasti. Alkaa olemaan kyllä taas sen tason "elämäm koululais"-tason touhua että hohhoijaa.

jos et ymmärrä asioita, sitten kannattaisi yrittää opetella ymmärtämään niitä asioita, sen sijaan että alkaa väittämään että kaikki sellaiset asiat ja luvut, joita ei itse ymmärrä, on merkityksettömiä.


Ja tuosta tuon prosessin käytännön toimivuudesta:


Jos nyt verrataan vaikka esille ottamiasi GTX 980 TI:tä ja 1080 GTXää, niin käytännössä saatiin aikaan se, että

1) transistoritiheys on 1.72-kertaistunut noiden koko piirien välillä. Toki tätä hiukan huonontaa piirin reunoilla oleva IO, käytännössä ne itse logiikkatransistorit ja välimuistit pääsee skaalautumiskertoimeltaan hiukan lähemmäs kakkosta. Ollaan siis todella kaukana siitä nelosestä, mitä sen pitäisi pitäisi olla, jos oltaisin hypätty "yhden täyden prosessisukupolven ylI".

2) energiatehokkuus on alle kaksinkertaistunut kun sen pitäisi melkein nelinkertaistua jos oltaisiin hypätty "yhden prosessin" yli.


Että väitteesi että "käytännän vaikutus olisi paljon suurempi kuin yhden sukupolven vaikutus, käytännössä kahden luokkaa" on täyttä puppua.


Huomioiden arkkitehtuurin aiheuttamien parannusten olevan käytännössä nolla

Parempi framepuskuripakkaus vähentää selvästi muistiliikennettä. Muistin käyttö on suurimpia virrankulutuksen aiheuttajia näyttiksillä. Eli osa siitä hiukan alle kaksinkertaisesta energiatehokkuuden parantumisesta johtuu nimenomaan arkkitehtuurillisesta muutoksesta. Jäljelle jääväksi valmsitustekniikan osuudeksi jää siis selvästi alle 2x.

, GTX980Ti vs GTX1080 tapauksessa voidaan puhua yhden valmistustekniikan yli hyppäämisestä kun katsotaan mitä saatiin käytännössä aikaan edellinen huippumalli vs uuden tekniikan julkaisun huippumalli.

"julkaisun huippumalli" on täysin irrelevantti asia kun toisessa huippupiiri julkaistiin heti, toisessa 3kk myöhemmin. Se 3kk on ihan merkityksetön aika tuossa ja GP102n pudottaminen pois vertailusta sen 3kk takia on ihan puhdasta typeryyttä tai tarkoituksellista epärehellisyyttä.

Kuten yllä. Jos katsotaan Intelin 32nm-22nm teknisillä luvuilla, on tehty yhden sukupolven hyppäys. Kun katsotaan käytännössä desktop prosessoreissa, voidaan puhua 22nm:n kohdalla hädin tuskin 32nm+:sta.

Pinta-ala:

Yksi Ivy Bridge-ydin vie n. 19.5mm^2 pinta-alaa. (2c ja 4c GT2-versioiden pinta-alat 121 vs 160 mm^2)

Yksi Sandy Bridge-ydin vie n. 33.5 mm^2 pinta-alaa. (2c 4c GT2-versioiden pinta-alat 149 vs 215 mm^2)

Koko piirejä ei siis voi suoraan järkevästi verrata keskenään, koska ivy bridgessä on paljon järeämpi näyttis ja selvästi isommat välimuistit yms.


Ytimen pinta-ala on siis pudonnut 58%iin kun valmistustekniikka on vaihdettu "32nm" -> "22nm".

Tämä on hyvin lähellä sitä puoleen putoamista, mikä uudesta prosessista pitäisi tulla, vaikka Ivy Bridge-ytimessä on myös lisätty jonkin verran toiminnallisuutta, jonka takia siinä on enemmän logiikkaa (F16C- ja rdrand-käskyt, järeämpi jakolaskuyksikkö, mov-käskyjen suoritus renameamalla)


Suorituskyvystä taas:

Desktop-prosessorit pyörii täysin erilaisilla jännitteillä ja täysin eri kohdassa sitä jännite-kellotaajuus-virrankulutus-käyrää kuin näyttikset.

Siitä huolimatta:

The Intel Ivy Bridge (Core i7 3770K) Review

Anandin testeissä esim. x264:ssa 3770k oli 10% nopeampi kuin 2600k, mutta silti 3770k:lla koko systeemin virrankulutus oli vain 82% 2600k:n virrankulutuksesta.

Tästä virrankulutuksesta ivy bridellä n. puolet oli käytännössä muuta kuin CPUn kulutusta, ja näiden muiden osien kulutus lisääntyi ivy bridgellä kun tehtiin enemmän työtä.

Tästä saadaan laskettua että käytännössä itse ivy bridge-prosessorin virrankulutus oli alle kaksi kolmasosaa sandy bridgen virrankulutuksesta, VAIKKA se teki 10% enemmän työtä.

Päästään aika lähelle sitä energiatehokkuuden tuplaantumista.


Ja tässä vielä verrattiin prossuja joista toinen oli valmistetu "kypsällä" versiolla "32nm" tekniikasta ja toinen "22nm" prosessin varhaisella versiolla.
Jonkun devils canyonin aikaan prosessi oli kypsynyt tästä aika paljon lisää ja ero "32nm" prosessiin oli taas jo selvästi suurempi.


Että väitteesi siitä että intelin "22nm" ei tarjonnut juuri mitään parannusta "32nm" prosessiin on täyttä puppua.

Tietysti, myös GF mokasi 20nm prosessin kanssa. Tietenkin lähes kaksinkertainen aika kehittää valmistusprosessia myös auttaa saamaan suuremman parannuksen.

Mitään "suurempaa parannusta" ei vaan ollut.

Energiatehokkuus parani alle kaksinkertaisesti, kellotaajuuksia voitiin nostaa n. 1.5-kertaisesti ilman että energiankulutus ja lämpörajat alkoi paukkua.

Ja transistoritiheys parani alle 2-kertaisesti.

Totta kai saadaan jos halutaan ja ollaan valmiit karsinmaan tuloista. Mitään teknistä estettä ei ollut julkaista GTX1080Ti:ta samaan aikaa kuin GTX1080:a. Näytönohjaimien koko poikkeuksetta kasvaa kun valmistustekniikka kehittyy ja saannot paranevat. Mikään ei estä Nvidiaa julkaisemasta jättipiiriä heti kun 7nm tekniikka toimii joten kuten. Huonoilla saannoilla ei tule yhtä paljoa voittoa kuin tulee tekemällä ensin maltillisemman kokoista.
Tämä siis massamarkkinoille. Huonot sannot tarkoittavat ettei sieltä tule heti alussa jättipiiriä vaan sellainen joka järkevästi pystytään tekemään hyvillä saannoilla. Vahvasti veikkaan ettei sellainen piiri ole lähelläkään sitä parannusta vs GTX1080Ti mitä oli GTX1080 vs GTX980Ti.

GV100 josta tensoriyksiköt poistettu ja muistirajapinta vaihdettu ei olisi mikään "jättipiiri" "7nm"llä.

TSMC "7nm" prosessi on 2.74 kertaa tiheämpi (mitattuna SRAM-solun koolla) kuin TSMCn "16nm" prosessi. Se on siis ihan oikeasti "puolentoista sukupolven hyppäys" siitä "16nm" prosessista tiheydeltään. (log2 (2.74) == 1.454)

Jos koko piiri skaalautuisi tuolla kertoimella, täysi GV100 valmistettuna "7nm"llä olisi vain 297mm^2.

Käytännössä piirin reunoilla oleva IO ei skaalaudu ihan täydellä kertoimella, mutta tensoriyksiköt poisjättämällä ja vähemmän pädejä käyttävään muistitekniikkaan vaihtamisella säästöä olisi varmaan hiukan enemmän kuin mitä näiden huonompaan skaalaamiseen menetetään. Lopputulokseni ehkä joku ~280mm^2 piiri, pienempi kuin GTX1080/GP104 ( 314mm^2), puolessa välissä polaris 10n(rx 480) ja gtx 1080n kokoa.


Kun edellisessä sukupolvessa AMD ja Nvidia julkaisivat keskisarjan piirit (RX480 ja GTX1060), ne olivat hämmästyttävän lähellä nopeudessa huomioiden ettei kumpikaan varsinaisesti tiennyt mitä kilpailija tarkalleen tekee ja valmistustekniikatkin olivat erilaiset. Molemmat tekivät keskisarjan kortin siihen sweet spotiin mikä hyvillä saannoilla onnistuu ja Nvidia skaalasi paremmat piirit sen mukaan (1070 ja 1080).

.. paitsi että AMDn piiri oli näistä 16% isompi, vaikka se valmistettiin n. 9-15% (*) tiheämmällä valmistustekniikalla. Eli AMDn piiri olikin logiikkamäärältään n. 25-30 % suurempi.

AMDltä tarvittiin siis n. 25-30% enemmän logiikkaa saman suorituskyvyn saavuttamiseen.


On melko helppo veikata seuraavan sukupolven GeForcen "mid end" piirin "GTX2060" (jos sellainen tulee) olevan valmistusteknisesti sweet spot ja parempien skaalautuvan sen mukaan. Voisivat tietenkin julkaista sikahintaisen jättiläisenkin massamarkkinoille, en usko siihen koska rahallisesti siinä ei ole järkeä.

~280mm^2 piiri ei olisi mikään "sikahintainen jättiläispiiri" vaan se olisi vain n. 20% sitä sinun sweet-spot-rx480stäsi suurempi.



(*) Applen piiri oli Samsungin prosessilla(sama kuin GFn prosessi) 9% pienempi kuin TSMCn prosessilla, mutta SRAM-solun koko on jopa 15% pienempi.
 
Viimeksi muokattu:
GTX1080 oli tehty ko sukupolven "keskisarjan" ytimellä
GTX1060 oli muistaakseni hieman pienempi, saman sukupolven ydin. (isompi, kuin 1050:n ydin)
GTX1080 Ti on ko sukupolven isoin ydin, jonkinverran leikattuna (Titan xp täydellisin ko "GP102" coren sisältävä)

En käsitä miksi yrität sotkea ja mutuilla 980 Ti:n kanssa, kun se nyt vain on ihan eri ytimiä, edellistä sukupolvea.

Varsin usein kun julkaistaan uusi näytönohjain, se uusi malli enemmän tai vähemmän korvaa jonkin vanhan mallin.

Minkä näytönohjaimen korvasi GTX1080? Aivan, GTX980Ti.

Siinä syy miksi 980Ti on mukana keskusteluissa. Se sattuu olemaan se kortti jonka uusi kuluttajaluokan huippumalli korvasi ja siksi järkevin vertailukohta siihen mitä uusi valmistustekniikka sai aikaan kuluttajaluokan huippumallin osalta.

Vertailusi on typerä, kun saman sarjan eri piirejä julkaistiin pari kuukautta eri tahtiin.

Järkevää on verrata saman hinnan, pii-pinta-alan tai markkinasegmentin piirejä keskenään.

GM200 oli aivan eri markkinasegmentin piiri kuin GP104, ja näiden vertaileminen keskenään on typerää.

Ihan saman segmentin piirejä olivat. Molemmat olivat pelikäyttöön suunnattuja high end piirejä. Julkaisuhinnatkin olivat käytännössä samat (GTX1080 Founders edition vähän kalliimpi kuin 980Ti, normaali vähän halvempi).

... mutta GP102-piiri johon se perustuu, titan X (pascal) julkaistiin pari kuukautta GTX 1080n jälkeen.

Mutta jätit nämä titanit pois vertailustasi - perusteetta.

Piiri oli valmis, sitä ei vaan tarvinnut tuoda markkinoille tuohon markkinasegmenttiin koska kilpailua ei olltui ja 1080 pieksi mennen tullen kaikkea mitä AMDllä oli tarjolla.

Totta kai jätin pois koska hintaa oli noin 90% enemmän kuin GTX1080:lla. Täysin eri markkinasegmentin piiri kyseessä.

Tarkoitat ettei GTX1080:n tullessa ollut kilpailua AMD:n suunnalta mutta kolmen kuukauden päästä oli?

Mitähän tarkoitat nyt "vastaavalla piirillä" ? Tähän mennessä olet verrannut keskenään piirejä jotka eivät ole millään järkevällä mittarilla "vastaavia piirejä".

Vertasit järeintä maxwell-piiriä KOLMANNEKSI JÄREIMPÄÄN Pascal-piiriin.

Vertasin Nvidian pelikäyttön parasta (noin 700 euron hintaluokassa) Maxwell piiriä Nvidian tehokaimpaan (julkaisuhetkellä) Pascaliin noin 700 euron hintaluokassa. Jälkimmäinen korvasi suoraan edellisen.

Mikä vertailu olisi ollut pätevämpi?

:facepalm:

Eli siis ignoraat täysin ne suoraan prosessin ominaisuuksista kertovat tekniset luvut ja ominaisuudet vain sen takia että LUULET että ne muka "käytännössä toimii" jotenkin erilailla. Eikä edes toimi.

Niinkuin oikeasti. Alkaa olemaan kyllä taas sen tason "elämäm koululais"-tason touhua että hohhoijaa.

jos et ymmärrä asioita, sitten kannattaisi yrittää opetella ymmärtämään niitä asioita, sen sijaan että alkaa väittämään että kaikki sellaiset asiat ja luvut, joita ei itse ymmärrä, on merkityksettömiä.

Ignoraan ne asiat joilla ei ole merkitystä. Katsoppa uudelleen mitä se alkuperäinen väite sisälsi ja huomaat ettei noilla teknisillä luvuilla ole mitään merkitystä. Kyse oli siitä paljonko nopeutta saatiin lisää julkaisuhetken huippumallilla edelliseen huippumalliin verrattuna.

Ja tuosta tuon prosessin käytännön toimivuudesta:

Jos nyt verrataan vaikka esille ottamiasi GTX 980 TI:tä ja 1080 GTXää, niin käytännössä saatiin aikaan se, että

1) transistoritiheys on 1.72-kertaistunut noiden koko piirien välillä. Toki tätä hiukan huonontaa piirin reunoilla oleva IO, käytännössä ne itse logiikkatransistorit ja välimuistit pääsee skaalautumiskertoimeltaan hiukan lähemmäs kakkosta. Ollaan siis todella kaukana siitä nelosestä, mitä sen pitäisi pitäisi olla, jos oltaisin hypätty "yhden täyden prosessisukupolven ylI".

2) energiatehokkuus on alle kaksinkertaistunut kun sen pitäisi melkein nelinkertaistua jos oltaisiin hypätty "yhden prosessin" yli.

Että väitteesi että "käytännän vaikutus olisi paljon suurempi kuin yhden sukupolven vaikutus, käytännössä kahden luokkaa" on täyttä puppua.

Kun taas katsot mistä keskustellaan, huomaat ettei transistoritiheydestä tai energiatehokkuudesta ollut mitään puhetta.

Siksi väitteeni pitää täysin paikkaansa kun katsotaan historiaa taaksepäin.

Rautalankaa: mikäli GTX1080:n paikalle olisi laitettu Titan X (GTX1080:n hinnalla jne), silloin teholisäys edelliseen huippumalliin verrattuna vastaisi karkeasti kahden valmistusprosessin ylihyppäämistä. Tämän takia kaikki transistoritiheydet sun muut voi jättää huomiotta, niillä ei ole mitään merkitystä. Eikä niillä ole mitään merkitystä siinäkään paljonko se GTX2xxx (mikä onkaan seuraava huippumalli) tuo parannusta GTX1080:n tai GTX1080 Ti:n nähden (hintakysymys myös). Enemmän ratkaisee se paljonko parannusta halutaan tai pystytään tuomaan (saannot mm.).

Parempi framepuskuripakkaus vähentää selvästi muistiliikennettä. Muistin käyttö on suurimpia virrankulutuksen aiheuttajia näyttiksillä. Eli osa siitä hiukan alle kaksinkertaisesta energiatehokkuuden parantumisesta johtuu nimenomaan arkkitehtuurillisesta muutoksesta. Jäljelle jääväksi valmsitustekniikan osuudeksi jää siis selvästi alle 2x.

Virrankulutus ehkä vähenee muttei vaikuta nopeuteen kovinkaan merkittävästi koska nopeuden kannalta suurin merkitys oli muistikaistan tarpeen vähentymisellä.

"julkaisun huippumalli" on täysin irrelevantti asia kun toisessa huippupiiri julkaistiin heti, toisessa 3kk myöhemmin. Se 3kk on ihan merkityksetön aika tuossa ja GP102n pudottaminen pois vertailusta sen 3kk takia on ihan puhdasta typeryyttä tai tarkoituksellista epärehellisyyttä.

Se on relevantti asia, koska 3 kuukautta julkaisun jälkeen on täysin eri asia kuin julkaisuhetkellä. Mikäli haluaa ostaa julkaisuhetkellä, pitää olla saatavilla julkaisuhetkellä. Myös 90% korkeampi hinta on hyvin merkityksellinen.

Pinta-ala:

Yksi Ivy Bridge-ydin vie n. 19.5mm^2 pinta-alaa. (2c ja 4c GT2-versioiden pinta-alat 121 vs 160 mm^2)

Yksi Sandy Bridge-ydin vie n. 33.5 mm^2 pinta-alaa. (2c 4c GT2-versioiden pinta-alat 149 vs 215 mm^2)

Koko piirejä ei siis voi suoraan järkevästi verrata keskenään, koska ivy bridgessä on paljon järeämpi näyttis ja selvästi isommat välimuistit yms.

Ytimen pinta-ala on siis pudonnut 58%iin kun valmistustekniikka on vaihdettu "32nm" -> "22nm".

Tämä on hyvin lähellä sitä puoleen putoamista, mikä uudesta prosessista pitäisi tulla, vaikka Ivy Bridge-ytimessä on myös lisätty jonkin verran toiminnallisuutta, jonka takia siinä on enemmän logiikkaa (F16C- ja rdrand-käskyt, järeämpi jakolaskuyksikkö, mov-käskyjen suoritus renameamalla)


Suorituskyvystä taas:

Desktop-prosessorit pyörii täysin erilaisilla jännitteillä ja täysin eri kohdassa sitä jännite-kellotaajuus-virrankulutus-käyrää kuin näyttikset.

Siitä huolimatta:

The Intel Ivy Bridge (Core i7 3770K) Review

Anandin testeissä esim. x264:ssa 3770k oli 10% nopeampi kuin 2600k, mutta silti 3770k:lla koko systeemin virrankulutus oli vain 82% 2600k:n virrankulutuksesta.

Tästä virrankulutuksesta ivy bridellä n. puolet oli käytännössä muuta kuin CPUn kulutusta, ja näiden muiden osien kulutus lisääntyi ivy bridgellä kun tehtiin enemmän työtä.

Tästä saadaan laskettua että käytännössä itse ivy bridge-prosessorin virrankulutus oli alle kaksi kolmasosaa sandy bridgen virrankulutuksesta, VAIKKA se teki 10% enemmän työtä.

Päästään aika lähelle sitä energiatehokkuuden tuplaantumista.

Ja tässä vielä verrattiin prossuja joista toinen oli valmistetu "kypsällä" versiolla "32nm" tekniikasta ja toinen "22nm" prosessin varhaisella versiolla.
Jonkun devils canyonin aikaan prosessi oli kypsynyt tästä aika paljon lisää ja ero "32nm" prosessiin oli taas jo selvästi suurempi.

Että väitteesi siitä että intelin "22nm" ei tarjonnut juuri mitään parannusta "32nm" prosessiin on täyttä puppua.

Toinen mielipide tulee tässä:

Intel Core i7-3770K CPU Review | bit-tech.net

Virrankulutus stock kelloilla rasituksessa:

2500K: 162W
3570K: 161W

Kellotaajuudet nousivat 0,1 GHz sekä stock että turbo. Valmistustekniikka antoi 3% lisää kellotaajuutta ja 1 watin pienemmän lämmöntuoton. Käytännössä nolla.

Mitä tulee ytimen pienentymiseen ja siihen mitä myöhempi 22nm teki jne, niistä en sanonutkaan mitään. Valmistustekniikan tuoma nopeusparannus uuden valmistustekniikan mallin julkaisuhetkellä on hyvin lähellä nollaa. HT malleissa ero on suurempi, siinä saattaa arkkitehtuuri vaikuttaa enemmän.

Mitään "suurempaa parannusta" ei vaan ollut.

Energiatehokkuus parani alle kaksinkertaisesti, kellotaajuuksia voitiin nostaa n. 1.5-kertaisesti ilman että energiankulutus ja lämpörajat alkoi paukkua.

Ja transistoritiheys parani alle 2-kertaisesti.

Nopeusparannus suhteessa edelliseen huippumalliin oli suuri. Se on olennaisin asia.

GV100 josta tensoriyksiköt poistettu ja muistirajapinta vaihdettu ei olisi mikään "jättipiiri" "7nm"llä.

TSMC "7nm" prosessi on 2.74 kertaa tiheämpi (mitattuna SRAM-solun koolla) kuin TSMCn "16nm" prosessi. Se on siis ihan oikeasti "puolentoista sukupolven hyppäys" siitä "16nm" prosessista tiheydeltään. (log2 (2.74) == 1.454)

Jos koko piiri skaalautuisi tuolla kertoimella, täysi GV100 valmistettuna "7nm"llä olisi vain 297mm^2.

Käytännössä piirin reunoilla oleva IO ei skaalaudu ihan täydellä kertoimella, mutta tensoriyksiköt poisjättämällä ja vähemmän pädejä käyttävään muistitekniikkaan vaihtamisella säästöä olisi varmaan hiukan enemmän kuin mitä näiden huonompaan skaalaamiseen menetetään. Lopputulokseni ehkä joku ~280mm^2 piiri, pienempi kuin GTX1080/GP104 ( 314mm^2), puolessa välissä polaris 10n(rx 480) ja gtx 1080n kokoa.

Se mikä on "jättipiiri" riippuu lähes yksinomaan siitä miten hyvin valmistustekniikka toimii. 28nm prosessin alkuvaiheessa 300 mm2 piiri oli iso piiri, loppuvaiheessa väännettin jo 600 mm2 piirejä.

Yleisesti ottaen myös valmistustekniikan pienentyessä pienenee myös "normaalikokoisen" piirin koko, eli 300 mm2 piiri 7nm tekniikalla on paljon "isompi" kuin sama piiri 16nm tekniikalla.

.. paitsi että AMDn piiri oli näistä 16% isompi, vaikka se valmistettiin n. 9-15% (*) tiheämmällä valmistustekniikalla. Eli AMDn piiri olikin logiikkamäärältään n. 25-30 % suurempi.

AMDltä tarvittiin siis n. 25-30% enemmän logiikkaa saman suorituskyvyn saavuttamiseen.

AMD tarvitsi enemmän logiikkaa saman pelinopeuden saavuttamiseen. Kryptomainauksessa AMD meni menojaan. Eivät ne transistorit täysin hukkaan siis menneet. Toisekseen AMD:lla oli käytössä lähes koko GF:n valmistuskapasiteetti kun taas TSMC:lla oli "muutama" asiakas käyttämässä 16nm prosessia.

~280mm^2 piiri ei olisi mikään "sikahintainen jättiläispiiri" vaan se olisi vain n. 20% sitä sinun sweet-spot-rx480stäsi suurempi.

(*) Applen piiri oli Samsungin prosessilla(sama kuin GFn prosessi) 9% pienempi kuin TSMCn prosessilla, mutta SRAM-solun koko on jopa 15% pienempi.

280mm2 7nm tekniikalla on paljon "suurempi" kuin 280mm2 14/16nm tekniikalla. Lisäksi mikäli 7nm saannot ovat huonot, siitä voi hyvinkin tulla sikahintainen jättiläispiiri. Sellaisia olivat lähes kaikki 20nm piirit. Ihan varmasti 20nm tekniikalla saatiin valmistettua toimivia piirejä. Ne kaikki olivat sikahintaisia tai jättiläispiirejä, tai molempia.

Niin kauan kun ei tiedetä mitkä ovat 7nm tekniikan saannot ja hinnat, on mahdoton sanoa näistä asioista tarkasti.[/QUOTE]
 
Minkä näytönohjaimen korvasi GTX1080? Aivan, GTX980Ti.

Siinä syy miksi 980Ti on mukana keskusteluissa. Se sattuu olemaan se kortti jonka uusi kuluttajaluokan huippumalli korvasi ja siksi järkevin vertailukohta siihen mitä uusi valmistustekniikka sai aikaan kuluttajaluokan huippumallin osalta.
Ei, vaan jos pitää laskea että se "korvasi" jonkun, niin se "korvasi" 980:n.

Eikä loppuviesti sen paremmalta näytä.
 
Ei, vaan jos pitää laskea että se "korvasi" jonkun, niin se "korvasi" 980:n.

Eikä loppuviesti sen paremmalta näytä.

Hinnan puolesta 980 maksoi satasen vähemmän kuin 980Ti tai vaihtoehtoisesti GTX1080 maksoi satasen enemmän kuin GTX980. Satasen hintaero "korvaajalle" on aika paljon kun löytyy samanhintainenkin. Nopealla googletuksella hintaperustelu kelpaa muillekin Nvidia unveils GTX 1080 and GTX 1070: a new level in GPU power

Edit: Tai sanotaan asia tällä tavalla. Mikäli GTX1080 ei ollut GTX980Ti:n korvaaja se tarkoittaa ettei GTX980Ti:n korvaajaa julkaistu samalla kun GTX1000-sarja julkaistiin. Jos GTX980Ti:lle ei ole korvaajaa, miksi sen hintaa pudotettiin samalla kuin GTX980:n GTX1000-sarjan tullessa? Mitä järkeä pudottaa hintaa radikaalisti mikäli kortille ei ole korvaajaa tulossa?

Mikä muussa viestissä on vikana? Väite koski edelleen sitä paljonko saadaan julkaisussa lisää nopeutta. Sillä on hyvin vähän tekemistä sen kanssa paljonko valmistustekniikka paranee. Kuten vaikka Threadripper 2 joka on "noin 100%" nopeampi edeltäjäänsä nähden. Joten vamistustekniikka parani "noin 100%"? :rolleyes:
 
Viimeksi muokattu:
Hinnan puolesta 980 maksoi satasen vähemmän kuin 980Ti tai vaihtoehtoisesti GTX1080 maksoi satasen enemmän kuin GTX980. Satasen hintaero "korvaajalle" on aika paljon kun löytyy samanhintainenkin. Nopealla googletuksella hintaperustelu kelpaa muillekin Nvidia unveils GTX 1080 and GTX 1070: a new level in GPU power

Edit: Tai sanotaan asia tällä tavalla. Mikäli GTX1080 ei ollut GTX980Ti:n korvaaja se tarkoittaa ettei GTX980Ti:n korvaajaa julkaistu samalla kun GTX1000-sarja julkaistiin. Jos GTX980Ti:lle ei ole korvaajaa, miksi sen hintaa pudotettiin samalla kuin GTX980:n GTX1000-sarjan tullessa? Mitä järkeä pudottaa hintaa radikaalisti mikäli kortille ei ole korvaajaa tulossa?

Mikä muussa viestissä on vikana? Väite koski edelleen sitä paljonko saadaan julkaisussa lisää nopeutta. Sillä on hyvin vähän tekemistä sen kanssa paljonko valmistustekniikka paranee. Kuten vaikka Threadripper 2 joka on "noin 100%" nopeampi edeltäjäänsä nähden. Joten vamistustekniikka parani "noin 100%"? :rolleyes:

Kyllähän hintaa joutuu pudottamaan, jos alapään kortit saavat yläpään kortin kiinni. Lisäksi jossain vaiheessa varastoja pitää tyhjentää ja jos on selvää, että uutuuksiakin on tulossa, niin ei ne vain myy ilman hinnanpudotuksia.
Hyvällä tuurilla varastot tyhjenevät sopivasti, silloin hintoja ei tarvitse viilailla.. Vahoja ei sitten enää vain saa..

Ongelma on mm. se, että pyörittelet täysin mutulla noita GPU coreja eri luokissa ym laitteen hinnan perusteella, joka on typerä tapa.
 
Hinnan puolesta 980 maksoi satasen vähemmän kuin 980Ti tai vaihtoehtoisesti GTX1080 maksoi satasen enemmän kuin GTX980. Satasen hintaero "korvaajalle" on aika paljon kun löytyy samanhintainenkin. Nopealla googletuksella hintaperustelu kelpaa muillekin Nvidia unveils GTX 1080 and GTX 1070: a new level in GPU power

Edit: Tai sanotaan asia tällä tavalla. Mikäli GTX1080 ei ollut GTX980Ti:n korvaaja se tarkoittaa ettei GTX980Ti:n korvaajaa julkaistu samalla kun GTX1000-sarja julkaistiin. Jos GTX980Ti:lle ei ole korvaajaa, miksi sen hintaa pudotettiin samalla kuin GTX980:n GTX1000-sarjan tullessa? Mitä järkeä pudottaa hintaa radikaalisti mikäli kortille ei ole korvaajaa tulossa?
Harvoinpa koko näytönohjainsukupolvea ja siten "korvaavia" edeltävälle sukupolvelle julkaistaan yhdellä kertaa. Mikäli suorituskykyhyppäys on kuitenkin riittävä, se vaikuttaa luonnollisesti koko edeltävän sukupolven hinnoitteluun.
GTX 1080:n MSRP oli julkaisussa $50 korkeampi kuin 980:n, ei $100.

Mikä muussa viestissä on vikana? Väite koski edelleen sitä paljonko saadaan julkaisussa lisää nopeutta. Sillä on hyvin vähän tekemistä sen kanssa paljonko valmistustekniikka paranee. Kuten vaikka Threadripper 2 joka on "noin 100%" nopeampi edeltäjäänsä nähden. Joten vamistustekniikka parani "noin 100%"? :rolleyes:

Teit esimerkiksi päättömän vertauksen valmistusprosessin vaikutuksesta hertseihin ja kulutukseen jättämällä huomioitta oleellisia muutoksia itse ytimissä ja koko prosessorissa ihan paketointia myöten.
 
Hinnan puolesta 980 maksoi satasen vähemmän kuin 980Ti tai vaihtoehtoisesti GTX1080 maksoi satasen enemmän kuin GTX980. Satasen hintaero "korvaajalle" on aika paljon kun löytyy samanhintainenkin. Nopealla googletuksella hintaperustelu kelpaa muillekin Nvidia unveils GTX 1080 and GTX 1070: a new level in GPU power

Edit: Tai sanotaan asia tällä tavalla. Mikäli GTX1080 ei ollut GTX980Ti:n korvaaja se tarkoittaa ettei GTX980Ti:n korvaajaa julkaistu samalla kun GTX1000-sarja julkaistiin. Jos GTX980Ti:lle ei ole korvaajaa, miksi sen hintaa pudotettiin samalla kuin GTX980:n GTX1000-sarjan tullessa? Mitä järkeä pudottaa hintaa radikaalisti mikäli kortille ei ole korvaajaa tulossa?
Mikä muussa viestissä on vikana? Väite koski edelleen sitä paljonko saadaan julkaisussa lisää nopeutta.

GTX 980 julkaistiin syyskuussa 2014. Se(GM204) oli koko linjaston toiseksi suurin piiri.

GTX 980 ti julkaistiin touko-kesäkuussa 2015. 8-9 kuukautta myöhemmin. Se (GM200) oli koko linjaston suurin piiri.

GTX980 ti ei julkaistu samaan aikaan kuin muut 900-sarjan piirit, vaan 8-9 kuukautta myöhemmin


Aivan sama kuvio kuin 1080n ja 1080ti:n kanssa: Julkaisun yhteydessä 1080, sitten myöhemmin isompi piiri 1080ti. (tosin sillä erotuksella, että pascalista tuli yksi vieläkin suurempi piiri, GP100)

Että viimeinenkin perustelusi sille, miksi haluat verrata keskenään 980ti ja 1080:tä osoittautui paikkansapitämättömäksi.

Jatkuvasti jatkat inttää ihan naurettavia asioita perustuen valheellisiin/virheellisiin väittämiin, ja ignoraten kaikki sellaiset faktat, joita et ymmärrä.

Dunning–Kruger effect - Wikipedia

Sillä on hyvin vähän tekemistä sen kanssa paljonko valmistustekniikka paranee. Kuten vaikka Threadripper 2 joka on "noin 100%" nopeampi edeltäjäänsä nähden. Joten vamistustekniikka parani "noin 100%"? :rolleyes:

Mitä ihmettä nyt oikein höpötät? Tuossa ei ole päätä eikä häntää.

Pelkkä valmistustekniikan vaihto ei suoraan anna yhtään lisää suorituskykyä. Se mahdollistaa

1) suuremmat kellotaajuudet, joko suoraan kriittisten polkujen lyhenemisen kautta(CPUiden maksimi-turbo-kellot), tai sen kautta, että sähkönkulutus vähenee(näyttikset, CPUiden base-kellot).
2) arkkitehtuurin, jossa on enemmän logiikkaa tekemässä enemmän asioita jolloin yhdellä kellojaksolla tehdään enemmän.

ja suorituskykyä voidaan saada lisää näiden kautta.


Ja näyttiksillä suorituskyky/transistori itse asiassa usein jopa HUONONEE kun uusi arkkitehtuurisukupolvi tulee, joten parannusten luokittelu suoraan kahteen ryhmään "nämä tulee vlamistustekniikasta, nämä arkkitehtuurista" on senkin puolesta typerää.

Uusi arkkitehtuurisukupolvi tyypillisesti kuluttaa transistoreita uusiin ominaisuuksiin. Lisäksi uudemmat piirit on tyypillisesti suunniteltu siten, että haaskataan transistoreita siihen, että saadaan sähköä ja muistikaistaa säästettyä. (koska muistikaista ei halpene samaa tahtia kuin transistorit, ja sähkönkulutus ja lämmöntuotto alkaa koko ajan rajoittamaan enemmän kuin käytössä olevien transistorien määrä)
 
Viimeksi muokattu:
Kyllähän hintaa joutuu pudottamaan, jos alapään kortit saavat yläpään kortin kiinni. Lisäksi jossain vaiheessa varastoja pitää tyhjentää ja jos on selvää, että uutuuksiakin on tulossa, niin ei ne vain myy ilman hinnanpudotuksia.
Hyvällä tuurilla varastot tyhjenevät sopivasti, silloin hintoja ei tarvitse viilailla.. Vahoja ei sitten enää vain saa..

Ongelma on mm. se, että pyörittelet täysin mutulla noita GPU coreja eri luokissa ym laitteen hinnan perusteella, joka on typerä tapa.

Jos nyt yritän ymmärtää mitä porukka yrittä sanoa:

GTX980 oli "pelipiiri"
GTX980Ti oli "järeämpi piiri"

Ja näitä kahta ei voi pitää "vastaavina" koska molemmat eivät ole pelipiirejä.

GTX1080, GTX1070 jne ovat "pelipiirejä" ja ne eivät voi korvata "järeämpää" piiriä.

Jos näin, miksi Nvidia samanaikaisesti pudotti "pelipiirin" ja "järeän" piirin hintaa reilusti alaspän vaikka "järeälle" piirille ei ollut korvaajaa tiedossa pitkään aikaan?

Viittaa siihen että myös Nvidia laski GTX980Ti:n samaan kastiin kuin GTX980:n.

Harvoinpa koko näytönohjainsukupolvea ja siten "korvaavia" edeltävälle sukupolvelle julkaistaan yhdellä kertaa. Mikäli suorituskykyhyppäys on kuitenkin riittävä, se vaikuttaa luonnollisesti koko edeltävän sukupolven hinnoitteluun.
GTX 1080:n MSRP oli julkaisussa $50 korkeampi kuin 980:n, ei $100.

Luonnollisesti. Kysymys kuitenkin kuuluu mikä on se perustelu ettei GTX1080 voinut olla 980Ti:n "korvaaja" vaikka myös Nvidia laski 980Ti:n hintaa samalla kun muiden 900-sarjalaisten?

Hinnat menivät sekaisin kun liikaa pyöritteli.

Teit esimerkiksi päättömän vertauksen valmistusprosessin vaikutuksesta hertseihin ja kulutukseen jättämällä huomioitta oleellisia muutoksia itse ytimissä ja koko prosessorissa ihan paketointia myöten.

Ihan osuva vertaus se oli. Arkkitehtuurit eivät valitettavasti ole samat, joten suora vertailu ei ole mahdollista. Jos oletetaan ettei arkkitehtuurissa ollut mitään sellaista joka erityisesti rajoitti kellotaajuutta, niin uuden ja vanhan valmistusprosessin eroiksi nopeuden suhteen jää 0,1 GHz lisää kellotaajuutta ja lisäksi 1 watti vähemmän tehonkulutusta. Se on hyvin lähellä nollaa. Vastaavasti kun katsotaan mobiilipiirien puolella, erot ovat monta kertaluokkaa suuremmat. Kertoo ettei valmistusprosessia kannata verrata pelkästään teknisten ominaisuuksien tai tietyn piirin osalta, koska erot voivat olla melkoisia.

GTX 980 julkaistiin syyskuussa 2014. Se(GM204) oli koko linjaston toiseksi suurin piiri.

GTX 980 ti julkaistiin touko-kesäkuussa 2015. 8-9 kuukautta myöhemmin. Se (GN200) oli koko linjaston suurin piiri.

GTX980 ti ei julkaistu samaan aikaan kuin muut 900-sarjan piirit, vaan 8-9 kuukautta myöhemmin


Aivan sama kuvio kuin 1080n ja 1080ti;:n kanssa: Julkaisun yhteydessä 1080, sitten myöhemmin isompi piiri 1080ti.

Että viimeinenkin perustelusi sille, miksi haluat verrata keskenään 980ti ja 1080:tä osoittautui paikkansapitämättömäksi.

Jatkuvasti jatkat inttää ihan naurettavia asioita perustuen valheellisiin/virheellisiin väittämiin, ja ignoraten kaikki sellaiset faktat, joita et ymmärrä.

Dunning–Kruger effect - Wikipedia

Jos sinulle edelleen on epäselvää mitä julkaisua tässä tarkoitetaan, niin suosittelen lukemaan uudelleen viestini, kyllä se sieltä löytyy. Hyvä muutenkin kun tartut yhteen sanaan ja sen jälkeen kuvittelet olevasi ihan kaikessa oikeassa :D

Mitä ihmettä nyt oikein höpötät? Tuossa ei ole päätä eikä häntää.

Pelkkä valmistustekniikan vaihto ei suoraan anna yhtään lisää suorituskykyä. Se mahdollistaa

1) suuremmat kellotaajuudet, joko suoraan kriittisten polkujen lyhenemisen kautta(CPUiden maksimi-turbo-kellot), tai sen kautta, että sähkönkulutus vähenee(näyttikset, CPUiden base-kellot).
2) arkkitehtuurin, jossa on enemmän logiikkaa tekemässä enemmän asioita jolloin yhdellä kellojaksolla tehdään enemmän.

ja suorituskykyä voidaan saada lisää näiden kautta.

Ja näyttiksillä suorituskyky/transistori itse asiassa usein jopa HUONONEE kun uusi arkkitehtuurisukupolvi tulee, joten parannusten luokittelu suoraan kahteen ryhmään "nämä tulee vlamistustekniikasta, nämä arkkitehtuurista" on senkin puolesta typerää.

Uusi arkkitehtuurisukupolvi tyypillisesti kuluttaa transistoreita uusiin ominaisuuksiin. Lisäksi uudemmat piirit on tyypillisesti suunniteltu siten, että haaskataan transistoreita siihen, että saadaan sähköä ja muistikaistaa säästettyä.

Se hymiö oli siellä ihan tarkoituksella. Tuon esimerkin jälkeen ei luulisi olevan epäselvää ettei uuden valmistustekniikan ensimmäisellä piirillä saatu NOPEUSetu saati se montaako valmistustekniikan parannusta se vastaa ole välttämättä mitään tekemistä sen kanssa paljonko valmistustekniikka absoluuttisesti paranee. Ja siksi valmistustekniikan speksivertailut ym. voi ihan aiheesta ignoroida.

-

Koko keskustelu lähti siitä onko GTX2xxx sarjan julkaisussa odotettavissa samanlaista hyppyä nopeudessa vs GTX1xxx-sarja kuin GTX1xxx sarjan julkaisussa oli GTX9xx sarjaan nähden. On hyvin helppo ymmärtää ettei valmistustekniikan paranemisella ole asiaan ratkaisevaa vaikutusta koska ainahan voi julkaista suuremman tai pienemmän piirin sen mukaan miltä tuntuu. Samalla saadaan enemmän tai vähemmän nopeutta. Se mitä tapahtuu tehonkulutukselle sun muille on toissijaista kun keskustellaan nopeudesta.
 
gtx980ti laski samaan rahaan kuin vakiona suunnilleen saman tehoinen silloinen uutuus gtx1070. Ylikellotettunahan nuo menee tehoiltaan gtx1080>gtx980ti>gtx1070. Eli eipä se gtx980ti:n omistajien tehojen puolesta kannattanut gtx1080 ostaa, nvidiakin sitä markkinoi gtx980:sen korvaajaksi. Kuten myös gtx1080ti:tä gtx980ti:n korvaajaksi.

Sanoisin kuitenkin ettei ole toissijaista puhua tehonkulutuksesta kun puhutaan nopeudesta. Eli jos uudella arkkitehtuurilla on perf/W parempi -> samalla wattimäärällä saadaan enempi tehoa pihalle vaikka pysyttäisiin samalla viivanleveydellä(kuten 28nm kepler vs maxwell). Voltastakin tiedetään sen verran että perf/W on parantunut pascaliin nähden 40%(fp32) -> eli jos tuo tn. voltaan pohjautuva turing nyt on samalla viivanleveydellä isommalla corella oleva geforce tuote, niin voi seuraava gtx1180 olla 40% nopeampi kuin saman tdp:n omaava gtx1080.
 
Koko keskustelu lähti siitä onko GTX2xxx sarjan julkaisussa odotettavissa samanlaista hyppyä nopeudessa vs GTX1xxx-sarja kuin GTX1xxx sarjan julkaisussa oli GTX9xx sarjaan nähden. On hyvin helppo ymmärtää ettei valmistustekniikan paranemisella ole asiaan ratkaisevaa vaikutusta koska ainahan voi julkaista suuremman tai pienemmän piirin sen mukaan miltä tuntuu. Samalla saadaan enemmän tai vähemmän nopeutta. Se mitä tapahtuu tehonkulutukselle sun muille on toissijaista kun keskustellaan nopeudesta.

Energiatehokkuudella on hyvin olennainen merkitys näytönohjaimen nopeudelle, koska se näytönohjain pitää saaada jäähdytettyä ja ruokittua riittävällä sähköllä.

Jos energiatehokkuutta ei saada parannettua, ei voida julkaista kuluttajille nopeampia näytönohjaimia, koska ne eivät toimi kuluttajien virtalähteillä eikä koteloilla. Ja palvelinkeskuksissakin sähkö on oleellisimpia kustannuksia, halutaan mahdollisimman energiatehokkaita komponentteja.

Tämä tuli meillä jo töissä vastaan jopa ammattilaiskoneen kanssa, kalliiseen Lenovon Xeonilla varustettuun tehotyöasemaan ei saatu kiinni Furyä koska virtalähteessä ei riittänyt jerkku, eikä merkkikoneeseen saanut vaihdettua virtalähdettä kun sen liitäntä oli epästandardi. Työkaverin piti siis koodailla OpenCL-koodia tuolle Furylle, toisella työkaverilla oli sitten Pascal ja kolmannella Vega, ja koodia piti ajaa kaikilla kolmella näyttiksellä.


Ja energiatehokkuuteen vaikuttaa sekä
1) valmistustekniikka
2) arkkitehtuuri, kuinka paljon sähköä tuhlataan/säästetään tekemällä asiat tyhmästi tai fiksusti
3) kellotaajuus ja jännite. Tekemällä järeämmän piirin ja ajamalla sitä pienemmällä jännitteellä ja kellolla saa saman rinnakkaisen suorituskyvyn pienemmällä sähkönkulutuksella. Tässäkään ei kuitenkaan voi mennä liian pitkälle.
 
Viimeksi muokattu:
Se hymiö oli siellä ihan tarkoituksella. Tuon esimerkin jälkeen ei luulisi olevan epäselvää ettei uuden valmistustekniikan ensimmäisellä piirillä saatu NOPEUSetu saati se montaako valmistustekniikan parannusta se vastaa ole välttämättä mitään tekemistä sen kanssa paljonko valmistustekniikka absoluuttisesti paranee.

Voisitko keksiä vielä typerämpiä olkiukkoja?

Ja siksi valmistustekniikan speksivertailut ym. voi ihan aiheesta ignoroida.

Ymmärrätkö nyt yhtään, mitä valmistustekniikan spekseillä tarkoitetaan?

:facepalm:

Eli kun sinun käyttämäsi typerä mittari voi antaa huonoja tuloksia, niin sen perusteella voidaan ignoroida se toinen, paljon järkevämpi mittari, jossa ei ole mitään epäselvyyksiä tai tulkinnanvaraisuuksia.

Niinkuin oikeasti.

Logiikkasi on täysin nurinkurista.
 
Energiatehokkuudella on hyvin olennainen merkitys näytönohjaimen nopeudelle, koska se näytönohjain pitää saaada jäähdytettyä ja ruokittua.

Jos energiatehokkuutta ei saada parannettua, ei voida julkaista kuluttajille nopeampia näytönohjaimia, koska ne eivät toimi kuluttajien virtalähteillä eikä koteloilla.

Tämä tuli meillä jo töissä vastaan jopa ammattilaiskoneen kanssa, kalliiseen Lenovon Xeonilla varustettuun tehotyöasemaan ei saatu kiinni Furyä koska virtalähteessä ei riittänyt jerkku, eikä merkkikoneeseen saanut vaihdettua virtalähdettä kun sen liitäntä oli epästandardi. Työkaverin piti siis koodailla OpenCL-koodia tuolle Furylle, toisella työkaverilla oli sitten Pascal ja kolmannella Vega, ja koodia piti ajaa kaikilla kolmella näyttiksellä.


Ja energiatehokkuuteen vaikuttaa sekä
1) valmistustekniikka
2) arkkitehtuuri, kuinka paljon sähköä tuhlataan/säästetään tekemällä asiat tyhmästi tai fiksusti
3) kellotaajuus ja jännite. Tekemällä järeämmän piirin ja ajamalla sitä pienemmällä jännitteellä ja kellolla saa saman rinnakkaisen suorituskyvyn pienemmällä sähkönkulutuksella. Tässäkään ei kuitenkaan voi mennä liian pitkälle.

Merkitystä on lähinnä niissä näytönohjaimissa joissa laitetaan tehot tappiin. Vuosia sitten ei tarvittu juppinäytönohjainta 300 watin rajan hätyyttelyyn. Nykyisin pitää iskeä tiskiin karkeasti 500 euroa jotta päästään edes 200 watin kulutuksen päälle. Kun virrankulutukset ovat laskussa ja virtalähteiden perustaso (ja wattimäärä) kehittyy, yhä harvemman tarvitsee kiinnittää suurempaa huomiota virtalähteeseen.

Tuo esimerkki osoittaa taas kerran sen ettei työpaikoilla tajuta näistä asioista mitään kun hankintoja tehdään. Kallis työasema jonka poweri ei riitä yhden piirin näytönohjaimelle. Huutonaurua.

Voisitko keksiä vielä typerämpiä olkiukkoja?

Yritän.

Ymmärrätkö nyt yhtään, mitä valmistustekniikan spekseillä tarkoitetaan?

:facepalm:

Eli kun sinun käyttämäsi typerä mittari voi antaa huonoja tuloksia, niin sen perusteella voidaan ignoroida se toinen, paljon järkevämpi mittari, jossa ei ole mitään epäselvyyksiä tai tulkinnanvaraisuuksia.

Niinkuin oikeasti.

Logiikkasi on täysin nurinkurista.

Totta kai ymmärrän. Ongelma on siinä etteivät nuo speksit merkitse asian suhteen mitään elleivät ne ole rajoittava tekijä. Joskus aiemmin ne jossain määrin olivat. Kärjistetysti kuluttajatason huippupiirille mietittiin niin suuri tehonkulutus kuin kehdattiin ja siltä pohjalta katsottiin kuinka suuri piiri voi olla ja millä kelloilla. Nykyisin kuluttajatason huippupiirin täytyy olla todella suuri (liian suuri) ja sille laittaa järjettömät kellot jotta tehonkulutus oikeasti rajoittaa. Seuraavassa sukupolvessa ongelma on vielä pienempi.

Eli jos aiemmin ongelma oli "ei pystytä tekemään parempaa koska speksit rajoittavat", nyt voidaan miettiä sopivin koko piirille jotta saadaan mahdollisimman paljon rahaa. Tehonkulutus tai piirin koko eivät ole minkäänlainen rajoite nykyisinkään Nvidian puolella ennen kuin päästään lähemmäs tuhatta euroa.

Koska lähemmäs tuhannen euron näytönohjainta ei yleensä julkaista ensimmäisten joukossa, valmistustekniset speksit eivät ole minkäänlainen rajoite eikä niillä siten ole mitään merkitystä sen suhteen millainen näytönohjain voidaan julkaista aluksi.

Mm. sen takia en usko GTX2xxx sarjan tuovan valmistustekniikan vaihtuessa läheskään saman tason parannusta kuin GTX1xxx toi.
 
Paljon kuluttavia näyttiksiä ei ole, kun AMD:llä homma kusahti, eikä ole kilpailua. Nvida pääsee vähemmällä.
AMD:n puolella sitten virtaa meneekin:
Sapphire Radeon RX Vega 64 Nitro+ Review
Eli ylä-keskitason kortilla saadaan helposti menemään se 320W, johon tuollainen ilmajäähy vielä jotenkin kykenee..
 
Viimeksi muokattu:
Paljon kuluttavia näyttiksiä ei ole, kun AMD:llä homma kusahti, eikä ole kilpailua. Nvida pääsee vähemmällä.
AMD:n puolella sitten virtaa meneekin:
Sapphire Radeon RX Vega 64 Nitro+ Review
Eli ylä-keskitason kortilla saadaan helposti menemään se 320W, johon tuollainen ilmajäähy vielä jotenkin kykenee..
Riippuu ihan tasan siitä mitä pelaa. Omassa koneessa on juuri tuo kortti ja esimerkiksi Everquest 2 high asetuksilla vie AMD:n overlayn mukaan alle 30W. Oli lukema tarkka tai ei, niin kulutus on joka tapauksessa niin vähäinen, että kortin lämpöohjatut tuulettimet ovat suurimman osan ajasta pysähdyksissä tuota pelatessa.
 
Paljon kuluttavia näyttiksiä ei ole, kun AMD:llä homma kusahti, eikä ole kilpailua. Nvida pääsee vähemmällä.
AMD:n puolella sitten virtaa meneekin:
Sapphire Radeon RX Vega 64 Nitro+ Review
Eli ylä-keskitason kortilla saadaan helposti menemään se 320W, johon tuollainen ilmajäähy vielä jotenkin kykenee..

Custom kortti kyseessä joka testissä tuntuu käyttäytyvän varsin erikoisesti. Vie enemmän virtaa mutta suoriutuu heikommin kuin refu kortti paitsi muutamaa poikkeusta lukuunottamatta. Pääasiassa kuitenkin tuo custom ja refu näytti pieksevän tuon GTX1080 joka on se mikä merkitsee, sitä vastaanhan noi kortit on tehty kilpailemaan.

Testitulokset oli senverran erikoista katseltavaa että tainnu tuon kortin säätäminen epäonnistua.
 
Custom kortti kyseessä joka testissä tuntuu käyttäytyvän varsin erikoisesti. Vie enemmän virtaa mutta suoriutuu heikommin kuin refu kortti paitsi muutamaa poikkeusta lukuunottamatta. Pääasiassa kuitenkin tuo custom ja refu näytti pieksevän tuon GTX1080 joka on se mikä merkitsee, sitä vastaanhan noi kortit on tehty kilpailemaan.

Testitulokset oli senverran erikoista katseltavaa että tainnu tuon kortin säätäminen epäonnistua.

Noiden Vegojen virrankulutus ja toiminta nyt vain vaihtelee, ei siinä sinänsä mitään erikoista ole.
Kyllähän se AMD alunperin suunnitteli kilpailevansa 1080Ti :n Kanssa, mutta homma meni reisille. Saatiin aikaan kortti, joka:
1. On kallis valmistaa (Olisi vielä ok, jos kepittäisi 1080 Ti:n)
2. Valmistusmäärät kusi (myytiin "ei oota" pelaajille pirun pitkään ja hinnat raketoivat).
3. Mainostettuja ominaisuuksia ei saatu toimimaan.
4. Kortti kuumenee tehdasasetuksilla enemmän, kuin 1080 Ti ja suorituskyky taas on vain miltei 1080:n luokkaa.

Eli AMD:ltä todellakin epäonnistui tuo Vegan kanssa säätäminen, melkoisen pahasti. AMD:n onneksi tosin mainausbuumi pelasti tilanteen, eli AMD:llä kävi mielettömän hyvä "onni onnettomuudessa" tuon vegan kanssa.
 
Noiden Vegojen virrankulutus ja toiminta nyt vain vaihtelee, ei siinä sinänsä mitään erikoista ole.
Kyllähän se AMD alunperin suunnitteli kilpailevansa 1080Ti :n Kanssa, mutta homma meni reisille. Saatiin aikaan kortti, joka:
1. On kallis valmistaa (Olisi vielä ok, jos kepittäisi 1080 Ti:n)
2. Valmistusmäärät kusi (myytiin "ei oota" pelaajille pirun pitkään ja hinnat raketoivat).
3. Mainostettuja ominaisuuksia ei saatu toimimaan.
4. Kortti kuumenee tehdasasetuksilla enemmän, kuin 1080 Ti ja suorituskyky taas on vain miltei 1080:n luokkaa.

Eli AMD:ltä todellakin epäonnistui tuo Vegan kanssa säätäminen, melkoisen pahasti. AMD:n onneksi tosin mainausbuumi pelasti tilanteen, eli AMD:llä kävi mielettömän hyvä "onni onnettomuudessa" tuon vegan kanssa.

Missä AMD on markkinoinut edes puolijulkisesti Vegaa 1080Ti:tä vastaan? Silloin kun AMD Vegaa suunnitteli, ei 1080Ti:stä ollu tietoakaan.

Ilmeisesti nvidialla hinnat sitten oli MSRP tuossa talvella kokoajan? Ihan naurettavaa jeesustelua sinulta tuo että hinnat nousi kun kaikki tietää että KAIKKIEN näytönohjainten hinnat nousi pilviin ja syynä ei ollut se että valmistusmäärät kusi, vaan se että mainaajat osti kaiken hinnalla millä hyvänsä.
AMD käsittääkseni poltti näppinsä edellisessä mainausboomissa, joten olivat varovaisempia nyt. nvidia taisi vuorostaan ahneuttaan mennä tuohon miinaan jos se kuiske siitä että 300 000 piiriä on palautettu pitää paikkaansa.

Mitä ominaisuuksia ei saatu toimimaan? Joku ominaisuus oli jota ilmeisesti lupailtiin että ajurit sen hoitaisi, mutta se taitaa olla niin että vaatii pelin valmistajalta panostusta jotta se saadaan käyttöön. Mutta jos tuo on mielestäsi toimimaton ominaisuus niin ok.

Ei tuo oma kortti ainakaan ole liikaa kuumentunut ja pelitehoja löytyy minun käyttöön aivan riittävästi, eli olen varsin tyytyväinen Vegaan, jos en olisi niin olisin myynyt pois tuossa mainausboomin aikana ja tehnyt voittoa.
 
Missä AMD on markkinoinut edes puolijulkisesti Vegaa 1080Ti:tä vastaan? Silloin kun AMD Vegaa suunnitteli, ei 1080Ti:stä ollu tietoakaan.

Ilmeisesti nvidialla hinnat sitten oli MSRP tuossa talvella kokoajan? Ihan naurettavaa jeesustelua sinulta tuo että hinnat nousi kun kaikki tietää että KAIKKIEN näytönohjainten hinnat nousi pilviin ja syynä ei ollut se että valmistusmäärät kusi, vaan se että mainaajat osti kaiken hinnalla millä hyvänsä.
AMD käsittääkseni poltti näppinsä edellisessä mainausboomissa, joten olivat varovaisempia nyt. nvidia taisi vuorostaan ahneuttaan mennä tuohon miinaan jos se kuiske siitä että 300 000 piiriä on palautettu pitää paikkaansa.

Mitä ominaisuuksia ei saatu toimimaan? Joku ominaisuus oli jota ilmeisesti lupailtiin että ajurit sen hoitaisi, mutta se taitaa olla niin että vaatii pelin valmistajalta panostusta jotta se saadaan käyttöön. Mutta jos tuo on mielestäsi toimimaton ominaisuus niin ok.

Ei tuo oma kortti ainakaan ole liikaa kuumentunut ja pelitehoja löytyy minun käyttöön aivan riittävästi, eli olen varsin tyytyväinen Vegaan, jos en olisi niin olisin myynyt pois tuossa mainausboomin aikana ja tehnyt voittoa.

Tottakait oli tietoa, kyllä AMD:kin osaa arvioida tilannetta eteenpäin. Vega nyt vain ei onnistunut ja sen pituinen se ja nyt ei sitten ole kilpailua tuolla yläpäässä.

Sama ominaisuus, jota lupailtiin toimii Nvidialla, AMD nyt vain mokasi asian jotenkin, ilmeisesti kohtuu perusteellisesti ihan rautatasolla, kun ei tullut ajurikorjausta asiaan.

Ei AMD mitään varovainen ole ollut. Vegaa vain ei ole pystytty valmistamaan suuria määriä (GPU ja muistit lämiskä kokonaisuutta), joten ei ole voinut tulla mitään ylijäämiä.

Ei joku 300 000 piiriäkään mikään isompi ongelma ole, tiputetaan vain hintoja ja pistetään kortit myyntiin jonkinverran halvemmalla (esim -30% hinnoin), niin mielipuoliset mainaajat ne kyllä ostavat edelleen, jos pelaajia ei jostain syystä kiinnosta. Jos epäillään että kilpailevat tulevien korttien kanssa, niin pistetään myyntiin sopivasti rampautettuna.

Tosin eipä tuon paikkansapitävyyttä ole vahvistettu, vaikka aikaa on jo kulunut, joten voi olla hyvin tuulesta tempaistu luku.
 
Tottakait oli tietoa, kyllä AMD:kin osaa arvioida tilannetta eteenpäin. Vega nyt vain ei onnistunut ja sen pituinen se ja nyt ei sitten ole kilpailua tuolla yläpäässä.

Sinulla tuntuu olevan erittäin tarkkaa tietoa AMD:n harrastamasta teollisuusvakoilusta. Kumma kun eivät sitten onnistunu suoraan kopioimaan nvidian tuotosta.

Vai olisiko nyt niin että sinulta taas pääsi unohtumaan sellainen fakta että Vegan suunnittelu oli aloitettu jo paljon ennen GTX1080 julkaisua. Toisinsanoen ei AMD:llä ollut mitään tietoa edes 1080 tehoista saatikka 1080Ti:n.

Saat vänkyttää ihan niin paljon kuin haluat mutta Vega ei ole koskaan markkinoitu 1080Ti:tä vastaan. Jos sinulla sellainen tieto on AMD:n julkaisemana niin haluaisin sen myös nähdä, eli lähdettä kehiin tai muuten suu kiinni.
 
Tottakait oli tietoa, kyllä AMD:kin osaa arvioida tilannetta eteenpäin. Vega nyt vain ei onnistunut ja sen pituinen se ja nyt ei sitten ole kilpailua tuolla yläpäässä.

Sama ominaisuus, jota lupailtiin toimii Nvidialla, AMD nyt vain mokasi asian jotenkin, ilmeisesti kohtuu perusteellisesti ihan rautatasolla, kun ei tullut ajurikorjausta asiaan.

Ei AMD mitään varovainen ole ollut. Vegaa vain ei ole pystytty valmistamaan suuria määriä (GPU ja muistit lämiskä kokonaisuutta), joten ei ole voinut tulla mitään ylijäämiä.

Ei joku 300 000 piiriäkään mikään isompi ongelma ole, tiputetaan vain hintoja ja pistetään kortit myyntiin jonkinverran halvemmalla (esim -30% hinnoin), niin mielipuoliset mainaajat ne kyllä ostavat edelleen, jos pelaajia ei jostain syystä kiinnosta. Jos epäillään että kilpailevat tulevien korttien kanssa, niin pistetään myyntiin sopivasti rampautettuna.

Tosin eipä tuon paikkansapitävyyttä ole vahvistettu, vaikka aikaa on jo kulunut, joten voi olla hyvin tuulesta tempaistu luku.
Vega onnistui aika hyvin siihen nähden että oli kokonaan uusi arkkitehtuuri AMD:lta ja suhteessa Polarikseen oli ihan ok tehohyppäys. Mutta kuten @JiiPee tuossa jo sanoi, niin myöhässä tulivat. Silloin kun aloittivat Vegan suunnittelun ei ollut mitään tietoa 1080:stä, Ti:llä tai ilman. Vielä paukuttelivat henkseleitä jokunen kuukausi ennen 1080Ti:tä, koska silloinhan heillä oli vielä tulossa markkinoiden nopein pelikäyttöön tarkoitettu kortti, mutta sitten Nvidia julkaisi tuon 1080Ti:n, ja vielä aika hyvällä teholisällä, niin matto meni alta ja täytyi alkaa kellottelemaan Vegasta viimeisiä mehuja ulos. Syitä myöhästymiseen on varmaan monia, mutta yksi vahva kandidaatti on varmasti HBM-muistin saatavuusongelmat.

Ja tosiaan tuota 300 000 GPU:n palautuksen paikkansapitävyyttä voi olla vaikea vahvistaa kun ei ole varmaankaan se miellyttävin uutisoinnin aihe kenellekään asianosaiselle, mutta onhan tuo netti täynnä tuota uutista:
Google
Se että niin moni ihan arvostettukin saitti tuosta on uutisoinut viittaisi siihen että jotain pihviä siinä voi olla. Toisekseen uutisjulkaisusta on vasta pari viikkoa aikaa, niin ehtiihän tuo vielä muuttua. Luulisi nyt kuitenkin että jos ihan uutisankka, niin joku olisi asian jo kiistänyt. Toivottavasti ei nyt kuitenkaan myöhästytä Voltaa/Ampere/Turingia taas entisestään...
 
Toivottavasti ei nyt kuitenkaan myöhästytä Voltaa/Ampere/Turingia taas entisestään...

Niin jos nyt on edes uutta arkkitehtuuria tulossa. Jotain huhuja liikkeellä että 1180 olisi 1080 rebrand.
Voi nvidia fanipojilla mennä kahvijärvet kurkkuun jos tulee refresh.
 
Vega onnistui aika hyvin siihen nähden että oli kokonaan uusi arkkitehtuuri AMD:lta ja suhteessa Polarikseen oli ihan ok tehohyppäys. Mutta kuten @JiiPee tuossa jo sanoi, niin myöhässä tulivat. Silloin kun aloittivat Vegan suunnittelun ei ollut mitään tietoa 1080:stä, Ti:llä tai ilman. Vielä paukuttelivat henkseleitä jokunen kuukausi ennen 1080Ti:tä, koska silloinhan heillä oli vielä tulossa markkinoiden nopein pelikäyttöön tarkoitettu kortti, mutta sitten Nvidia julkaisi tuon 1080Ti:n, ja vielä aika hyvällä teholisällä, niin matto meni alta ja täytyi alkaa kellottelemaan Vegasta viimeisiä mehuja ulos. Syitä myöhästymiseen on varmaan monia, mutta yksi vahva kandidaatti on varmasti HBM-muistin saatavuusongelmat.

Ja tosiaan tuota 300 000 GPU:n palautuksen paikkansapitävyyttä voi olla vaikea vahvistaa kun ei ole varmaankaan se miellyttävin uutisoinnin aihe kenellekään asianosaiselle, mutta onhan tuo netti täynnä tuota uutista:
Google
Se että niin moni ihan arvostettukin saitti tuosta on uutisoinut viittaisi siihen että jotain pihviä siinä voi olla. Toisekseen uutisjulkaisusta on vasta pari viikkoa aikaa, niin ehtiihän tuo vielä muuttua. Luulisi nyt kuitenkin että jos ihan uutisankka, niin joku olisi asian jo kiistänyt. Toivottavasti ei nyt kuitenkaan myöhästytä Voltaa/Ampere/Turingia taas entisestään...

Ihan sama tilanne se on ollut aikoinaan silloinkin, kun AMD kilpaili vielä tasaveroisesti Nvidian huippupään kanssa. Ei niiden piirien suunnittelun alussa ollut ikinä tietoa, mitä kilpailijalla on ulkona, kun piiri on valmis.

AMD:n ongelma on ollut pitkään se, että ei ollut yksinkertaisesti rahaa ja porukkaa potkittiin ulos ja poistui myös itse. Sellainen nyt yksinkertaisesti hidastaa ja haittaa huomattavasti esim GPU:iden kehitystä. JOS AMD:llä on panostettu nyt myös GPU puolelle resursseja, niin kilpailukykyistä tuotetta pitäisi tulla 2-4:ssä vuodessa, olettaen että Nvidia ei etene kovin vauhdilla..
 
Vega onnistui aika hyvin siihen nähden että oli kokonaan uusi arkkitehtuuri AMD:lta ja suhteessa Polarikseen oli ihan ok tehohyppäys.

Ei ollut kokonaan uusi arkkitehtuuri; Perustui hyvin selvästi samaan GCN-jatkumoon, mitä polaris oli, oli vain sen seuraava iteraatio.

Ja Vega 10-piirillä piirin koko yli tuplaantui Polaris 10-piiriin nähden mutta suorituskyky ei läheskään tuplaantunut, että sen suhteen tehonhyppäys oli aika huono.

Mutta kuten @JiiPee tuossa jo sanoi, niin myöhässä tulivat. Silloin kun aloittivat Vegan suunnittelun ei ollut mitään tietoa 1080:stä, Ti:llä tai ilman.

juu.

Vielä paukuttelivat henkseleitä jokunen kuukausi ennen 1080Ti:tä, koska silloinhan heillä oli vielä tulossa markkinoiden nopein pelikäyttöön tarkoitettu kortti, mutta sitten Nvidia julkaisi tuon 1080Ti:n, ja vielä aika hyvällä teholisällä, niin matto meni alta ja täytyi alkaa kellottelemaan Vegasta viimeisiä mehuja ulos.

Tosin itse GP102-piiri oli ulkona yli 10 kk ennen Vegan julkaisua , eikä pitäisi hirveän suurta kristallipalloa tarvita ymmärtääkseen, että nvidia voi julkaista siitä hiukan cripplatun SKUn 1080ti:nä.
 
Mjoo oikeastaan amd:lla oli jo viimeistään ison pascalin julkaisun jälkeen tiedossa(GTC 2016), minkä Nvidia vähintään tulee tehoissa saavuttamaan. Eli yli vuosi ennen Vega FE:n julkaisua. Yllätyksenä amd:lle saattoi tulla että nvidia julkaisi myös toisen ison piirin ja eriytti peli ja compute puolen.
 
Tosin itse GP102-piiri oli ulkona yli 10 kk ennen Vegan julkaisua , eikä pitäisi hirveän suurta kristallipalloa tarvita ymmärtääkseen, että nvidia voi julkaista siitä hiukan cripplatun SKUn 1080ti:nä.
Jep, kirjoitin tämän osan kommentistani hieman provosoiden koska teki mieli vähän herättää älämölöä. Silti olisi mielenkiintoista tietää oliko heillä ihan aito uskomus vielä 2016 lopussa kun salamyhkäisesti antoivat olettaa vaikka minkälaisen superpiirin olevan tulossa, että saavat piiristä puristettua sen verran mehua ulos? Se että Koduri lähti aika nopsaan tuon Vegan julkaisemisen jälkeen vähän kertoisi että ainakin oli talon sisällä annettu olettaa että käsissä olisi tehokkaampi tuote.

Ihan sama tilanne se on ollut aikoinaan silloinkin, kun AMD kilpaili vielä tasaveroisesti Nvidian huippupään kanssa. Ei niiden piirien suunnittelun alussa ollut ikinä tietoa, mitä kilpailijalla on ulkona, kun piiri on valmis.

AMD:n ongelma on ollut pitkään se, että ei ollut yksinkertaisesti rahaa ja porukkaa potkittiin ulos ja poistui myös itse. Sellainen nyt yksinkertaisesti hidastaa ja haittaa huomattavasti esim GPU:iden kehitystä. JOS AMD:llä on panostettu nyt myös GPU puolelle resursseja, niin kilpailukykyistä tuotetta pitäisi tulla 2-4:ssä vuodessa, olettaen että Nvidia ei etene kovin vauhdilla..

Tottapa tämä. Vaikka Radeon Technologies Group onkin oma erillinen yksikkönsä AMD:n sisällä, niin kyllä siihenkin vaikuttaa jos prosessoriyksikkö tekee huolellista persnettoa toisaalla. Jostain luin että ovat viime vuosina rekrynneet urakalla porukkaa RTG:hen eli osaajapulaaja on, mutta on aina haastava saada koko organisaatio toimimaan tehokkaasti jos uutta väkeä tulee sieltä sun täältä sisälle hela tiden. Yritin etsiä lähdettä väitteelleni, mutta sitäpä en nyt enää löytänyt, mutta muistikuva olisi että AMD:n noin 9000 henkilön työvoimasta joku 3500 olisi RTG:ssä. Nvidialla yhteensä noin 11000 ja Intelillä 100 000...että jos katsotaan miten tehokas tuo AMD:n organisaatio tuloksiin/tuotteisiin nähden on, niin hattua täytyy nostaa. Zenin ansiosta rahaa tulee kuitenkin nyt sisäänkin päin + noi säädöt kiinan markkinoilla tuovat ainakin lyhyessä juoksussa varmasti jonkun verran massia, joten voisi odottaa että nyt on myös rahaa kehitykseen enemmän.

Intel näyttäisi nyt myös satsaavan GPU-puoleen urakalla. Heillähän oli joku roadmappi tuoda 2020 mennessä oma tehokas erillisnäytönohjain markkinoille. Kojuri lähti tuonne ja niin näytti nyt menneen myös Chris Hook:
Intel hires another AMD employee to promote its future discrete graphics cards | PC Gamer

Asiasta kiinnostuneille Anandtechin katsaus RTG:n organisaatioon:
AMD Reassembles the Radeon Technologies Group: New Leadership Hired & Semi-Custom Folded Into RTG
 
Viimeksi muokattu:
Blender-Special-AMD-vs-NVIDIA-Render-Tests.png
mikähän tossa kusee. Artikkelin mukaan tuo testattiin monta kertaa samalla tuloksella
 
Blender-Special-AMD-vs-NVIDIA-Render-Tests.png
mikähän tossa kusee. Artikkelin mukaan tuo testattiin monta kertaa samalla tuloksella

Huomioimisen arvoista, että tuossa verrataan 8GB Vega 64 korttia 11GB 1080 Ti korttiin, koska molemmat ovat pelikortteja. Tuloksissa 8GB Vega 64 päihitti myös 12GB Titan Xp kortin samalla tapaa, mutta pienemmällä marginaalilla.
 
Blender-Special-AMD-vs-NVIDIA-Render-Tests.png
mikähän tossa kusee. Artikkelin mukaan tuo testattiin monta kertaa samalla tuloksella

Ei välttämättä kuse mikään. Eihän ole mitään yllättävää siinä että AMD:n "täysi" piiri hakkaa Nvidian karsitun tuollaisissa hommissa. Ihan vastaavasti voisi sanoa jonkin asian "kusevan" kun AMD vie Nvidiaa kryptomainauksessa :think:
 
Onhan se poikkeus muttei se silti välttämättä tarkoita missään olevan vikaa. Ehkä Nvidian piirissä joku asia hoituu todella hitaasti ja AMD tekee sen selvästi nopeammin? Kun aletaan karsimaan, joku karsintakohde saattaa osua "väärin", eli tuo testi testaa jotain josta Nvidia karsi kunnolla.
 

Statistiikka

Viestiketjuista
262 405
Viestejä
4 550 267
Jäsenet
74 984
Uusin jäsen
Tere

Hinta.fi

Back
Ylös Bottom