• Live: io-techin Tekniikkapodcast tänään perjantaina noin klo 15:05 alkaen. Keskustellaan viikon mielenkiintoisimmista tietotekniikka- ja mobiiliaiheista. Suora lähetys YouTubessa. Tule mukaan katselemaan ja keskustelemaan! Linkki lähetykseen >>

NVIDIA-spekulaatioketju (Lovelace ja tulevat sukupolvet)

3dmark lukee vissiin kellot ihan sen benchmark runin alkuun eli kun näyttis on vielä täysin viileä ja boostaa monta pykälää ylemmäs kuin lämmettyään.

Tämä selittää miksi noissa vakiona ajelluissa korteissakin näkyy ylikorkeat kellot.
 
Totta vanhojen versioiden osalta, mutta nykyään 3DMark v2.12 uutena ominaisuutena piikkikellot niistä sekä averagen (oletus: monitorointidata saatiin kerättyä) tulosruudulla. Tietty tuo versio tuli vasta viime viikolla, joten menee hetki että uudet tulokset ovat järjestään sillä. Aiemminkin tämän sai graafista katsottua jos oli tulostiedosto auki itse benchmarkissa, mutta onlinepalvelussa näkyi vain piikkikellot joka oli käytännössä se kovin hetki turboa koko ajon ajalta ihan alusta. Ei itse scannista vaan monitoroinnista ajon aikana, mutta piikkikellot kuitenkin.
 
Tuossa on kyllä pointtia. luvut ei täsmää vuotojen core arvoihin. Eli vuotohuhut on joko pielessä, tuo on joko 3080, tai tuo on 3090 jota on ajettu matalalla power targetilla/lämpörasituskokeessa, jolloin maksimiboostit on raportoitu, mutta kortti on throttlannut testin ajan. Tai koko 3dmark tulos on feikki.

Öh ihan linjassa toi on. jos cuda määrä on 5248 niin se on pikkusen reilut 20% enemmän kuin 2080Ti ja piikki kellot kun on about sama niin siinä on vielä reilu 10 pinnaa teholisää jostain muusta, varmaan kovemmat ajonaikaiset kellot + ipc + muistikaista.

Täällä kun haikaillaan jonkun 980ti -> 1080ti 75% teholisän perään niin kannattaa muistaa että tuossa hypyssä tuli reilu 27% lisää cudaa ja peräti 50% lisää kelloja. 980ti:n ainakin ilmoitetut kellot on varsin vaatimattomat. Nyt on ihan turha odottaa tuollaista loikkaa kelloihin.
1080Ti -> 2080Ti cuda lisä on reilu 21% ja ilmoitetut kellot aika sama.

Eli eiköhän sieltä ole tulossa sellainen hiukan suurempi parannus mitä toi 1080Ti -> 2080Ti oli. Kyseessä ei kuitenkaan ole lopputuotteen vuoto jos on edes aito vuoto. Itte veikkaan että nvidia on panostanut pääasiassa RT suorituskykyyn. Shader suorituskyky nvidialla on jo hinkattu niin hyväksi että ei sieltä oikein muuten saa puristettua lisää tehoa kuin cuda määrää lisäämällä ja kelloja nostamalla.

EDIT: Niin tosiaan unehtu että nvidialla toteutuneet kellot on jotain ihan muuta kuin ilmoitetut. Kuten esim tässä näkyy


siellä 1900MHz pyörii kellot kokoajan vaikka FE:lle on ilmoitettu 1635MHz. Onko tää ollu miten pitkään nvidialla näin että toteutuneet kellot on reilusti korkeammat? Tuossa on kuitenkin 16% ero.
 
Viimeksi muokattu:
Öh ihan linjassa toi on. jos cuda määrä on 5248 niin se on pikkusen reilut 20% enemmän kuin 2080Ti ja piikki kellot kun on about sama niin siinä on vielä reilu 10 pinnaa teholisää jostain muusta, varmaan kovemmat ajonaikaiset kellot + ipc + muistikaista.

Täällä kun haikaillaan jonkun 980ti -> 1080ti 75% teholisän perään niin kannattaa muistaa että tuossa hypyssä tuli reilu 27% lisää cudaa ja peräti 50% lisää kelloja. 980ti:n ainakin ilmoitetut kellot on varsin vaatimattomat. Nyt on ihan turha odottaa tuollaista loikkaa kelloihin.
1080Ti -> 2080Ti cuda lisä on reilu 21% ja ilmoitetut kellot aika sama.

Eli eiköhän sieltä ole tulossa sellainen hiukan suurempi parannus mitä toi 1080Ti -> 2080Ti oli. Kyseessä ei kuitenkaan ole lopputuotteen vuoto jos on edes aito vuoto. Itte veikkaan että nvidia on panostanut pääasiassa RT suorituskykyyn. Shader suorituskyky nvidialla on jo hinkattu niin hyväksi että ei sieltä oikein muuten saa puristettua lisää tehoa kuin cuda määrää lisäämällä ja kelloja nostamalla.
Lukeutuuko tämä nyt
"Toivon että sieltä tulee tuhnu kategoriaan"
eli kyse ei olekkaan ihan neutraalista järkevästä arvioinnista vaan omista toiveista?

Mutta. otetaan nyt sitten tosta sun kuvasta. 100*2/146=1,37 eli tuplattu Navi 10 olisi 37% nopeampi kuin 2080Ti ja siihen päälle ~15% kelloero joka tuossa "vuodossa" on niin ollaan yli 50% ohi 2080Ti:n.
Tästä voi nyt sitten päätellä että Amd.lla tulisi olemaan 20% nopeampi ohjain kuin mitä Ampere 5248 ytimellään olisi :D

Mitäs sitä nyt enään jännittämään kun "faktat" on näköjään jo pöydässä.

Nvidia +30%
Amd +50%
Haluatko lukita vastauksen? ;)
 
Täällä kun haikaillaan jonkun 980ti -> 1080ti 75% teholisän perään niin kannattaa muistaa että tuossa hypyssä tuli reilu 27% lisää cudaa ja peräti 50% lisää kelloja. 980ti:n ainakin ilmoitetut kellot on varsin vaatimattomat. Nyt on ihan turha odottaa tuollaista loikkaa kelloihin.
1080Ti -> 2080Ti cuda lisä on reilu 21% ja ilmoitetut kellot aika sama.
Voihan toki nvidia halutessaan tehdä pelkästään jotain alle 700mm2 budjettipiirejä ja siten tiputtaa itsensä samalle tasolle AMD:n kanssa, sitä tuskin toivoo kukaan. Samaan alaan ku 2080ti pitäisi onnistua +100% cudaa, kelloja taas ehkä korkeintaan jollain arkkitehtuurioptimoinneilla.
 
Viimeksi muokattu:
Jos nyt leikitään että tuo olisi vaan 30% nopeampi kuin vakio 2080Ti
Niin eipä herätä minkäänlaista mielenkiintoa koska
Oma vesillä oleva 2080Ti pysyy vakaana 2085mhz kelloilla ja on tällöin vakioo n.12-15% nopeampi.
Eroa olisi olemattomat ~15% vs RTX3080

Joten empä usko näin olemattomiin parannuksiin Nvidial 7nm näytönohjaimilta mutta jos kyseessä olisi Turing 12nm"16nm" refresh sitten uskoisin.
 
Voihan toki nvidia halutessaan tehdä pelkästään jotain alle 800mm2 budjettipiirejä ja siten tiputtaa itsensä samalle tasolle AMD:n kanssa, sitä tuskin toivoo kukaan. Samaan alaan ku 2080ti pitäisi onnistua +100% cudaa, kelloja taas ehkä korkeintaan jollain arkkitehtuurioptimoinneilla.
Joku roti nyt, "alle 800mm2 budjettipiirejä" kun tuon kokoisia piirejä on ylipäätään tehty (näyttis/laskentasiruihin) kaksi historiassa, eikä kumpikaan niistä ole ollut yhdessäkään pelinäytönohjaimessa (ellei joku nyt sitten laske Titan Voltaa pelinäytönohjaimeksi)
Kuinka paljon lisää ajattelit haluta näyttiksistä muuten maksaa? Se 7nm prosessilla (tai 8nm, 10nm, mitä näitä spekuloituja vaihtoehtoja kaikkia onkaan, pätee kaikkiin) tehty siru on aika tavalla kalliimpi valmistaa kuin saman kokoinen siru vanhemmalla prosessilla.

Jos nyt leikitään että tuo olisi vaan 30% nopeampi kuin vakio 2080Ti
Niin eipä herätä minkäänlaista mielenkiintoa koska
Oma vesillä oleva 2080Ti pysyy vakaana 2085mhz kelloilla ja on tällöin vakioo n.12-15% nopeampi.
Eroa olisi olemattomat ~15% vs RTX3080

Joten empä usko näin olemattomiin parannuksiin Nvidial 7nm näytönohjaimilta mutta jos kyseessä olisi Turing 12nm"16nm" refresh sitten uskoisin.
Vertailet kellotettua kellottamattomaan, eihän siinä ole mitään järkeä?
Lisäksi kannattaa muistaa että tuollaisia (tai itseasiassa jopa alle) ne suorituskykyhyppäykset ovat yleensä olleet, Pascal oli poikkeus välissä.
 
Jos nyt leikitään että tuo olisi vaan 30% nopeampi kuin vakio 2080Ti
Niin eipä herätä minkäänlaista mielenkiintoa koska
Oma vesillä oleva 2080Ti pysyy vakaana 2085mhz kelloilla ja on tällöin vakioo n.12-15% nopeampi.
Eroa olisi olemattomat ~15% vs RTX3080

Joten empä usko näin olemattomiin parannuksiin Nvidial 7nm näytönohjaimilta mutta jos kyseessä olisi Turing 12nm"16nm" refresh sitten uskoisin.
en minäkään usko, mutta jos huhu samasta coremäärästä on totta ja muistikaista iso ja nopeammat muistit niin jo 3080 on nopeampi kuin 2080ti.
minulle oli yllätys jos jo samalla kelloilla +30%
 
Joku roti nyt, "alle 800mm2 budjettipiirejä" kun tuon kokoisia piirejä on ylipäätään tehty (näyttis/laskentasiruihin) kaksi historiassa, eikä kumpikaan niistä ole ollut yhdessäkään pelinäytönohjaimessa (ellei joku nyt sitten laske Titan Voltaa pelinäytönohjaimeksi)
Kuinka paljon lisää ajattelit haluta näyttiksistä muuten maksaa?
Korjasin tohon 700mm2, ku muistin väärin minkä kokonen toi edellinen härveli oli. Nvidialla on ollut trendinä kasvattaa noita piirejä huolimatta valmistusprosessin kutistumisesta. Näyttiksestä pitää maksaa joku hinta joo, mutta eiköhän kilpailu pidä noi halotuotteet suhteessa halvempina kuin nykyisessä sukupolvessa, etenkin jos tää +30% tuhnu on se tuleva huippupiiri ja kuninkuus siirtyy AMD:lle.
 
Korjasin tohon 700mm2, ku muistin väärin minkä kokonen toi edellinen härveli oli. Nvidialla on ollut trendinä kasvattaa noita piirejä huolimatta valmistusprosessin kutistumisesta. Näyttiksestä pitää maksaa joku hinta joo, mutta eiköhän kilpailu pidä noi halotuotteet suhteessa halvempina kuin nykyisessä sukupolvessa, etenkin jos tää +30% tuhnu on se tuleva huippupiiri ja kuninkuus siirtyy AMD:lle.
Niitä on kasvatettu koska on ollut pakko, kun valmistusprosessi ei pienene pitää kaivaa suorituskykyparannukset muualta ja helpoin reitti on yleensä järjettömän hyvin rinnakkaistuvassa hommassa sirun koon kasvattaminen (=lisää laskentayksiköitä). Viimeksi kun prosessi vaihtui uuden sukupolven nopein pelisiru oli pienempi kuin edeltävän, samoin sitä edellisellä, en jaksa katsoa pidemmälle historiaan mutta lähes taatusti sama näkyisi siellä pidemmällekin. (16 ja 12nm on sama prosessi)
Se nyt on äärimmäisen epätodennäköistä että tuo olisi NVIDIAn huippupelipiiri, jos on niin siellä on tapahtunut joku todella ison luokan katastrofi.
 
Lukeutuuko tämä nyt
"Toivon että sieltä tulee tuhnu kategoriaan"
eli kyse ei olekkaan ihan neutraalista järkevästä arvioinnista vaan omista toiveista?

Ei vaan realismiin ja peilaamalla siihen mitä on lähi historiassa tapahtunut.

Tästä voi nyt sitten päätellä että Amd.lla tulisi olemaan 20% nopeampi ohjain kuin mitä Ampere 5248 ytimellään olisi :D

Mitäs sitä nyt enään jännittämään kun "faktat" on näköjään jo pöydässä.

Nvidia +30%
Amd +50%
Haluatko lukita vastauksen? ;)

Jos "vuoto" pitää paikkaansa. En todellakaan usko että vuoto pitää paikkaansa. Kellot on liian korkeat ja vertailu oli muutenkin pelkistetty, täysin lineaarisesti suorituskyky ei nouse, vaikka rasterointi onkin erittäin tehokkaasti säikeistyvää kuormaa. Lisäksi toi toki edellyttää sen että AMD ei tunaroi muistikaistan kanssa kuten niin monesti on tehnyt. Lisäksi AMD tuskin julkaisee suoraan täyttä 80CU:n piiriä, eiköhän nvidialta ole opittu että leikattu kannattaa tuoda ensin ja vasta myöhemmin tuoda täysi piiri markkinoille jonka fanipojat kyllä ostaa kalliilla. Mutta AMD:n jutut ei kyllä kuulu tähän lankaan joten se siitä.

Loppuvuodesta voi olla erittäin mielenkiintoiset ajat, sillä pitkästä aikaa näyttää siltä että GPU puolelle saadaan taas kilpailua.

Voihan toki nvidia halutessaan tehdä pelkästään jotain alle 700mm2 budjettipiirejä ja siten tiputtaa itsensä samalle tasolle AMD:n kanssa, sitä tuskin toivoo kukaan. Samaan alaan ku 2080ti pitäisi onnistua +100% cudaa, kelloja taas ehkä korkeintaan jollain arkkitehtuurioptimoinneilla.

Ja niin nvidia myös tulee tekemään. Ei olisi mitään järkeä tuoda markkinoille nyt jotain 800mm2 piiriä, ollaan justiinsa siirtymässä nodeshrinkkiin ja se poltettaisiin heti siihen että saataisiin fanipojille 75% lisää suorituskykyä. Mitäs sitten 1,5v päästä julkaistaisiin kun ei enää piirin kokoa voitaisi kasvattaa?
Ja muistutuksena:
980Ti = 601mm2
1080Ti = 471mm2
2080Ti = 754mm2

Kyllä toi 1080Ti on piirin kooltaan sellainen sweetspot että helposti paljoa sen yli ei kyllä haluta mennä.

Jos nyt leikitään että tuo olisi vaan 30% nopeampi kuin vakio 2080Ti
Niin eipä herätä minkäänlaista mielenkiintoa koska
Oma vesillä oleva 2080Ti pysyy vakaana 2085mhz kelloilla ja on tällöin vakioo n.12-15% nopeampi.
Eroa olisi olemattomat ~15% vs RTX3080

Niin ja sitä tulevaa "3090" ei tietysti mitenkään pysty vesille laittamaan ja kellottamaan sitä maksimiin? :poop:
Ja mitäs jos leikitään että tuo vuoto on engineering sample ja lopputuote ei vastaa tuota vaan on tuosta vielä 5-10% parempi.
 
Niitä on kasvatettu koska on ollut pakko, kun valmistusprosessi ei pienene pitää kaivaa suorituskykyparannukset muualta ja helpoin reitti on yleensä järjettömän hyvin rinnakkaistuvassa hommassa sirun koon kasvattaminen (=lisää laskentayksiköitä). Viimeksi kun prosessi vaihtui uuden sukupolven nopein pelisiru oli pienempi kuin edeltävän, samoin sitä edellisellä, en jaksa katsoa pidemmälle historiaan mutta lähes taatusti sama näkyisi siellä pidemmällekin. (16 ja 12nm on sama prosessi)
Se nyt on äärimmäisen epätodennäköistä että tuo olisi NVIDIAn huippupelipiiri, jos on niin siellä on tapahtunut joku todella ison luokan katastrofi.
No kyllä se voisi sekin olla ilman katastrofia. Varhaiset ajurit, eikä tiedetä todellisia kelloja muisteilla tai GPU:lla. Eli ei juuri mitään.
Jos ajatellaan että on 3080 ja kellot pitää paikkansa, niin sitten on aika jytky tulossa siitä huippumallista. Tuohon kelloja 2200MHz niin ollaan jo lähes 50% yli 2080Ti. Ja ajurioptimoinnit päälle.
 
No kyllä se voisi sekin olla ilman katastrofia. Varhaiset ajurit, eikä tiedetä todellisia kelloja muisteilla tai GPU:lla. Eli ei juuri mitään.
Jos ajatellaan että on 3080 ja kellot pitää paikkansa, niin sitten on aika jytky tulossa siitä huippumallista. Tuohon kelloja 2200MHz niin ollaan jo lähes 50% yli 2080Ti. Ja ajurioptimoinnit päälle.
Entä jos nuo onkin ne todelliset maksimiboostit ja se reaalisuorituskyky (noin suurinpiirtein)? Ei se mikään selviö ole, että kellotaajuus nousee.
 
Entä jos nuo onkin ne todelliset maksimiboostit ja se reaalisuorituskyky (noin suurinpiirtein)? Ei se mikään selviö ole, että kellotaajuus nousee.
Totta, ei selviö mutta pettymys jos ei nouse yhtään. Jos suorituskyky jäisi tuohon huippupiirillä niin olisihan se epäonnistuminen, sanoisin että mahdotonta.
 
Totta, ei selviö mutta pettymys jos ei nouse yhtään. Jos suorituskyky jäisi tuohon huippupiirillä niin olisihan se epäonnistuminen, sanoisin että mahdotonta.
Ei huippumallilla mutta "3080":lla esimerkiksi. "3080 Ti" tai "3090" tai mikä onkaan sitten jossain siellä 50% paikkeilla, tms
 
Ei huippumallilla mutta "3080":lla esimerkiksi. "3080 Ti" tai "3090" tai mikä onkaan sitten jossain siellä 50% paikkeilla, tms

Mikäli huhutut cuda määrät pitää paikkaansa niin 3080 on sama määrä cuda coreja kuin 2080Ti. Kellot vaikuttaisi olevan sama myös eli meinaatko että jostain olisi taiottu 30% IPC parannus? Vai miten meinasit että toi menisi?

Jos vuoto on aito ja cuda vuodot pitää myös paikkaansa niin toi tulos on oltava 3090 tai 3080Ti miksi sitä nyt päättäävät sitten kutsua.

Ja eiköhän se joku 40% parannus kun kortti tulee ulos ole ihan hyvä parannus, focus omissa veikkauksissa on kuitenkin RT suorituskyvyssä jota voi tulla aika rutkasti lisää.
 
Mikäli huhutut cuda määrät pitää paikkaansa niin 3080 on sama määrä cuda coreja kuin 2080Ti. Kellot vaikuttaisi olevan sama myös eli meinaatko että jostain olisi taiottu 30% IPC parannus? Vai miten meinasit että toi menisi?

Minä ottaisin sen suorituskykyparannuksen sillä, että ne ydinmäärät olisi nousseet paljon enemmän kuin mitä "huhut" väittävät.

Käsittääkseni kaikki ydinmääristä puhuneet huhut ovat olleet hyvin epäluotettavia, joko puhtaita feikkejä tai sitten vaan aivotonta(*) spekulaatiota sen perusteella, että "ennen nousseet tämän verran" muttei mitään oikeita vuotoja.

(aivottomalla viittaan siihen, ettei ole yhtään otettu huomioon siihen vaikuttavia muita asioita, MIKSI ne tiettyjen sukupolvien välillä on nousseet juuri sen verran)
 
Viimeksi muokattu:
en minäkään usko, mutta jos huhu samasta coremäärästä on totta ja muistikaista iso ja nopeammat muistit niin jo 3080 on nopeampi kuin 2080ti.
minulle oli yllätys jos jo samalla kelloilla +30%

Nyt taidetaan laskea muistikaistan vaikutus aivan pieleen.

Jos piirin "sisäinen suorituskukyky" kasvaa 75% niin silloin sen muistikaistan pitää kasvaa myös 75% jotta saadaan 75% suorituskykylisä.

Jos "piirin sisäinen suorituskyky kasvaa 75% mutta muistikaista kasvaa vain 50%, muistikaista on tällöin pahempi pullonkaula kuin ennen eikä saada sitä 75% suorituskykylisää vaan tilanteesta riippuen ehkä joku 60-70% suorituskykylisä.

Tai jos tiedetään että kokonaissuorituskyky kasvaa 75% ja muistikaista vain 50%, silloin sen "piirin sisäisen suoriotuskyvyn" pitää kasvaa enemmän kuin 75% koska muistikaista on pahempi pullonkaula joka aiheuttaa enemmän stallaamista.
 
Tai jos tiedetään että kokonaissuorituskyky kasvaa 75% ja muistikaista vain 50%, silloin sen "piirin sisäisen suoriotuskyvyn" pitää kasvaa enemmän kuin 75% koska muistikaista on pahempi pullonkaula joka aiheuttaa enemmän stallaamista.

Ellei vertailtavassa tuotteessa ole ollut "liikaa" muistikaistaa ja pullonkaula pysyy piirin sisäisessä suorituskyvyssä. Tuossa tilanteessa voi päästä lähemmäs sitä 75% vaikka kaista kasvaa vain 50%.
 
Minä ottaisin sen suorituskykyparannuksen sillä, että ne ydinmäärät olisi nousseet paljon enemmän kuin mitä "huhut" väittävät.

Käsittääkseni kaikki ydinmääristä puhuneet huhut ovat olleet hyvin epäluotettavia, joko puhtaita feikkejä tai sitten vaan aivotonta(*) spekulaatiota sen perusteella, että "ennen nousseet tämän verran" muttei mitään oikeita vuotoja.

(aivottomalla viittaan siihen, ettei ole yhtään otettu huomioon siihen vaikuttavia muita asioita, MIKSI ne tiettyjen sukupolvien välillä on nousseet juuri sen verran)

Niin noh toki ydin määrällä sen saa myös ja mitään varmaa määristä ei ole. Mutta mikäli niitä ytimiä aletaan tunkemaan hirmuisesti lisää, niin se vaikuttaa taas piirin kokoon. Tuo 30% hyppy tarkoittaisi varmaan silloin yli 5600 ydintä ja Ti olisi sitten jo lähemmäs 8000, Titan siihen päälle niin yli 8000 mikäli oletetaan että mennään jotakuinkin samalla 40% enemmän siirryttäessä xx80 -> Ti. GTX980 -> Ti oli "vain" 37,5%
Mitäs luulet minkä kokoinen lätty tuollainen 8000 cuda ydintä olisi? jonkin verran pienempi varmaan kuin A100 mutta iso se olisi kuitenkin.

Nyt on nvidialla node shrinkki vaihe ja käsittääkseni aiemmin shrinkin yhteydessä on tykätty mennä pienemmällä sirulla niin on sitten varaa kasvattaa myöhemmin.
Vai meinasitko että nvidia paukattaa nyt heti kaiken ulos 7nm prosessista ja siirtyy seuraavien korttien kanssa 5nm? Olisi aika peli liike kun on ollut tapana tuoda 2 sukupolvea per valmistusprosessi, 16nm ja 12nm lasken samaksi kun ei toi 12nm ollut kuin pikku viilauksia käsittääkseni.
 
Minä ottaisin sen suorituskykyparannuksen sillä, että ne ydinmäärät olisi nousseet paljon enemmän kuin mitä "huhut" väittävät.

Käsittääkseni kaikki ydinmääristä puhuneet huhut ovat olleet hyvin epäluotettavia, joko puhtaita feikkejä tai sitten vaan aivotonta(*) spekulaatiota sen perusteella, että "ennen nousseet tämän verran" muttei mitään oikeita vuotoja.

(aivottomalla viittaan siihen, ettei ole yhtään otettu huomioon siihen vaikuttavia muita asioita, MIKSI ne tiettyjen sukupolvien välillä on nousseet juuri sen verran)

Juuri tuo odotettu 30% teholisä tuossa ja vuotojen mukaan sama coremäärä tuntuu niin oudolle. Maxwell ->Pascal sai tehonsa käytännössä puhtaasti kellotaajuudesta ja coreista, ei ipc:stä. Siinä on jonkin verran testiä verkossa, kun on tiputettu pascalin kelloja alas, jotta saadaan samat muistiväylät ja tflopsit ulos.

Sitten Pascal -> Turing:
2080 ti vs 1080ti
+21% shadereita, +21% texture unitteja, +27% kaistaa, +138% FP16 laskentatehoa. About samat kellot. = +38% (4K)

2080 vs 1080
+15% shadereita, +15% texture unitteja, +40% kaistaa. +129% FP16 tehoa. About samat kellot. = +37% (1440p)

Selkeästi siinä IPC nousi, mutta jos yrittää laskea ytimen kasvua pascal vs 1660 sarja (jottei RT coret tule mukaan) tuo teholisä vaati 20% pinta-alan kasvun. Ei ihme, kasvattihan turing cachea aika tavalla. Eli about sama kustannus, kuin olisi vain lisätty 20% shadercoreja, lopputulos olisi ollut yhtä nopea ja yhtä kallis valmistettava.
R&D mielessä tuo IPC viilaus on kallista, kun on halvempaa vain kasvattaa rinnakkaisuutta, mutta pakkohan sitä on tehdä jos jostain syystä arkkitehtuuri ei enää skaalaudu kunnolla isommaksi.
 
1592815132130.png


(Kuvan suorituskykyluvut kannattaa jättää omaan arvoonsa, ne ovat puhdasta valhetta)


A100:n PCIe-versio julkistettu, TDP 250 wattia. Piikkisuorituskyky sama kuin MXM-versiossa (TDP 400W) mutta jatkuva suorituskyky riippuen tehtävästä 50 - 90 % (suoraan sivuilla lukee 90% mutta varmistivat ComputerBaselle että oikeasti se on 50 - 90 % Ampere: Nvidia bietet A100 als PCIe-Karte für Server an)
 
Juuri tuo odotettu 30% teholisä tuossa ja vuotojen mukaan sama coremäärä tuntuu niin oudolle. Maxwell ->Pascal sai tehonsa käytännössä puhtaasti kellotaajuudesta ja coreista, ei ipc:stä. Siinä on jonkin verran testiä verkossa, kun on tiputettu pascalin kelloja alas, jotta saadaan samat muistiväylät ja tflopsit ulos.

Sitten Pascal -> Turing:
2080 ti vs 1080ti
+21% shadereita, +21% texture unitteja, +27% kaistaa, +138% FP16 laskentatehoa. About samat kellot. = +38% (4K)

2080 vs 1080
+15% shadereita, +15% texture unitteja, +40% kaistaa. +129% FP16 tehoa. About samat kellot. = +37% (1440p)

Selkeästi siinä IPC nousi, mutta jos yrittää laskea ytimen kasvua pascal vs 1660 sarja (jottei RT coret tule mukaan) tuo teholisä vaati 20% pinta-alan kasvun. Ei ihme, kasvattihan turing cachea aika tavalla. Eli about sama kustannus, kuin olisi vain lisätty 20% shadercoreja, lopputulos olisi ollut yhtä nopea ja yhtä kallis valmistettava.
R&D mielessä tuo IPC viilaus on kallista, kun on halvempaa vain kasvattaa rinnakkaisuutta, mutta pakkohan sitä on tehdä jos jostain syystä arkkitehtuuri ei enää skaalaudu kunnolla isommaksi.
Tässä vain se että Turingi on melkein kuin Pascal joten vertailut menee ytimien osalta paremmin 1:1 jos raaka arvoista lasketaan.
Ampere on 7nm eikä niistä ole vielä mitään konkreettista tietoa että pystyisi pelkillä raaka arvoilla vertailuttamaan Turingiin.
Edes oikea ytimien määrä/kellotajuus ei riitä tähän.
 
Nyt taidetaan laskea muistikaistan vaikutus aivan pieleen.

Jos piirin "sisäinen suorituskukyky" kasvaa 75% niin silloin sen muistikaistan pitää kasvaa myös 75% jotta saadaan 75% suorituskykylisä.

Jos "piirin sisäinen suorituskyky kasvaa 75% mutta muistikaista kasvaa vain 50%, muistikaista on tällöin pahempi pullonkaula kuin ennen eikä saada sitä 75% suorituskykylisää vaan tilanteesta riippuen ehkä joku 60-70% suorituskykylisä.

Tai jos tiedetään että kokonaissuorituskyky kasvaa 75% ja muistikaista vain 50%, silloin sen "piirin sisäisen suoriotuskyvyn" pitää kasvaa enemmän kuin 75% koska muistikaista on pahempi pullonkaula joka aiheuttaa enemmän stallaamista.

Toki hyvä muistaa, että L1/L2 hit ratet ovat nykyään jo todella korkeat, ja siten myös kriittinen osa optimointeja. Noiden mittaaminen frametimeistä onnistuu näppärästi NVIDIAn Nsightilla. Katsoin joskus taannoin Unreal Enginen presentaation, jossa heidän tavoite hit rateille (L1(TEX)/L2) oli 90 % riippuen toki paljon siitä mitä renderöidään. Kertoo myös miksi kokonaisnopeus on kasvanut reilusti nopeammin kuin muistikaista.
 
Tässä vain se että Turingi on melkein kuin Pascal joten vertailut menee ytimien osalta paremmin 1:1 jos raaka arvoista lasketaan.
Ampere on 7nm eikä niistä ole vielä mitään konkreettista tietoa että pystyisi pelkillä raaka arvoilla vertailuttamaan Turingiin.
Edes oikea ytimien määrä/kellotajuus ei riitä tähän.

Eihän tuosta Amperesta ole paljon mitään selvillä. 3dmark tulos = 3080 + twitterhemmojen speksit - yhtälö ei vain minusta täsmää. Liian kova ipc parannus, kun pitkään on menty maltilisilla parannuksilla ja ipc parannukset ei tule ilmaiseksi, vaan nekin syö transistoreja. Joko tuo tulos on feikki/raportoidut kellot on pielessä tai twitter speksit on väärässä.

Tuntuisi aika kauhaa haetulle päättää hakea noin julmettua ipc parannusta (joka harvoin vaikuttaa myönteisesti kellottuvuuteen), kun tehoa saa irti helpommallakin. Cachen hitrate ja nvidian muistinpakkaus ovat jo niin kovia, ettei sieltä tule megaboostia, piiloon jäävän geometrian siivouskin on ollut jo kauan.
 
Eihän tuosta Amperesta ole paljon mitään selvillä. 3dmark tulos = 3080 + twitterhemmojen speksit - yhtälö ei vain minusta täsmää. Liian kova ipc parannus, kun pitkään on menty maltilisilla parannuksilla ja ipc parannukset ei tule ilmaiseksi, vaan nekin syö transistoreja. Joko tuo tulos on feikki/raportoidut kellot on pielessä tai twitter speksit on väärässä.

Tuntuisi aika kauhaa haetulle päättää hakea noin julmettua ipc parannusta (joka harvoin vaikuttaa myönteisesti kellottuvuuteen), kun tehoa saa irti helpommallakin. Cachen hitrate ja nvidian muistinpakkaus ovat jo niin kovia, ettei sieltä tule megaboostia, piiloon jäävän geometrian siivouskin on ollut jo kauan.
Olis ihme jos Amperen suorituskyky ei 7nm huolimatta muuttuisi ytimien/speksien silti ollessa about samat.

Siellä on nyt jotain uutta Amperessa mitä ei Turingissa ole joka saattaa mahdollistaa nämä suorituskyvyn parantumiset.
Jos kyseessä olisi vain refresh 12nm Turing niin sitten suorituskykyä ei tulisi kuin kelloilla/ytimillä/kaistalla jne..


E.
Eikä siinä olis mitään järkee että
3080 samoilla määrillä ytimiä olisi yhtänopea about kuin 2080Ti
7nm hyöty tällöin lähes 0%
Ja vasta isompi 3090 olisi 30% nopeampi.
Tälläinen kuulostaa siltä että spekuloija olettaisi 7nm Amperen olevan 12nm Turing ilman mitään kummempia parannuksia.

2080Ti VS
3070 = -5/+5%
3080= +25-30%
3090= +50%

vai

2080Ti VS
3070 -20%
3080 0/+5%
3090 +30%
(Aika tuhnu 7nm olis ja nämä luvut voisi saada jo turing refresh, ei tohon 7nm tarvittaisi)
 
Viimeksi muokattu:
Olis ihme jos Amperen suorituskyky ei 7nm huolimatta muuttuisi ytimien/speksien silti ollessa about samat.

Siellä on nyt jotain uutta Amperessa mitä ei Turingissa ole joka saattaa mahdollistaa nämä suorituskyvyn parantumiset.
Jos kyseessä olisi vain refresh 12nm Turing niin sitten suorituskykyä ei tulisi kuin kelloilla/ytimillä/kaistalla jne..

7nm ei tuo itsestään yhtään mitään. Se ei tee coresta nopeampaa, se lähinnä mahdollistaa enemmän transistoreita samaan tilaan ja tuurilla kellotaajuuden noston. Niistä se teho tulee, ei prosessista.

Joku 10% ipc parannus on helppo uskoa, ainahan arkkitehtuuria viilaillaan paremmaksi. 20% menettelisi vielä jotenkuten uskottavana, mutta tuon vuodon vaatima 30% on jo sarjaa epäuskottava. Ei siksi etteikö sellaista voi tehdä, vaikka pohja onkin todella hiottu. Rahalla saa ihmeitä aikaan, mutta R&D puolella on tarjolla se edullisempikin vaihtoehto:

GPU/Laskentakorttien työt ovat vain luonnostaan todella hyvin rinnakkaistuvia, joten ei ole kauheasti järkeä tavoitella isoa ipc parannusta, etenkin kun lopputulos helposti nostaa valmistuskustannuksia käytännössä saman verran, mitä vastaavan teholisän hakeminen ytimiä lisäämällä tuottaisi.
 
Eikä siinä olis mitään järkee että
3080 samoilla määrillä ytimiä olisi yhtänopea about kuin 2080Ti
7nm hyöty tällöin lähes 0%
Se riippuu ihan siitä millaisia muutoksia itse siruihin on tehty. Jos kellot ja ytimet (jne) on samat on suorituskykykin sama, ei prosessi sitä muuta.
Pienemmän prosessin isoin etu on se transistorien pienentyminen minkä kautta samaan tilaan saadaan enemmän tavaraa ja toisaalta tehonkulutus pienenee samoilla kelloilla. Uusi prosessi voi myös parantaa kellotaajuuksia mutta mikään itsestäänselvyys se ei enää nykypäivänä ole.
 
7nm ei tuo itsestään yhtään mitään. Se ei tee coresta nopeampaa, se lähinnä mahdollistaa enemmän transistoreita samaan tilaan ja tuurilla kellotaajuuden noston. Niistä se teho tulee, ei prosessista.

Joku 10% ipc parannus on helppo uskoa, ainahan arkkitehtuuria viilaillaan paremmaksi. 20% menettelisi vielä jotenkuten uskottavana, mutta tuon vuodon vaatima 30% on jo sarjaa epäuskottava. Ei siksi etteikö sellaista voi tehdä, vaikka pohja onkin todella hiottu. Rahalla saa ihmeitä aikaan, mutta R&D puolella on tarjolla se edullisempikin vaihtoehto:

GPU/Laskentakorttien työt ovat vain luonnostaan todella hyvin rinnakkaistuvia, joten ei ole kauheasti järkeä tavoitella isoa ipc parannusta, etenkin kun lopputulos helposti nostaa valmistuskustannuksia käytännössä saman verran, mitä vastaavan teholisän hakeminen ytimiä lisäämällä tuottaisi.
Jos nuo vuodot/arvaukset pitää paikkansa niin muistikaista olisi nousemassa noin 23%. Lisäksi kellojahan ei oikeasti tiedetä tai sitten on todella nopeat muistit.
 
Se pienempi prosessi mahdollistaa isommat kellot jos ennen kelloja on rajoittanut tehoraja. Eikös melkein kaikki turingit mene tehorajaa vasten?
 
Se pienempi prosessi mahdollistaa isommat kellot jos ennen kelloja on rajoittanut tehoraja. Eikös melkein kaikki turingit mene tehorajaa vasten?
Ei se ihan noinkaan yksinkertaisesti toimi, kellotaajusrajat voi tulla vastaan ihan sirun rakenteessakin mikä voi kysyä lisää transistoreja tai muita muutoksia jos halutaan ylöspäin
 
Enemmän transistoreita+muistiväylä+kovemmat kellot.

Enkä yhtään yllättyisi jos Ampere itsessään olisi nopeampi kuin Turing.
Olihan Turing jo osassa pelejä suhteellisesti nopeampi kuin Pascal tiedä sitten mistä moinen johtui.

Mielenkiintoista nähdä miten Ampere tulee eroamaan Turingista, siis kun tarkastelee pintaa syvemmältä sen toimintaa Vs Turing.
 
Enemmän transistoreita+muistiväylä+kovemmat kellot.

Enkä yhtään yllättyisi jos Ampere itsessään olisi nopeampi kuin Turing.
Olihan Turing jo osassa pelejä suhteellisesti nopeampi kuin Pascal tiedä sitten mistä moinen johtui.
Turing rupesi vihdoin saamaan async computesta hyötyä, minkä lisäksi siinä tuotiin uutena erilliset INT-yksiköt sen sijasta että ne laskettaisiin FP-yksiköillä
 
Totta, ei selviö mutta pettymys jos ei nouse yhtään. Jos suorituskyky jäisi tuohon huippupiirillä niin olisihan se epäonnistuminen, sanoisin että mahdotonta.
Voi olla että yli 2000mhz menee nvidiallakin ohi sweetspot tehonkulutuksen.
minulle riittää 1900mhz, hyvinkin jos +30% perf uplift 3080 vs 2080ti
 
Viimeksi muokattu:
Se pienempi prosessi mahdollistaa isommat kellot jos ennen kelloja on rajoittanut tehoraja. Eikös melkein kaikki turingit mene tehorajaa vasten?

Joo, tehoraja niissä kiinnaa. Periaatteessa kellot voi ajatella näin: Uusi prosessi mahdollistaa matalammat käyttöjännitteet samalla kellotaajuudella, mutta samalla jännitteen kestokyky laskee, joten se puolestaan haittaa korkeampien kellojen saavuttamista. Pienempi prosessi nostaa myös lämpötiheyttä, joka haittaa myös kellottumista. Eli kovemmat kellot ei ole mikään itsestäänselvyys.

Ynnä uusi prosessi todellakin tuo 0% parannusta. Antiikkinen 8086 on tasan yhtä nopea alkuperäisellä, mitä uusimmalla 5nm prosessilla tehtynä, jälkinmäisellä sen saa vain taatusti kellottumaan korkeammalle.

Uuden prosessin myötä samaan tilaan saa vain enemmän transistoreja, niillä se teho "ostetaan". Yleensä on vain "edullisempaa" käyttää kasvanut transistoribudjetti ytimien lisäämiseen, kuin ipc:n kasvatukseen. Käytännössä tasapainoillaan molempien välillä, eli pieniä parannuksia ja lisää coreja. Tuo oletettu 30% olisi aika raju muutos alan toimintatapaan.
 
Turing rupesi vihdoin saamaan async computesta hyötyä, minkä lisäksi siinä tuotiin uutena erilliset INT-yksiköt sen sijasta että ne laskettaisiin FP-yksiköillä

Nuo ja huomattavasti parantunut FP16 (siis se Vegan rapid packed math, joka on kuulema floppi) auttoivat kummasti pascaliin verrattuna.
 
Nyt taidetaan laskea muistikaistan vaikutus aivan pieleen.

Jos piirin "sisäinen suorituskukyky" kasvaa 75% niin silloin sen muistikaistan pitää kasvaa myös 75% jotta saadaan 75% suorituskykylisä.

Jos "piirin sisäinen suorituskyky kasvaa 75% mutta muistikaista kasvaa vain 50%, muistikaista on tällöin pahempi pullonkaula kuin ennen eikä saada sitä 75% suorituskykylisää vaan tilanteesta riippuen ehkä joku 60-70% suorituskykylisä.

Tai jos tiedetään että kokonaissuorituskyky kasvaa 75% ja muistikaista vain 50%, silloin sen "piirin sisäisen suoriotuskyvyn" pitää kasvaa enemmän kuin 75% koska muistikaista on pahempi pullonkaula joka aiheuttaa enemmän stallaamista.
no tämä perustuu siihen twittwer hemmoihin---18gbs tai 19gbs tai 21gbs muisteihin ja 320bit ja 352bit muistikaistan leveyteen, joka
tulisi näissä olemaan, Eli 25%- 30% suurempi vs turing
 
Kuukausia sitten taisi olla huhuja että nVidia tekee tästä hintaoptimoidun julkaisun?
Eli tulisi maltillinen 30% nopeuslisä, mutta 3070 hinta puristettaisiin 299€ tai hiukan yli.

3090 numero viittaa että sinne olisi tulossa jotain tehokasta yläpäähän, kenties vielä erikseen 3090 Ti ja Titan.
 
Kuukausia sitten taisi olla huhuja että nVidia tekee tästä hintaoptimoidun julkaisun?
Eli tulisi maltillinen 30% nopeuslisä, mutta 3070 hinta puristettaisiin 299€ tai hiukan yli.
Kannattaa pitää se järki taas mukana, ei tietenkään tule tapahtumaan mitään tuollaista.
NVIDIA vasta leikkasi pakon edessä 2060:n hintaa tuonnepäin ($299, puhutaan dollareista jos ei ole tietyn maan markkinoista kyse koska eurohinnoissa on verot ja ne vaihtelee maittain), naurettavaa ajatellakaan että xx70 tippuisi jonnekin samoille tietämille ennen kuin ne kirjaimellisesti jäisivät muutoin hyllylle makaamaan, eli toisin sanoen ennen kuin markkinoilla on joku muu taho joka tarjoaa vähintään xx70-tasoista tai oikeastaan jonkin verran parempaa suorituskykyä siihen hintaan.

3090 numero viittaa että sinne olisi tulossa jotain tehokasta yläpäähän, kenties vielä erikseen 3090 Ti ja Titan.
Nuo numerot nyt ovat eri twitterhuhujen pyörittelyjä, missä on ollut sen verran epäloogisuuksia, ristiriitoja sun muita ettei niistä kannata sen enempää miettiä, ne on kuitenkin vain nimiä eikä kerro julkaisemattoman kohdalla mitään varmaa vielä mistään.
Se että huhutaan "3090:stä" viittaa paljon todennäköisemmin siihen että "3080 Ti:tä" ei tulisi vaan se olisi sitten se 3090 uusi pakan päälimmäinen. Titanit ovat täysin eri tuotekategoria, ne eivät ole GeForceja ja GeForcejen nimeäminen ei siihen vaikuta tuleeko sieltä Titan vai ei.
 
Onko muuten vielä tietoa / luotettavaa huhua tuleeko näihin hdmi 2.1?
 
Kannattaa pitää se järki taas mukana, ei tietenkään tule tapahtumaan mitään tuollaista.
NVIDIA vasta leikkasi pakon edessä 2060:n hintaa tuonnepäin ($299, puhutaan dollareista jos ei ole tietyn maan markkinoista kyse koska eurohinnoissa on verot ja ne vaihtelee maittain), naurettavaa ajatellakaan että xx70 tippuisi jonnekin samoille tietämille ennen kuin ne kirjaimellisesti jäisivät muutoin hyllylle makaamaan, eli toisin sanoen ennen kuin markkinoilla on joku muu taho joka tarjoaa vähintään xx70-tasoista tai oikeastaan jonkin verran parempaa suorituskykyä siihen hintaan.
En oikein usko, että hinnat voi vaan jatkuavsti nousta ylöspäin, riippumatta valmistuskustannuksista. Toisaalta nVidia voisi haluta pudottaa tuota AMD:n markkinaosuutta alaspäin, nyttenhän on menettänyt osuuksia huomattavasti, kun AMD:lla alkaa olla varsin hyvä tarjonta. Ja kun huhut kertoo että AMD:n seuraava olisi +50% tehoa, niin tilanne vaan pahenee. Olisi suorastaan hölmöä mennä AMD:n hintojen mukaan, ihan vain jotta saisi enempi katella pienemmällä markkinaosuudella.
 
En oikein usko, että hinnat voi vaan jatkuavsti nousta ylöspäin, riippumatta valmistuskustannuksista. Toisaalta nVidia voisi haluta pudottaa tuota AMD:n markkinaosuutta alaspäin, nyttenhän on menettänyt osuuksia huomattavasti, kun AMD:lla alkaa olla varsin hyvä tarjonta. Ja kun huhut kertoo että AMD:n seuraava olisi +50% tehoa, niin tilanne vaan pahenee. Olisi suorastaan hölmöä mennä AMD:n hintojen mukaan, ihan vain jotta saisi enempi katella pienemmällä markkinaosuudella.
Kulutus/suorituskyky josta muodostuisi yhteensä se mainittu +50%

Osuudet on n. 31% vs 69%
eli n4% saanut lisää.
Ei tarvitse hintoja alas polkea, riittää kun julkaisee uutta järkevää markkinoille niin silläkin tulee jo ainakin muutama % takaisin jos kilpailijalla ei ole mitään millä vastata.

Rtx3070 voisi olla 459$\499$ mutta ei mitenkään 299e,täysin 100% mahdottomuus.
 
Kulutus/suorituskyky josta muodostuisi yhteensä se mainittu +50%

Osuudet on n. 31% vs 69%
eli n4% saanut lisää.
Ei tarvitse hintoja alas polkea, riittää kun julkaisee uutta järkevää markkinoille niin silläkin tulee jo ainakin muutama % takaisin jos kilpailijalla ei ole mitään millä vastata.

Rtx3070 voisi olla 459$\499$ mutta ei mitenkään 299e,täysin 100% mahdottomuus.
Oliko se +50% verrattuna mihin korttiin ja millaisella kulutuksella? Olisiko mahdollista, että AMD nostaisi kulutusta, jolloin tehoa tulisi jopa yli 50%?
 
En oikein usko, että hinnat voi vaan jatkuavsti nousta ylöspäin, riippumatta valmistuskustannuksista. Toisaalta nVidia voisi haluta pudottaa tuota AMD:n markkinaosuutta alaspäin, nyttenhän on menettänyt osuuksia huomattavasti, kun AMD:lla alkaa olla varsin hyvä tarjonta. Ja kun huhut kertoo että AMD:n seuraava olisi +50% tehoa, niin tilanne vaan pahenee. Olisi suorastaan hölmöä mennä AMD:n hintojen mukaan, ihan vain jotta saisi enempi katella pienemmällä markkinaosuudella.
Ei tietenkään nostaa loputtomasti, mutta vähän kerrallaan kunnes tulee raja vastaan (tietenkin siis "3070" tulee tarjoamaan enemmän suorituskykyä samaan rahaan kuin 2070, puhuin xx70:stä lähinnä hintaluokka)

Kulutus/suorituskyky josta muodostuisi yhteensä se mainittu +50%

Osuudet on n. 31% vs 69%
eli n4% saanut lisää.
Ei tarvitse hintoja alas polkea, riittää kun julkaisee uutta järkevää markkinoille niin silläkin tulee jo ainakin muutama % takaisin jos kilpailijalla ei ole mitään millä vastata.

Rtx3070 voisi olla 459$\499$ mutta ei mitenkään 299e,täysin 100% mahdottomuus.

Ei ei ei. Se +50% on lupaus energiatehokkuuden parantumisesta, eli joku RDNA2 siru on 1440p-resoluutiolla Division 2ssa 50% energiatehokkaampi kuin Navi10. Se voi olla samaan aikaan mitä vain väliltä hitaampi, yhtä nopea ja nopeampi.
 
Oliko se +50% verrattuna mihin korttiin ja millaisella kulutuksella? Olisiko mahdollista, että AMD nostaisi kulutusta, jolloin tehoa tulisi jopa yli 50%?

Se oli RNDA1 vs RNDA2 ja Division 2 pelissä 1440p resolla. Eli ei mitään perffitietoja, kelloja, tai muutakaan. Myös syksyllä tuleva arkkitehtuuri on vain 50% energiatehokkaampi. Muut varmistetut tiedot on täysi DX12 ultimate tuki (raytracing ja vähän muutakin).

Huhujen mukaan sieltä tulee isoa piiriä (nykyiset on vain keskikokoisia), mutta vaikuttaisi sille, että Nvidia olisi tekemässä vielä isompaa. Computerbase testasi kellot, coret ja muistikellot vakioituna navi/turing. Käytännössä sama IPC. Huhujen mukaan iso navi olisi 5120 corea ja nvidia menisi 5376 tasolle asti. Eli nähtävästi kilpailua riittää 3080/3090 välimaastoon asti ja Nvidian lippulaiva pitäisi nopeimman kruunun.

Sinänsä kiva, kun tulee vaihtoehtoja, kilpailua ja sitä kautta hintakilpailuakin. Ei ne Superitkaan ihan Jensenin jalomielisyyttä päätyneet markkinoille, ne oli nokitus kiristyneessä kilpailussa.
 
Ei tietenkään nostaa loputtomasti, mutta vähän kerrallaan kunnes tulee raja vastaan (tietenkin siis "3070" tulee tarjoamaan enemmän suorituskykyä samaan rahaan kuin 2070, puhuin xx70:stä lähinnä hintaluokka)
Voisi toivoa, että hinnat laskevat niin, että 3070 olisi alle 500 euron verollisella suomihinnalla, onko se sitten 400USD +/- jotain dollareita.
2xxx-sarja oli vähän hölmö kun hinta pomppasi ylös huimasti, jos nyt tekisivät taas tuosta kohtuuhintaisen, ja 3060 olisi sitten se 300 euron peruskortti pelaamiseen. Ja hinta tietysti hieman laskee kun odottaa joitain viikkoja. Tuohon sitten joku vajaa satkun Strix-lisä, jos haluaa hiljaisen jäähyn.

Toki jos sieltä tulee huomattavasti tehokkaampi kortti, vertautuisi tehoissa melkein 2080 Ti, niin hinta sattaisi olla 650€ verollisena Suomessa. Eli jos ovat optimoineet tehoja, eikä hintaa. Tai jos jatketaan hintojen nostoa, niin voihan se maksaa vaikka 800€ (1070 -> 2070 julkaisuhinta +150€)
 
Voisi toivoa, että hinnat laskevat niin, että 3070 olisi alle 500 euron verollisella suomihinnalla, onko se sitten 400USD +/- jotain dollareita.
2xxx-sarja oli vähän hölmö kun hinta pomppasi ylös huimasti, jos nyt tekisivät taas tuosta kohtuuhintaisen, ja 3060 olisi sitten se 300 euron peruskortti pelaamiseen. Ja hinta tietysti hieman laskee kun odottaa joitain viikkoja. Tuohon sitten joku vajaa satkun Strix-lisä, jos haluaa hiljaisen jäähyn.

Toki jos sieltä tulee huomattavasti tehokkaampi kortti, vertautuisi tehoissa melkein 2080 Ti, niin hinta sattaisi olla 650€ verollisena Suomessa. Eli jos ovat optimoineet tehoja, eikä hintaa. Tai jos jatketaan hintojen nostoa, niin voihan se maksaa vaikka 800€ (1070 -> 2070 julkaisuhinta +150€)
perhana kun jäähykin pitää ruveta tekemään kullattuna...
 
Rtx2070 = 12nm"16nm"
7.465 TFLOPS ja silti nopeampi

Rx5700 = 7nm
7.949 TFLOPS ja silti hitaampi

Tuo computerbasen testi oli kellot vakioituna, eikä boosteilla. Jos lunttaat techpoweruppia, niin refukorteilla 5700:n mediaanikellot on 1689mhz ja 2070:n 1875mhz, kelloero on tarkalleen se perffiero joka napsahtaa performance summary sivulle noiden kahden välille. Eli sekin vahvistaa tuota computerbasen testiä, navi ja turing coret on yhtä tehokkaita, jos kellot vakioidaan.

Ynnä TFLOPS on teoreettinen arvo joka lasketaan ytimistä ja kelloista. Se ei kerro hyötysuhteesta mitään ja aina vain opportunistisemmat boostialgoritmit tekee sitä vielä epätarkemman. Nvidiakin boostaa speksejään korkeammalle.
 

Statistiikka

Viestiketjuista
258 212
Viestejä
4 486 019
Jäsenet
74 182
Uusin jäsen
jampp-77-

Hinta.fi

Back
Ylös Bottom