NVIDIA-spekulaatioketju (Lovelace ja tulevat sukupolvet)

No ihan miten vaan. Itte katoin videon ja tänne noi luvut oli repästy tästä
1595243146827.png
Tuossa ei sanota, että "195 - 225% nopeampi" vaan "195 - 225% verrattuna nykyisiin kortteihin" eli 95-125% nopeampi
 
Tuossa ei sanota, että "195 - 225% nopeampi" vaan "195 - 225% verrattuna nykyisiin kortteihin" eli 95-125% nopeampi

No voi jumalauta.. Sitähän minä olen koittanu sanoa kun täällä aletaan pyörimään kahvit nenässä lattialla. Sinä itsekin teet nyt tuossa juuri sen supoistuksen

Olemassa oleva tuote 100% tuleva tuote 195-225%, 100% kun supistetaan pois niin mitä jää jälelle?
Vastaavaan tulokseen päästään 195%-100%=95%
 
No voi jumalauta.. Sitähän minä olen koittanu sanoa kun täällä aletaan pyörimään kahvit nenässä lattialla. Sinä itsekin teet nyt tuossa juuri sen supoistuksen

Olemassa oleva tuote 100% tuleva tuote 195-225%, 100% kun supistetaan pois niin mitä jää jälelle?
Vastaavaan tulokseen päästään 195%-100%=95%
Ei siinä tehdä mitään supistuksia, vaan puhutaan eri asioista, "x% nopeampi kuin y" ja "x% niin nopea kuin y" eivät ole sama asia.
Siinä alkuperäisessä @hese_e viestissä luki "Sisäisesti AMD uskoo voittavansa vain 3080:n ja RDNA2 on 195-225% nopeampi, mitä 5700XT.", ei "Sisäisesti AMD uskoo voittavansa vain 3080:n ja RDNA2 on 195-225% niin nopea, mitä 5700XT."
 
Ei siinä tehdä mitään supistuksia, vaan puhutaan eri asioista, "x% nopeampi kuin y" ja "x% niin nopea kuin y" eivät ole sama asia.
Siinä alkuperäisessä @hese_e viestissä luki "Sisäisesti AMD uskoo voittavansa vain 3080:n ja RDNA2 on 195-225% nopeampi, mitä 5700XT.", ei "Sisäisesti AMD uskoo voittavansa vain 3080:n ja RDNA2 on 195-225% niin nopea, mitä 5700XT."

Siinä alkuperäisessä oli kyllä muotoilu ihan päin helvettiä, täytyy käydä korjaamassa. Sen olisi pitänyt olla: RDNA2 on 195-225% 5700XT:n suorituskyvystä, osa tulkkaisikin sen oikein, kun samassa kappaleessa oli 3080 verokkina. Eli noin 2x nopeampi, joka veisi sen about tasoihin ampere huhujen kanssa.

Sitten vähän omia mietteitä tuosta vuodosta. Aika paha sanoa onko tuossa totuutta mukana.

Nämä nyt puoltaisi sitä:
- Jo toinen lähde, ampere on 8nm samsung väitteelle.
- Twitterhemmon mittaama siru on hiton iso ja about kaikki on lähes hellyyttävän yksimielisiä coremääristä,. 7nm EUV:lla siinä olisi oltava ihan hitosti tensor/RT/muuta rautaa mukana, jotta moiseen kokoon päästään.

Tuota vastaan olisi:
- Jensenin kommentit, että valtaosa on tsmc:n tuotantoa. Ammattitaitoinen toimitusjohtaja ei heittäisi tuolla tavalla ostopuolen porukkaa bussin alle: "Ai te uhkaatte mennä Samsungille, jos ei lasketa hintoja? Teidän toimitusjohtajan mukaan te ostatte piirit meiltä". Tai sitten valehtele päin naamaa, jos päätös olisi jo tehty.
- Huhu vaatisi, että on ollut molempia engineering sampleja, samsung ja tsmc.
- Twitterissä ja youtubessa on niin helppo huudella mitä huvittaa ja noilla on trackrecord jonka saavuttaa huutelemalla mitä huvittaa, lopulta osuu oikeaan.
 
Nämä nyt puoltaisi sitä:
- Jo toinen lähde, ampere on 8nm samsung väitteelle.
- Twitterhemmon mittaama siru on hiton iso ja about kaikki on lähes hellyyttävän yksimielisiä coremääristä,. 7nm EUV:lla siinä olisi oltava ihan hitosti tensor/RT/muuta rautaa mukana, jotta moiseen kokoon päästään.
Ei kai tämä "twitterhemmo" ole kopite7kimi?
Aika rohkea myös väite että pitäisi olla sitä ja tätä 7nm EUV:lla tuossa sirukoossa, olettaen että se koko nyt ylipäätään on edes sinnepäin oikein, kun speksit ovat edelleen pelkkää arvailua
 
Ei kai tämä "twitterhemmo" ole kopite7kimi?
Aika rohkea myös väite että pitäisi olla sitä ja tätä 7nm EUV:lla tuossa sirukoossa, olettaen että se koko nyt ylipäätään on edes sinnepäin oikein, kun speksit ovat edelleen pelkkää arvailua

Aika lähelle. Kopite7kimi heitti tuon Ampere 100% Samsung 8nm. KatCorgi väitti taas mitanneensa engineer samplen piirin työntömitalla.

Spekulaatioketjuhan tämä on, mutta hyvin huomaa miten pienet piirit touhussa on. Kopite7kimi ja KatCorgi ratsastaa datakeskus amperen maineella ja niiden postaukset pääsee useammalla saitilla uutisiin. Moores law laukooo mitä huvittaa, kuten AdoredTV. Igors lab postailee välistä jotain, mutta sillä on sentään oikeasti jotain kontakteja Toms Hardwaren ajoilta. Rog game aktivoituu aika harvakseen.
 
Aika lähelle. Kopite7kimi heitti tuon Ampere 100% Samsung 8nm. KatCorgi väitti taas mitanneensa engineer samplen piirin työntömitalla.

Spekulaatioketjuhan tämä on, mutta hyvin huomaa miten pienet piirit touhussa on. Kopite7kimi ja KatCorgi ratsastaa datakeskus amperen maineella ja niiden postaukset pääsee useammalla saitilla uutisiin. Moores law laukooo mitä huvittaa, kuten AdoredTV. Igors lab postailee välistä jotain, mutta sillä on sentään oikeasti jotain kontakteja Toms Hardwaren ajoilta. Rog game aktivoituu aika harvakseen.
Kopite7kimillä ainakin on muistaakseni paljon enemmän huteja kuin osumia vyöllään, KatCorgista ei tule nopeasti mieleen mitään varmistettuja vuotoja, en kyllä ole tarkkaan seurannutkaan eli voi olla että mennyt ohi vain. Vai mitä nyt meinasit datakeskus-amperen maineella ratsastamisella?
Igorilla on tainnut alkaa ote lipsumaan viime aikoina muutenkin kuin Ampereen liittyvien asioiden suhteen

edit: piti ihan käydä tarkistamassa, eihän sillä katcorgilla ole mitään historiaa vuodoista? Alkuvuodesta perustettu tili eikä toistaiseksi taida olla nopealla vilkaisulla ainuttakaan omaa twiittiä, mikä olisi varmistettu oikeaksi
 
Korttien energian kulutus nousee 40-50% joten jos suorituskykyboosti on +40-50 % niin ongelmissa ollaan. Johonkin tuon kaltaiseen ongelmaan kyllä viimeaikaiset huhut viittaa, voiko se johtua juuri siitä että jouduttu käyttää Samsungia TSMC:n sijaan? Nahkatakkimies kyllä sanoi että olisi tehty TSMC:llä nuo siihen kai pitäisi uskoa, mutta ei olisi eka kerta kun vähän muunneltua totuutta puhuisi.
Itse olen ymmärtänyt huhut niin, että 3060 ja pienemmät kortit voisi tulla Samsungilta, ja 3070 ja sitä nopeammat TSMC:lta. Eli tehonkulutus 3060 kortissa saattaa olla lähellä 3070 korttia, vaikka pelitehoa on ihan eri määrä.
Jokainen voi katsoa noita laskentakortteja, miten siellä on perf/watt parantunut. Siitä saa ihan hyviä vinkkejä laskeskelujen pohjalle, miten perf/w paranee myös 3000-sarjan korteissa, niillä korteilla missä on tuo parempi tekniikka käytössä.

Jos katsoo sitä arkkitehtuuria laskentakortit vs kuluttajakortit, niin onhan siellä paljon yhtäläisyyttä. Kysymys lienee, kuinka monta yksikköä mitäkin palikkaa laitetaan mihinkin kortiin, ja minkälaisella muistilla.

TSMC ampuisikyllä itseään jalkaan, jos ei noin isolle firmalle möisi yhtään kapasiteettiä. Varmaan pääsisivät kilpailijan kanssa tekemään kehitystyötä sellaisella massimäärällä, että kilpailija on kohta ohi kehityksessä.
 
Sitähän ei tavallinen pulliainen tietää millään mikä on oikea huti ja mikä ei.

Teollisuuden puolella on usein melko villi määrä suunnittelua ja engineering sampleja luoja ties millä valmistusprosessilla ja ominaisuuskirjolla.

Vuodot voi hyvin kuvastaa jotain vaihetta tuotekehityksessä joka ei sitten ole edennyt lopputuotteeksi saakka.
 
niin siis 250w -> 350w on tuo 40%
2080Ti TDP on kyllä 250w mutta todellinen kulutus 270-280w ja sitten huomioidaan tämä käytetty TGP joka on luonnollisesti aina suurempi kuin TDP.

2080Ti custom mallit on usein siellä avg. 290-300w tuntumassa, tähän päälle ei 40-50% lisää,vaan 50-60w jolloin ollaan about siellä huhutussa 350w TGP eli (Total Graphics Power)

Osa 2080Ti malleista menee muuten yli 350w
 
Jokainen voi katsoa noita laskentakortteja, miten siellä on perf/watt parantunut. Siitä saa ihan hyviä vinkkejä laskeskelujen pohjalle, miten perf/w paranee myös 3000-sarjan korteissa, niillä korteilla missä on tuo parempi tekniikka käytössä.
Ei automaagisesti, A100:ssa on aika taatusti täysin eri painotukset eri yksiköille kuin pelivehkeissä (ts tensoreihin panostettu oikein urakalla) eikä siinä ole esimerkiksi RT-rautaa lainkaan, se voi olla yllättävän kaukana peli-Ampereista vaikka onkin nimellisesti sama arkkitehtuuri.

Ja minkä suorituskykyasteikon perusteella ajattelit että sitä perf/wattia lähdetään vertailemaan? Teoreettisten speksien?
Esimerkiksi FP32-suorituskyvyn osalta A100 on joko parempi tai huonompi per watti kuin Volta, riippuen siitä onko 300 vai 350W versio Voltasta (16/32Gt), sama juttu FP64:n osalta. FP16-tarkkuudella missä käytetään tensoreita taas A100 on selvästi edellä jne
 
Kopite7kimillä ainakin on muistaakseni paljon enemmän huteja kuin osumia vyöllään, KatCorgista ei tule nopeasti mieleen mitään varmistettuja vuotoja, en kyllä ole tarkkaan seurannutkaan eli voi olla että mennyt ohi vain. Vai mitä nyt meinasit datakeskus-amperen maineella ratsastamisella?
Igorilla on tainnut alkaa ote lipsumaan viime aikoina muutenkin kuin Ampereen liittyvien asioiden suhteen

edit: piti ihan käydä tarkistamassa, eihän sillä katcorgilla ole mitään historiaa vuodoista? Alkuvuodesta perustettu tili eikä toistaiseksi taida olla nopealla vilkaisulla ainuttakaan omaa twiittiä, mikä olisi varmistettu oikeaksi

KatCorgi muistaakseni yhdessä Kopeti7kimin kanssa sai ne datakeskus ampere speksit oikein. Eli sen maineella ratsastusta tarkoitin, ynnä sen takia niiden postaukset ylittää aika usein uutiskynnyksen techpowerup/videcardz/wccftech yms sivustoilla.

Igorin suolaton gddr6x nieleminen ja amperen kaapeleista puhuminen kyllä epäilyttää, mutta on sen artikkeleissa ollut, että omat lähteet ovat myös vahvistaneet twitterhemmojen väitteet. Voihan siellä olla joku yksi ja sama tyyppi, joka on kaikkien vuotolähteenä ja sitten luullaan, että on muka omat riippumattomat tarkastukset tiedoille.

Yleensä vielä Nvidia ei pahemmin vuoda, joten ihmetyttää sotkiko covid aikataulun, onko alettu käyttää enemmän alihankintaa, trollaako joku, vai onko oikeasti tehty 8nm ihmesiirto ja siitä tuleva myöhästyminen on noiden vuotojen takana.
 
2080Ti TDP on kyllä 250w mutta todellinen kulutus 270-280w ja sitten huomioidaan tämä käytetty TGP joka on luonnollisesti aina suurempi kuin TDP.

2080Ti custom mallit on usein siellä avg. 290-300w tuntumassa, tähän päälle ei 40-50% lisää,vaan 50-60w jolloin ollaan about siellä huhutussa 350w TGP eli (Total Graphics Power)

Osa 2080Ti malleista menee muuten yli 350w
Joo ja videossa mainittiin, että uudet menisi yli 400w. Tosiaan voi olla, että olen haksahtanut tuohon TDP vs TGP -ansaan.
 
KatCorgi muistaakseni yhdessä Kopeti7kimin kanssa sai ne datakeskus ampere speksit oikein. Eli sen maineella ratsastusta tarkoitin, ynnä sen takia niiden postaukset ylittää aika usein uutiskynnyksen techpowerup/videcardz/wccftech yms sivustoilla.

Igorin suolaton gddr6x nieleminen ja amperen kaapeleista puhuminen kyllä epäilyttää, mutta on sen artikkeleissa ollut, että omat lähteet ovat myös vahvistaneet twitterhemmojen väitteet. Voihan siellä olla joku yksi ja sama tyyppi, joka on kaikkien vuotolähteenä ja sitten luullaan, että on muka omat riippumattomat tarkastukset tiedoille.

Yleensä vielä Nvidia ei pahemmin vuoda, joten ihmetyttää sotkiko covid aikataulun, onko alettu käyttää enemmän alihankintaa, trollaako joku, vai onko oikeasti tehty 8nm ihmesiirto ja siitä tuleva myöhästyminen on noiden vuotojen takana.
Pikavilkasulla KatCorgi vain komppasi yhtä Kopite7kimin viestiä A100:sta, ei postannut omia speksejä tms, voi olla että missasin jonkun twiitinkin toki.

Igorilla on tuon lisäksi mm. tullut hiljattain ulos ihan järjetöntä settiä, kuten MI100 ja MI200 olisi Naveja (ts RDNA) eikä CDNA:ta (Arcturus ainakin toiselle ellei molemmille), taisi myös ehdottaa että MI200:sta olisi 1 ja 2 GPU-versiot (sinänsä 2 GPU:n versio varmasti toimisi laskentapuolella, mutta eiköhän se olisi silloin MI100 1 GPU ja MI200 2 GPU:ta, ei MI100 1 ja MI200 1 tai 2 mallista riippuen)
 
Ei automaagisesti, A100:ssa on aika taatusti täysin eri painotukset eri yksiköille kuin pelivehkeissä (ts tensoreihin panostettu oikein urakalla) eikä siinä ole esimerkiksi RT-rautaa lainkaan, se voi olla yllättävän kaukana peli-Ampereista vaikka onkin nimellisesti sama arkkitehtuuri.

Ja minkä suorituskykyasteikon perusteella ajattelit että sitä perf/wattia lähdetään vertailemaan? Teoreettisten speksien?
Esimerkiksi FP32-suorituskyvyn osalta A100 on joko parempi tai huonompi per watti kuin Volta, riippuen siitä onko 300 vai 350W versio Voltasta (16/32Gt), sama juttu FP64:n osalta. FP16-tarkkuudella missä käytetään tensoreita taas A100 on selvästi edellä jne
Edellisessä sukupolvessa taisivat poistaa FP64 yksiköt, yhdestä SM blokista puolittivat muiden palikoiden määrän, mukaanlukien tensor coren puolitus. Sitten siihen kylkeen laitettiin pieni alue RT-yksikköä. Tuskin lähtevät hirveästi muokkaamaan legopalikoita, rakentavat 3080 kortin osittain samoista muduuleista mitä A100 kortissa käytetty?

Vertailuahan ei oikein voi tehdä kun ei sitä korttia ole, mutta jos sitä arvailua ja huhujen tulkitsemista lähtisi miettimään sillä, miten hyvin tuo arkkitehtuuri lähti toimimaan A100:ssa, ja mitä siitä voisi päätellä pelinopeuteen. Ovat toki ihan eri kortteja, mutta tietyt laskennathan tapahtuu ihan samalla tavalla. Sitten toki noita kokonaan vain pelikortissa olevia osia, mitä voi vain arvailla
 
Vertailuahan ei oikein voi tehdä kun ei sitä korttia ole, mutta jos sitä arvailua ja huhujen tulkitsemista lähtisi miettimään sillä, miten hyvin tuo arkkitehtuuri lähti toimimaan A100:ssa, ja mitä siitä voisi päätellä pelinopeuteen. Ovat toki ihan eri kortteja, mutta tietyt laskennathan tapahtuu ihan samalla tavalla. Sitten toki noita kokonaan vain pelikortissa olevia osia, mitä voi vain arvailla
Niin, siis sitä kysyin että miten hyvin se lähti toimimaan? Meillä on teoreettiset speksit, joissa edistystä ei ole tapahtunut FP32- tai FP64-puolella, ja tensoripuoli missä edistystä on tapahtunut.
NVIDIAn itse julkaisemissa testeissä on ulkomuistista lähes poikkeuksetta apples vs oranges, missä A100:lle on optimoitu kaikki niin hyvin kuin siinä testissä voidaan optimoida, V100:lle vastaavia taas ei ole tehty
 
Joo ja videossa mainittiin, että uudet menisi yli 400w. Tosiaan voi olla, että olen haksahtanut tuohon TDP vs TGP -ansaan.
Siellä oli mielestäni maininta että ilman rajoituksia.
Kyllä mullaki 2080Ti piikkailee 400w ilman rajoituksia.

Ja mitä väliä kuluttaako se ohjain 400w tai vaikka 500w jos suorituskyky skaalautuu hyvin kulutuksen kasvaessa, eli enemmän tulee suorituskykyä kun ei yritetä tuhrata jonku Max 250w TDP kanssa.
Se mikä on siis tärkeää on se kulutus+suorituskyky eikä ikinä yksistään pelkkä kulutus.

E.Esim 2080Ti 1440p energiatehokkuus on jopa parempi kuin selvästi pienemmällä/hitaammalla Rtx2060.
Kertoo paljon siittä miten hyvin Nvidialla nämä skaalautuu suorituskykyisemmissäkin ohjaimissa.
 
Viimeksi muokattu:
E.Esim 2080Ti 1440p energiatehokkuus on jopa parempi kuin selvästi pienemmällä/hitaammalla Rtx2060.
Kertoo paljon siittä miten hyvin Nvidialla nämä skaalautuu suorituskykyisemmissäkin ohjaimissa.

Tai sitten se kertoo vain sen että se 2060 puuskuttaa hikihatussa 100% kuormalla kun taas 2080Ti chillailee peruskelloilla alta 100% loadilla kun CPU vastustaa.
 
Kertoo paljon siittä miten hyvin Nvidialla nämä skaalautuu suorituskykyisemmissäkin ohjaimissa.
Olettaen tietenkin että se 2080 Ti tuossa nyt ylipäätään rasittuu "täysillä" siis, ja silloinkin se kertoo vain Turing-arkkitehtuurista noilla nimenomaisilla konfiguraatioilla, ei NVIDIAn kaikista menneistä ja tulevista piireistä.
 
Viimeksi muokattu:
E.Esim 2080Ti 1440p energiatehokkuus on jopa parempi kuin selvästi pienemmällä/hitaammalla Rtx2060.
Kertoo paljon siittä miten hyvin Nvidialla nämä skaalautuu suorituskykyisemmissäkin ohjaimissa.

Turingin energiatehokkuus RT/Tensor-ytimet pois laskien kyllä nyt ei ole vaikuta olevan mikään kovin kummoinen. Vastaavan suorituskyvyn kortit julkkarin aikaan olivat ihan samalla viivalla Pascalin kanssa ja vaikka tilanne on vähän parantunutkin niin aika harvoin ollaan nähty näin pieniä edidtyksiä sillä saralla.
 
Turingin energiatehokkuus RT/Tensor-ytimet pois laskien kyllä nyt ei ole vaikuta olevan mikään kovin kummoinen. Vastaavan suorituskyvyn kortit julkkarin aikaan olivat ihan samalla viivalla Pascalin kanssa ja vaikka tilanne on vähän parantunutkin niin aika harvoin ollaan nähty näin pieniä edityksiä sillä saralla.
Paitsi että 2080Ti ei ole vastaavan suorituskyvyn ohjainta Pascalissa.
enkä puhu Pascal->Turing parannuksesta vaan Nvidian huippu ohjaimen energiatehokkuudesta joka on hyvä näinkin isoksi ja suorituskykyiseksi.
Tai sitten se kertoo vain sen että se 2060 puuskuttaa hikihatussa 100% kuormalla kun taas 2080Ti chillailee peruskelloilla alta 100% loadilla kun CPU vastustaa.
TPU ei käytä Amd prossua joten ei ahdista.
Kun kyseessä 1440p/4K niin vielä vähemmän pääsee ahdistamaan.
TPU käytti testissä i7-8700K @ 4.8 GHz
Esim 4K.lla Näytönohjain peruskelloilla ja alle 100% loadi,Niin ei todellakaan, kyllä se rasittaa näytönohjainta ihan kunnolla.

4K.lla tilanne 2080Ti hyväksi luonnollisesti vieläkin parempi.

Hienoa nähdä jospa se Ampere menee heittämällä ohitse Rtx2080, enkä odota yhtään vähempää Amperelta.
Energiatehokkuus täytyy olla parempi kuin 2000 sarjassa enkä epäile etteikö se voisi ollla.
performance-per-watt_3840-2160.png



Olettaen tietenkin että se 2080 Ti tuossa nyt ylipäätään rasittuu "täysillä" siis, ja silloinkin se kertoo vain Turing-arkkitehtuurista noilla nimenomaisilla konfiguraatioilla, ei NVIDIAn kaikista menneistä ja tulevista piireistä.
TPU kulutus on linjassa muualla mitattuihin, ihan hyvin jos esim.4K lla ei saada rasitettua ohjainta.
Tämä menee nyt testien kyseenalaistamis osioon.
Kuitenkin linjassa iotech testienkin kanssa.
 
Viimeksi muokattu:
Paitsi että 2080Ti ei ole vastaavan suorituskyvyn ohjainta Pascalissa.
enkä puhu Pascal->Turing parannuksesta vaan Nvidian huippu ohjaimen energiatehokkuudesta joka on hyvä näinkin isoksi ja suorituskykyiseksi.

Ei ollut myöskään keskimääräiseltä tehonkulutukseltaan vastaavaa mallia. Referenssejä vertailtaessa 2080Ti nosti keskimääräistä suurinta kulutusta karvan alle 20% ja energiatehokkuus työpöydällä ja kevyellä kuormalla on täysi vitsi. Kokonaisuudessan aika kädenlämpöinen tuote, olkoonkin suurehko piiri.
 
Kun kyseessä 1440p/4K niin vielä vähemmän pääsee ahdistamaan.

Ei se kovin inttelikään ole aina 1440p resolla "riittävän" nopea. Moni testaaja on sanonut että 1440p resolla ollaan vielä CPU rajotteisia.

Esim 4K.lla Näytönohjain peruskelloilla ja alle 100% loadi,kyllä se rasittaa näytönohjainta ihan kunnolla.

Kyllä toki mutta tuo perf/w ei ole ihan niin yksinkertainen. Siellä kortilla on muistit ja VRM jonne hukkuu osa siitä virrasta ja mitä pienempi GPU, niin suhteessa enemmän sitä virtaa hukkuu noihin, tosin VRM puolella tulee toki hiukan takaisin kun pienessä GPU:ssa ei tartte olla niin järeää VRM.
 
Ei ollut myöskään keskimääräiseltä tehonkulutukseltaan vastaavaa mallia. Referenssejä vertailtaessa 2080Ti nosti keskimääräistä suurinta kulutusta karvan alle 20% ja energiatehokkuus työpöydällä ja kevyellä kuormalla on täysi vitsi. Kokonaisuudessan aika kädenlämpöinen tuote, olkoonkin suurehko piiri.
2080Ti uudistettu jäähy ei rajoita kelloja eikä näinollen laske kulutusta kuten Blower jäähyllinen 1080Ti

Eli 1080Ti refun vakiojäähy rajoitti kelloja niin paljon että kulutus oli alhainen, Custom ohjaimissa kulutus sitten olikin peräti +50w enemmän koska kellot nousivat korkeammalle kun paska jäähy ei päässyt rajoittamaan kelloja.
1080Ti kulutus AVG n.270-290w
Eli melkolailla samoissa kuin 2080Ti yleensä.

Strix 1080Ti jopa enemmän kuin 2080Ti Strix
power_average.png


2080Ti Strix
power_average.png


Eli 2080Ti lähes samalla kulutuksella paransi suorituskykyä ja tämäntakia 2080Ti on tuossa energiatehokkuus listallakin varsin hyvä.
 
Viimeksi muokattu:

Kerran tuo on huhulinko youtube kanava, joka ampuu vähän kaikkea (mutta on päässyt mm. techpowerupin lähteeksi, niin kasataan tiivistelmä ja screenshotit oleellisista slideistä. Kannattaa ottaa ison suolakasan kanssa, jos tuo pitää paikkansa, niin riskinhallinnan takia piirejä on testattu molemmilla prosesseilla alusta asti, tai muutos on tehty jo ajat sitten.


Enemmän kannattaa ottaa huumorina ;)

Pihvinä oli, että on vähän sukset ristissä TSMC:n kanssa (digitimesin raportoima TSMC/Samgsung kilpailutus kusi ja tuotantokapasiteetti oli jo bookattu) ja suunnitelmat 7nm/8nm korteista vaihtui kaikki 8nm Samsungiksi.

Noiden prosessien design rulet eivät ole keskenään yhteensopivia. Olisi vaatinut aika paljon tuplatyötä tehdä kaikista piireistä versiot molemmille. Ei vaikuta uskottavalta.

TSMCn "7nm" on myös melkein puolitoista kertaa tiheämpi kuin Samsungin "8nm". Ei vaikuta realistiselta että sama piiri suunniteltaisiin samalla aikataululla molemmille.

Uskottavaa olisi esim se, että pienemmät halvemmat piirit tulisi Samsungilta, isommat kalliimmat TSMCltä.


Sampleista TSMC kortit kulki hyvin, Samsung ei niinkään. Videossa Amperea kutsutaan ikään kuin Nvidian "Vega moment" - korttina. Nvidia tekee kovasti töitä pitääkseen 35-50% parannuksen 2080TI korttiin nähden. RTX teho minecraftissa TSMC samplella oli noin 4-5x vs RTX Titan.

21Gbs muistit on tiputettu 18Gbs, kun 8nm Samsung ei hyödy niistä.

Tämä muistijuttu menee jo melko naurettavaksi. Ensinnäkin, en ole kuullut minkään valmistajan tänä vuonna tai aiemmin julkaisseen mitään 21 Gbps muisteja.

Sellaista, mitä ei ole, ei voi pudottaa pois.

Toisekseen; Kaistan ja laskentatehon tarpeen suhde vaihtelee todella paljon sen mukaan, mitä softaa piirillä ajetaan. Ei ole mitään yleistä suhdetta tarvittavan kaistan ja laskentatehon välillä, siten että "kun laskentatehoa on vähän vähemmän, nopeasta muisteista ei hyödytä mitään" tai "laskentatehosta ei hyödytä mitään kun muisti on pullonkaula"-tilanteita, vaan molemmat on usein jonkin verran pullonkaulia ja eri softalla tilanne on täysin eri.


Mutta joo, pitää kyllä ihailla näiden näitä "vuotosatuja" kirjailevien satusetien luovuutta. Kun ollaan puhuttu täyttä paskaa niistä muisteista niin ei voida vieläkään myöntää että puhuttiin täyttä paskaa, vaan sitten keksitään vaan lisää paskaa siitä miksi niitä ei tulekaan. Ja pelulamuille uppoaa täydestä :facepalm:

ampere 3.PNG


Edit: Tweaktown osoitti taas luonteensa, 5kpl "uutisia" tuosta yhdestä ja samasta videosta. ;-)
Ja RDNA2 perffilukema korjattu.

Sitten tuolta kohta "tensor memory compression".

Tuo jos mikä on sontaa. jopa nVidian "kun kädessä on vasara, kaikki näyttää naulopilta"-meiningille. Tensoriydin on laskentayksikkö, joka laskee matriisien outer productia mahdollisimman nopeasti neuroverkkoja varten.

Operaatiot, millä mitään pakkausalgoritmeja toteutetaan, on täysin erilaisia. Mitään järkeviä (häviöttömiä/vähähäviöisiä) (ja riittävän nopeita) pakkausalgoritmeja ei voi järkevästi kiihdyttää tensoriytimillä (toki aina voi tehdä jonkun alaskaalauksen ja sitten DLSS-ylösskaalauksen mutta nopeus on riittämätön ja kuvanlaatu on kamala, ja tällöin olisi alunperinkin voinut vaan rendata mnatalammalla resolla, se alkup täysikokoinen kuva on silloin turha).

Lisäksi tensoriytimet on muutenkin kytkennöiltään aivan väärässä paikassa, kun ovat shaderien yhteydessä; sitä kaistaa tarvitaan eniten rasteroinnissa ROPeille, ja säteenjäljityksissä sille törmäystarkastusyksiköille.
 
Viimeksi muokattu:
Moore's Law is Dead höpinät on vissiin bannissa Redditissä?

"Moore's Law is Dead is a terrible channel that just regurgitates every circulating unsubstantiated rumour to get views. I'm pretty sure it's unofficially banned here. It's not that hard to make educated guesses on what's going to happen, but dressing it up as something more (eg. 'leaks') is awful.
If you want actual news or rumours, then there's a huge amount of better sources than that channel.
"
"
He is in fact banned. please report his stuff that slips by"
 
Moore's Law is Dead höpinät on vissiin bannissa Redditissä?

"Moore's Law is Dead is a terrible channel that just regurgitates every circulating unsubstantiated rumour to get views. I'm pretty sure it's unofficially banned here. It's not that hard to make educated guesses on what's going to happen, but dressing it up as something more (eg. 'leaks') is awful.
If you want actual news or rumours, then there's a huge amount of better sources than that channel.
"
"
He is in fact banned. please report his stuff that slips by"

Sama sankari on pääsyt vain techpowerupin ja guru3d:n uutislähteeksi. Nyt tämä video puski 5 uutista tweaktowniin ja pari overclock3d:hen. Aamusta voi katsoa moniko muu saitti postasi tiedot sellaisenaan.

@hkultala hyvin tuossa purkikin mitä kaikkea siinä videossa on pielessä. Tuosta menosta tulee kyllä vähän saippuaooperat mieleen, kun on noita juonenkäänteitä. Keväällä Ampere oli tulossa ja jyräsi kaiken, sitten se kopmpastuu ja AMD loikkaa yli. Seuraavaksi tulee kai uusi stepping, taas kulkee, tai samsungin prosessi on parantunut, tai covidin takia apple perui tilauksia, nvidia pääsikin tekemään tsmc:llä.
 
Sama sankari on pääsyt vain techpowerupin ja guru3d:n uutislähteeksi. Nyt tämä video puski 5 uutista tweaktowniin ja pari overclock3d:hen. Aamusta voi katsoa moniko muu saitti postasi tiedot sellaisenaan.

@hkultala hyvin tuossa purkikin mitä kaikkea siinä videossa on pielessä. Tuosta menosta tulee kyllä vähän saippuaooperat mieleen, kun on noita juonenkäänteitä. Keväällä Ampere oli tulossa ja jyräsi kaiken, sitten se kopmpastuu ja AMD loikkaa yli. Seuraavaksi tulee kai uusi stepping, taas kulkee, tai samsungin prosessi on parantunut, tai covidin takia apple perui tilauksia, nvidia pääsikin tekemään tsmc:llä.
En ole vielä tuota videoo katsonut sen paremmin, noi tekstit ja uutisoinnit luin kuitenkin.
Vois kahvia tässä ottaa kun muutenkin koko yö töitä niin katsoa se videokin samalla läpi.

Tietysti tälläinen uutisointi tuo niitä klikkejä/katsojia ja nyt on kaikista paras aika kun on vielä hetki kunnes Ampere/Rdna2 julkaistaan.
Saas katsoa mitä tämä herra seuraavaksi sitten postaa.
 
Hienoa nähdä jospa se Ampere menee heittämällä ohitse Rtx2080, enkä odota yhtään vähempää Amperelta.
Energiatehokkuus täytyy olla parempi kuin 2000 sarjassa enkä epäile etteikö se voisi ollla.

Energiatehokkuus on täysin siitä kiinni miten ylös kellot pusketaan. Jos pidetään kellot / jännitteet optimialueella on varmasti energiatehokas, mutta jos ei nopeus riitä ja joudutaan puskemaan kelloja ja jännitteitä ylös niin energiatehokkuus kärsii todella paljon. (Niin kuin AMD:n viimeisimmät kortit Polariksesta asti...)
 
Twitterhemmotkin aktivoitui.

KatCorgi:
"The RTX 3080 has about 20% increase compared with RTX 2080 Ti"

Ja Kopite7kimi vastauksena siihen:
"It's true. Not bad, except of TGP."

Nuo menee lähes aina seulasta läpi, niin eiköhän tuo ole pian videocardzin yms sivujen uutisissa.
 
Itse olen ottanut Moore's Law Is Dead -kanavan ihan viihteenä, mikäs sen mukavampaa kun kahvikupposen (ja pullan, jos löytyy) kanssa katsoo sen pätkän kun on tarjolla. Pitää paikkansa tai sitten ei :)
 
Itse olen ottanut Moore's Law Is Dead -kanavan ihan viihteenä, mikäs sen mukavampaa kun kahvikupposen (ja pullan, jos löytyy) kanssa katsoo sen pätkän kun on tarjolla. Pitää paikkansa tai sitten ei :)

Itte en ole enää jaksanu edes viihteenä pahemmin kattella, not an apple fan on parempaa viihdettä jos noita puhuvia päitä haluaa viihteenä kattella.
 
Viimeksi muokattu:
Energiatehokkuus on täysin siitä kiinni miten ylös kellot pusketaan. Jos pidetään kellot / jännitteet optimialueella on varmasti energiatehokas, mutta jos ei nopeus riitä ja joudutaan puskemaan kelloja ja jännitteitä ylös niin energiatehokkuus kärsii todella paljon. (Niin kuin AMD:n viimeisimmät kortit Polariksesta asti...)
Tottakai se vaikuttaa mutta Nvidialla ei ole hetkeen ollut tappiin kellotettuja ohjaimia eikä toivottavasti tulekkaan.
Twitterhemmotkin aktivoitui.

KatCorgi:
"The RTX 3080 has about 20% increase compared with RTX 2080 Ti"

Ja Kopite7kimi vastauksena siihen:
"It's true. Not bad, except of TGP."

Nuo menee lähes aina seulasta läpi, niin eiköhän tuo ole pian videocardzin yms sivujen uutisissa.
Tämä TGP on siis ilmeisesti vain laskettu yhteen mitä näytönohjaimen komponentit kuluttaa.
En usko tuohon vuodettuun TGP, joku Custom malli kireillä kelloilla varmasti menee +300w mutta tuskin menee referenssinä.

Hyvin on laskettu tämän mystisen Gddr6x kulutuskin.
Tämän Gddr6X jatkuva tyrkytys huhuihin vie vaan uskottavuuden kaikelta muultakin.
Ja toi GPU power on vedetty vissiin hatusta?

Screenshot_20200721-124352__01.jpg
 
Viimeksi muokattu:
Kahvit lensi toistamiseen nenästä :kahvi::rofl2:

Mä en taida nyt puuttua haaveisiin enkä laskukaavoihin ettei tästä tule vääntöä väärässä topikissa.
Tulin itsekin justiinsa kahville, ja minä olen joka asiassa prosenttien kanssa silläkannalla että ei kannata ruveta turhaan sotkemaan elikkä jos 3080ti on+40-50% parempi kuin 2080ti eli on.
 
Hyvin on laskettu tämän mystisen Gddr6x kulutuskin.

Kyllä, se on hyvin laskettu. 24x2,5W=60W.

Tuolla GDDR6 kulutukseksi ilmoitettu toi 2,5W. Mutta kun nyt tästä GDDR6X höpötetään niin voisi olettaa että se on joku lempinimi kenties jollekkin kovin piiskatulle GDDR6:lle, jolloin se kulutus voikin olla korkeampi, vaikkapa 3W jolloin ne muistit kuluttaakin jo 72W, tai 12GB kortilla 36W.

Ja toi GPU power on vedetty vissiin hatusta?

EI, sitä ei ole hatusta vedetty vaan se on se jälelle jäävä kun on vähennetty noi muistit, VRM häviöt sun muut pois. Ihan peruskoulun matikkaa siis.
350 - 60 - 26 - 6 - 2 - 4 - 7 - 15 = 230
 
ainoa asia mikä vähän harmittaa on jos tosiaan kuluttaa sen 320+ w ja kovemmilla kelloilla jopa 350+w.
 
ainoa asia mikä vähän harmittaa on jos tosiaan kuluttaa sen 320+ w ja kovemmilla kelloilla jopa 350+w.
Ensinnäkin nämä luvut on vain teoreettisia ja ne on laskettu "paperille" eli ei ole mitään faktoja tai mitattuja mistään valmiista näytönohjaimesta.

Toisekseen huhu 350W on TGP ei TDP ja tämäkin arvo on teoreettinen johon on laskettu mukaan 24GB Vram"Gddr6X höpö höpö muisteilla"

Ja kulutuksen lisäksi täytyy tietää myös näytönohjaimen nopeus.
Ei mua harmita että mun 2080Ti hörppää yli tuon 350w ja vielä vähemmän harmittaa jos ja kun Ampere tarjoaa about samalla kulutuksella enemmän suorituskykyä.
350 - 60 - 26 - 6 - 2 - 4 - 7 - 15 = 230
Sun matikka on kyllä mielenkiintoista eikä vastaa mitenkään tähän kysymykseen.
Eli Mistä tämä Gpu power 230w on peräisin? Miten se on saatu?
Äläkä höpötä mistään typeristä vähennyslaskuista :facepalm:
 
Sun matikka on kyllä mielenkiintoista eikä vastaa mitenkään tähän kysymykseen.

Kyllä se vastasi tismalleen siihen kysymykseen. Se että et ymmärrä ei ole minun vika.

Eli Mistä tämä Gpu power 230w on peräisin? Miten se on saatu?

Sinä itse sen kuvan laitoit josta se käy hyvin selväksi.

Äläkä höpötä mistään typeristä vähennyslaskuista :facepalm:

No mennään sitten pääasiassa plussalaskuilla jos se ymmärtäminen olisi sitten helpompaa.
60W GDDR6 + 26W MOSFET NVDD + 6W MOSFET FBVDDQ + 2W MOSFET PEXVDD + 4W AUX + 7W Fan/Other + 15W PCB loss = 120W

Eli 120W palaa noihin kaikkiin muihin ja TGP kun on 350W ja siitä vähennetään 120W niin jäljelle jää 230W joka on se itse GPU:n kulutus.
 
Kyllä se vastasi tismalleen siihen kysymykseen. Se että et ymmärrä ei ole minun vika.



Sinä itse sen kuvan laitoit josta se käy hyvin selväksi.



No mennään sitten pääasiassa plussalaskuilla jos se ymmärtäminen olisi sitten helpompaa.
60W GDDR6 + 26W MOSFET NVDD + 6W MOSFET FBVDDQ + 2W MOSFET PEXVDD + 4W AUX + 7W Fan/Other + 15W PCB loss = 120W

Eli 120W palaa noihin kaikkiin muihin ja TGP kun on 350W ja siitä vähennetään 120W niin jäljelle jää 230W joka on se itse GPU:n kulutus.
Unohda nämä plus ja miinukset.

Mistä tiedät että GPU kulutus on 230w
Millä on arvioitu että se nimenomaan kuluttaisi 230w eikä esim 200w?190w?180w? eli mihin perustuu tämä 230w?

TGP kun on 350W
Mikä ihmeen kun? miten tämä on muka virallinen tai vahvistettu?
"TGP jos on"

350w TGP kun ei ole mikään Nvidian virallinen lukema vaan huhu/arvio joka perustuu vieläpä 24GB Gddr6X mitä ei ole edes olemassa.
 
Viimeksi muokattu:
Unohda nämä plus ja miinukset.

Mistä tiedät että GPU kulutus on 230w
Millä on arvioitu että se nimenomaan kuluttaisi 230w eikä esim 200w?190w?180w? eli mihin perustuu tämä 230w?

Luitko ihan oikeasti tuota igors labista postaamaasi artikkelin kuvaa ja artikkelia mistä se oli otettu? Siinä se oli laskettu edellisten sukupolvien dataa käyttämällä. Vaaditut komponentit ei nyt kauheasti pääse muuttumaan. Muistien kulutus on siinä kyllä isoin kysymysmerkki, kun mystisen gddr6x:n sijaan ne on todennäköisemmin kovemmilla kelloilla pyöriviä gddr6 muisteja ja ne haukkaa vähän enemmän sähköä. Plus laskuesimerkki oli 24Gb muistimäärällä varustetulle kortille.

Virransyötön komponenttien hyötysuhde ei pahemmin muutu, ellei sitten nvidia laita jotain nikosin roskaa sinne. Eikä tuulettimetkaan muutu paremmalla hyötysuhteella varustetuksi. Vaikka aika turhaanhan tuo oikeasti on, huhutut kulutukset on 300-375W TGP välillä ja nekin voi olla ihan pielessä. Tyyliin founders voikin olla 250W TGP tai MSI Gaming Z voi ollakkin 500W TGP, sen selviää vasta julkaisussa.
 
Luitko ihan oikeasti tuota igors labista postaamaasi artikkelin kuvaa ja artikkelia mistä se oli otettu? Siinä se oli laskettu edellisten sukupolvien dataa käyttämällä. Vaaditut komponentit ei nyt kauheasti pääse muuttumaan. Muistien kulutus on siinä kyllä isoin kysymysmerkki, kun mystisen gddr6x:n sijaan ne on todennäköisemmin kovemmilla kelloilla pyöriviä gddr6 muisteja ja ne haukkaa vähän enemmän sähköä. Plus laskuesimerkki oli 24Gb muistimäärällä varustetulle kortille.

Virransyötön komponenttien hyötysuhde ei pahemmin muutu, ellei sitten nvidia laita jotain nikosin roskaa sinne. Eikä tuulettimetkaan muutu paremmalla hyötysuhteella varustetuksi. Vaikka aika turhaanhan tuo oikeasti on, huhutut kulutukset on 300-375W TGP välillä ja nekin voi olla ihan pielessä. Tyyliin founders voikin olla 250W TGP tai MSI Gaming Z voi ollakkin 500W TGP, sen selviää vasta julkaisussa.
Jotain kummallisuuksia näissä ilmoitetuissa arvoissa on, käytännössä eli mitattuna saattaa olla hieman eri lukemia kuin paperilla.

2080Ti FE on TDP 260w
3090 TDP 230w

Kuulostaa hieman matalalta tämä 230w mutta sitten taas toisaalta TGP kuulostaa hieman yläkanttiin lasketulta mutta tietysti 10Gb/12Gb muistit tiputtaa tuota lukemaa.

RTX2080 TDP ja TGP välillä oli muistaakseni n.67w eroa.(virallisesti)
 
Jotain kummallisuuksia näissä ilmoitetuissa arvoissa on, käytännössä eli mitattuna saattaa olla hieman eri lukemia kuin paperilla.

2080Ti FE on TDP 260w
3090 TDP 230w

Kuulostaa hieman matalalta tämä 230w mutta sitten taas toisaalta TGP kuulostaa hieman yläkanttiin lasketulta mutta tietysti 10Gb/12Gb muistit tiputtaa tuota lukemaa.

RTX2080 TDP ja TGP välillä oli muistaakseni n.67w eroa.(virallisesti)

Igorin laskuista en suoraan sanottuna tarkasti tiedä, mutta se on toisaalta vanha konkari rautascenessä, niin ihan freelancepohjalta en menisi sen laskuja kiistämään. Kun virransyötön energiatehokkuus riippuu lämpötilastakin. Noiden virransyöttöjen selityksissä amatööreille tuli kyllä vastaavia kulutuslukemia, mitä igor laittoi. Esim

"For example, If the core pulls 200W at 1V, that's 200A, thru 0.00071 Ohm that's 28W dissipated on the mosfets.
If it were 12 phases of the same mosfet, that's 0.00041 Ohm series resistance, 16W disipated, a 12W difference, obviously this is assuming that they use the same mosfets on each card."

Eli about samoissa suuruusluokissa nuokin on mitä Igors listaili (riippuen konffista ja lämpötilasta). Tuo 2.5W per gddr6 muistimoduli tulee kyllä nopeasti googlella vastaan. Eli fiilispohjalta pitäisin tuota kyllä suht. valistuneena arvauksena.
 
Igorin laskuista en suoraan sanottuna tarkasti tiedä, mutta se on toisaalta vanha konkari rautascenessä, niin ihan freelancepohjalta en menisi sen laskuja kiistämään. Kun virransyötön energiatehokkuus riippuu lämpötilastakin. Noiden virransyöttöjen selityksissä amatööreille tuli kyllä vastaavia kulutuslukemia, mitä igor laittoi. Esim

"For example, If the core pulls 200W at 1V, that's 200A, thru 0.00071 Ohm that's 28W dissipated on the mosfets.
If it were 12 phases of the same mosfet, that's 0.00041 Ohm series resistance, 16W disipated, a 12W difference, obviously this is assuming that they use the same mosfets on each card."

Eli about samoissa suuruusluokissa nuokin on mitä Igors listaili (riippuen konffista ja lämpötilasta). Tuo 2.5W per gddr6 muistimoduli tulee kyllä nopeasti googlella vastaan. Eli fiilispohjalta pitäisin tuota kyllä suht. valistuneena arvauksena.

No ainoa joka itseäni pistää silmään tuossa sen laskuissa on, että 24GB olisi todennäköisesti 12*16gb muisteilla ei 24*8gb siruilla, näin se ainakin on esimerkiksi RTX Titanissa.
 
En tiedä oliko tämä jo käyty läpi, mutta itse en vahvistusta äkkiseltään tästä ketjusta löytänyt, mutta ilmeisesti tuo 12-pin liitin huhu pitää paikkansa;


TLDW; Tulee luultavasti refu/FE-kortteihin ja pakettikoneisiin, AIB:t todennäköisesti tekevät perinteisillä liittimillä varustettuja ja luultavasti tulee myös monille virtalähdevalmistajille kaapeleita myyntiin (joko valmistajalta suoraan, tai kolmannen osapuolen tekemänä).
 
Mikä ihmeen kun? miten tämä on muka virallinen tai vahvistettu?
"TGP jos on"

Koska otin kantaa siihen kuvaan niin siinä on ilmoitettu TGP/TDP 350W niin silloin se on kun, ei siinä ole mitään jossiteltavaa. Se mitä se oikeasti on, siihen en ottanut mitään kantaa.
 
No ainoa joka itseäni pistää silmään tuossa sen laskuissa on, että 24GB olisi todennäköisesti 12*16gb muisteilla ei 24*8gb siruilla, näin se ainakin on esimerkiksi RTX Titanissa.

Totta. 24 piiriä vaatisi 2x muistiväylän ja jos samaa piiriä käytetään, 3080/3080ti korteissa, niin sitä ei tule tapahtumaan. Aikaisemminhan käytiin läpi miten ne ohjaimet vie tilaa sirulta ja ne ei osin edes skaalaudu valmistusprosessin mukana, koska ne joutuu käsittelemään korkeampia jännitteitä. Eli olisi aika kallis viritys.
 
Totta. 24 piiriä vaatisi 2x muistiväylän ja jos samaa piiriä käytetään, 3080/3080ti korteissa, niin sitä ei tule tapahtumaan. Aikaisemminhan käytiin läpi miten ne ohjaimet vie tilaa sirulta ja ne ei osin edes skaalaudu valmistusprosessin mukana, koska ne joutuu käsittelemään korkeampia jännitteitä. Eli olisi aika kallis viritys.
Ei vaatisi 2x muistiväylää vaan muistit asetettaisiin vain clamshell-tilaan, mikä puolittaa kullekin muistisirulle menevän väylän leveyden eli saadaan tuplamäärä muistisiruja ja muistiväylä pysyy ennallaan.
 
Ei vaatisi 2x muistiväylää vaan muistit asetettaisiin vain clamshell-tilaan, mikä puolittaa kullekin muistisirulle menevän väylän leveyden eli saadaan tuplamäärä muistisiruja ja muistiväylä pysyy ennallaan.

No tuo oli kyllä uutta. Silti koko homman pohjalla on TGP huhu ja siitä yritetty laskea TDP arvoa, ei vähän suuntaa-antavaa arviota epäluotettavan tiedon päälle, eli ei nyt kovin vakavasti otettavaa "tietoa".

Koosteena 3080 olisi nyt twitterhemmojen mukaan 627mm2 (leikattu piiri), 20% nopeampi mitä 2080TI ja 320W TGP (2080 on 225W). Eli 42% kovempi kulutus ja 66% lisää nopeutta. Tuohon tietty päälle gddr6x muistit, jotka on olemassa vain huhuissa ja 8nm samsung prosessi, vaikka Jensen haastattelussa sanoi, että valtaosa tehdään TSMC:llä.

Kyllä tuo vähän haiskahtaa, mutta toisaalta noiden seuraaminen käy kyllä viihteestä.
 

Statistiikka

Viestiketjuista
258 272
Viestejä
4 488 673
Jäsenet
74 190
Uusin jäsen
puririri

Hinta.fi

Back
Ylös Bottom