AMD kertoi lisää RDNA 3:sta ja päivitti roadmappiin RDNA 4:n

Kaotik

Banhammer
Ylläpidon jäsen
Liittynyt
14.10.2016
Viestejä
22 377
amd-gpu-rdna-roadmap-20220610.jpg


Kaotik kirjoitti uutisen/artikkelin:
AMD on esitellyt Financial Analyst Day 2022 -tapahtumassaan seuraavan sukupolven CDNA 3 -datakeskuskiihdyttimen, pitkän liudan prosessoriuutisia Zen 4:stä ja Zen 5:stä, mutta myös grafiikkapuoli sai oman osansa huomiota. AMD avasi sanaista arkkuaan sekä RDNA 3:sta ja päivitti 5 nanometriä kehittyneemmällä prosessilla valmistettavan RDNA 4:n.



AMD:n diaesityksen mukaan se odottaa RDNA 3 -arkkitehtuurin tarjoavan yli 50 % parempaa suorituskykyä per watti, kuin RDNA 2. Parantuvan energiatehokkuuden takaa löytyy luonnollisesti 5 nanometrin valmistusprosessi, mutta omat lusikkansa soppaan ovat saaneet myös pikkusiruihin perustuva rakenne, uuteen arkkitehtuuriin perustuva Compute Unit, seuraavan sukupolven Infinity Cache -välimuisti ja optimoitu grafiikkalinjasto, mille ei annettu sen tarkempia merkityksiä.

Samalla yhtiö varmisti pitävänsä Navi-nimestä edelleen, sillä RDNA 4-piirit tullaan tuntemaan Navi4x-koodinimillä. Valitettavasti itse arkkitehtuurista ei kerrottu vielä mitään kehittynyttä valmistusprosessia tarkempaa. RDNA 4 -arkkitehtuuriin perustuvia näytönohjaimia on lupa odottaa viimeistään vuonna 2024.

Lähteet: AMD, Anandtech

Linkki alkuperäiseen juttuun
 
Yli 50% parannus energiatehokkuuteen nykyiseen verrattuna olisikin aika kova juttu, kun RTX 40 -sarjan on huhuttu olevan aika tehosyöppöjä kortteja.
 
Yli 50% parannus energiatehokkuuteen nykyiseen verrattuna olisikin aika kova juttu, kun RTX 40 -sarjan on huhuttu olevan aika tehosyöppöjä kortteja.

kopite7kimi väittää edelleen 4090 on 2x3090. Suorituskyky kasvaa 100%. Jos virrankulutus on jossain 500-600W välissä niin voisi väittää virrankulutuksen kasvaneen jotain 50% luokkaa.

Mutta aika näyttää, se firma joka jää alakynteen todnak. yrittää kuroa tehoeroa kiinni jäätävällä tehdasylikellotuksella, joka johtaa absurdiin lämmöntuottoon. Nvidia ainakin huhujen puhjalta tuntuu tuollaista stunttia suunnittelevan/valmistelevan. Mutta toki muutama kuukausi tarvii vielä odotella, että alkaa tilanne oikeasti selviämään. Melkoinen silly season menossa huhujen osalta. Josko jossain syys/lokakuussa jotain tiedettäisiin varmaksi.

 
kopite7kimi väittää edelleen 4090 on 2x3090. Suorituskyky kasvaa 100%. Jos virrankulutus on jossain 500-600W välissä niin voisi väittää virrankulutuksen kasvaneen jotain 50% luokkaa.
Suhtaudun aika skeptisesti tuohon nimenomaiseen huhuun. Milloin viimeksi on nähty tuollaisia lukuja sukupolvelta toiselle? Toteutuessaan tulee aivan järkyttävällä tehonkulutuksella kuitenkin, jolloin ensimmäinen viestini pätee sitäkin enemmän.
 
Suhtaudun aika skeptisesti tuohon nimenomaiseen huhuun. Milloin viimeksi on nähty tuollaisia lukuja sukupolvelta toiselle? Toteutuessaan tulee aivan järkyttävällä tehonkulutuksella kuitenkin, jolloin ensimmäinen viestini pätee sitäkin enemmän.

Elämme pitkästä aikaa sellaisessa hetkessä, jossa sekä nvidia, että amd ottaa kaikki löysät pois, koska kilpailu on kovaa. Millon lie viimeksi amd ollut näin lähellä suorituskykykrunun takaisinottamista? Enkä edes ylläty, jos amd on kukkulan kuningas kun tomu laskeutuu.
 
AMD:n diaesityksen mukaan se odottaa RDNA 3 -arkkitehtuurin tarjoavan yli 50 % parempaa suorituskykyä per watti, kuin RDNA 2. Parantuvan energiatehokkuuden takaa löytyy luonnollisesti 5 nanometrin valmistusprosessi, mutta omat lusikkansa soppaan ovat saaneet myös pikkusiruihin perustuva rakenne, uuteen arkkitehtuuriin perustuva Compute Unit, seuraavan sukupolven Infinity Cache -välimuisti ja optimoitu grafiikkalinjasto, mille ei annettu sen tarkempia merkityksiä.

Pikkusiruihin perustuvan rakenteen suorat vaikutuset monoliittipiiriin verrattuna vaan on energiantehokkuutta huonontavia eikä parantavia, koska signaalin pitää mennä piilastujen välillä pidempiä ja paksumpia johdotuksia pitkin. Mutta jos on samalla lisätty laskentayksiköiden kokonaismäärää reippaasti ja vähennetty kelloja, saadaan toki enegiatehokkuutta paremmaksi.

SRAM-pohjaisen välimuistin määrän lisääminen voi tosiaan vähentää accesseja DRAMiin, jonka accessoiminen on selvästi virtasyöpömpää.

Oleellisin energiatehokkuusparannus kuitenkin tulee tuosta prosessinvaihdosta, N7aan nähden TSMC lupaa N5lle samalla kellolla 30% pienempää virrankulutusta mikä tarkoittaisi 1/(1-0.3) = 1.43x energiatehokkuusparannusta. Toki se, mikä realisoituu riippuu aika paljon esim. kellotaajuuksista, tämä olisi samalla kellolla, ja jos kelloa lisätään, ero kapenee.
 
Viimeksi muokattu:
Mielenkiintoista tuleeko myös kuluttajanäyttiksiä useammalla chipletillä ja millaista etua tuo mahdollisesti toisi.

Ehkäpä pääsisi toivottuun suorituskykyluokkaan paremmalla perf/watt hyötysuhteella, jos ei tarvitse hakea viimeisiä prosentteja ylikellotuksella.

Huhumyllyssä pyörinyttä 500-600W nVidia näytönohjainta on vaikea uskoa todeksi. Olisi aika vastuutonta valmistaa yhä pahempia tehosyöppöjä maailman nykytilanteessa.
 
Mielenkiintoista tuleeko myös kuluttajanäyttiksiä useammalla chipletillä ja millaista etua tuo mahdollisesti toisi.

Ehkäpä pääsisi toivottuun suorituskykyluokkaan paremmalla perf/watt hyötysuhteella, jos ei tarvitse hakea viimeisiä prosentteja ylikellotuksella.

Huhumyllyssä pyörinyttä 500-600W nVidia näytönohjainta on vaikea uskoa todeksi. Olisi aika vastuutonta valmistaa yhä pahempia tehosyöppöjä maailman nykytilanteessa.
Tuossa puhutaan rdna laitteista, eli kuluttajille. Mielenkiinnolla kyllä odotan millainen chiplet toteutus sieltä tulee.
 
Mitä meinaat tällä vastuuttomuudella?

Tällä viitataan ilmeisesti ilmastonpelastushömpötykseen. Onneksi sentää rautapuolella ei olla vielä, *koputtaa puuta*, lähdetty rajoittamaan tehoja kuluttajaelektroniikassa ilmaston pelastamiseksi.

Sitä paitsi jos sähkö tuotetaan ydinvoimalla niin mitä väliä sillä on paljonko joku komponentti kuluttaa sähköä? Ilmastonmuutosta isompana ongelmana pidän näiden kiukaiden jäähdytystä joka johtaa väistämättä suihkuturbiineja muistuttavaan meluun.
 
Asioiden kokoluokat unohtuu ihan valtavan nopeasti. jos pelailee sillä 600W kortilla vaikka 3h illassa tai käy bensa-autolla ajamassa salilla 5km suuntaansa mutkan, että saa jumpata niin kumpi saastutti enemmän? Ekana varmaan pitäs miettiä isoja asioita ja vaikka alkaa fillaroimaan, käveleen jne jne. PeliPC varmaan aika viimeisiä kohteita optimoida, jos haluaa säästää ympäristöä. Eikä edes aleta puhumaan jostain moottorikelkkailuista tms. harrastuksista missä saastuttavuus nousee uusiin potensseihin,

Konkreettisemmin mulla talvella sähkölasku on noin 25$/kk. Nyt kun on ulkona 40C+ niin ilmastointi huutaa ja sähkölasku 90$/kk. Ilmastointi on niin monta kertaa enempi sähköä vaativa kuin pelipc ettei se pc näy missään. Varsinkin, kun suurimman osan ajasta kone on melkein idlenä eikä cpu ja gpu tapissa. Talvella eristys toimii ja arska lämmittää sen verran ettei tarvi lämmittää kämppää. Sen mitä kesällä tuhlaa jäähdytykseen saa "takaisin" talvella.
 
Tällä viitataan ilmeisesti ilmastonpelastushömpötykseen. Onneksi sentää rautapuolella ei olla vielä, *koputtaa puuta*, lähdetty rajoittamaan tehoja kuluttajaelektroniikassa ilmaston pelastamiseksi.

Sitä paitsi jos sähkö tuotetaan ydinvoimalla niin mitä väliä sillä on paljonko joku komponentti kuluttaa sähköä? Ilmastonmuutosta isompana ongelmana pidän näiden kiukaiden jäähdytystä joka johtaa väistämättä suihkuturbiineja muistuttavaan meluun.

Ei siihen mitään ilmastonpelastushömpötysajatusta tarvitse, mutta jos sähkölaskut maksaa itse, niin mieluummin maksan vähemmän kuin enemmän ja päälle tulee ongelmaksi tuo jäähdytyksen tuottama melu.
 
Tällä viitataan ilmeisesti ilmastonpelastushömpötykseen. Onneksi sentää rautapuolella ei olla vielä, *koputtaa puuta*, lähdetty rajoittamaan tehoja kuluttajaelektroniikassa ilmaston pelastamiseksi.

Sitä paitsi jos sähkö tuotetaan ydinvoimalla niin mitä väliä sillä on paljonko joku komponentti kuluttaa sähköä? Ilmastonmuutosta isompana ongelmana pidän näiden kiukaiden jäähdytystä joka johtaa väistämättä suihkuturbiineja muistuttavaan meluun.

Henkilökohtaisesti vituttaa varsinkin kesällä joka ikinen ylimääräinen watti koska se tulee pöntöstä lämpönä huoneeseen.
 
Henkilökohtaisesti vituttaa varsinkin kesällä joka ikinen ylimääräinen watti koska se tulee pöntöstä lämpönä huoneeseen.

Kesällä vaikka kalastelee ja pelaa talvella, kun ulkona on jääkarhuvaara :/ Mulla oli ennen muuttoa asunto missä ei ollut ilmastointia. Pahimmillaan kesällä 36C sisälämpö, talvella 10C aamusta. Lämmitys sellanen kaasuhärveli, joka kyllä oli tehokas, mutta erittäin äänekäs ja lämpö karkas seinien läpi harakoille. Ei pystynyt nuq, jos piti öisin lämmitystä päällä.

Sillon hikoilutti sekä ukkoa että konetta kesällä. Talvella oli aika kylmä. Se on aika äärimmäistä miten paskaksi menee rakentamisen laatu, kun teoriassa voi pärjätä vähemmälläkin.
 
kopite7kimi väittää edelleen 4090 on 2x3090. Suorituskyky kasvaa 100%. Jos virrankulutus on jossain 500-600W välissä niin voisi väittää virrankulutuksen kasvaneen jotain 50% luokkaa.

Jos lasketaan että virallisesti 6900XT vie sen 300W ilman kellotuksia tms. ja jos 7900XT on 50% tehokkaampi voidaan laskea että:
2/1,5 = 1.333333333333333 jne
Joten 300 x 1.33333333333333 jne = 400W vievä 7900XT vastaisi siis tuplasti tehoiltaan 6900XT korttia.
(" Being a triple-slot card, the AMD Radeon RX 6900 XT draws power from 2x 8-pin power connectors, with power draw rated at 300 W maximum.")

Tietysti voidaan vetää jokaisen kortin kanssa noita tietoja mutta käsittääkseni on aina puhuttu lähinnä siitä että "paras" olisi ollut se AMD:n vakiona myymä 6900XT eikä mikään special versio tai kellotettu 6950XT versiokaan. Toki on ollut huhuja ties mistä virrankulutuksista, kellotuksista puhumattakaan.
 
Jos lasketaan että virallisesti 6900XT vie sen 300W ilman kellotuksia tms. ja jos 7900XT on 50% tehokkaampi voidaan laskea että:
2/1,5 = 1.333333333333333 jne
Joten 300 x 1.33333333333333 jne = 400W vievä 7900XT vastaisi siis tuplasti tehoiltaan 6900XT korttia.
(" Being a triple-slot card, the AMD Radeon RX 6900 XT draws power from 2x 8-pin power connectors, with power draw rated at 300 W maximum.")

Tietysti voidaan vetää jokaisen kortin kanssa noita tietoja mutta käsittääkseni on aina puhuttu lähinnä siitä että "paras" olisi ollut se AMD:n vakiona myymä 6900XT eikä mikään special versio tai kellotettu 6950XT versiokaan. Toki on ollut huhuja ties mistä virrankulutuksista, kellotuksista puhumattakaan.

Minä mietin tätä samaa matematiikkaa, mutta ei oikein nykytiedolla voi arvata miten käy. Vaikka tiedetään, että rdna3 on 50% energiatehokkaampi samalla suorituskuvyllä kuin rdna2 niin ei tiedetä miten se suorituskyky siitä sitten skaalaantuu, jos pitää ottaa enemmän tehoja irti. Voi nousta melkein lineaarisesti suorituskyky ja lämmöntuotto tai sitten suorituskyky nousee lineaarisesti ja virrankulutus exponentiaalisesti. Voimme toki arvailla ja arvioida. imho. spekulointi on kivaa.

Se valmistaja, joka joutuu ylikellottamaan piirinsä, että saa suorituskyvyn kohdalleen kärsii. Vrt. jotkin vega-tuotteet ja alikellottelut. Kovasti nvidia ainakin valmistautuu noihin ylikellotusjuttuihin huhujen pohjalta, kun ollut 600W jopa 800-900w huhuja.
 
Jos lasketaan että virallisesti 6900XT vie sen 300W ilman kellotuksia tms. ja jos 7900XT on 50% tehokkaampi voidaan laskea että:
2/1,5 = 1.333333333333333 jne
Joten 300 x 1.33333333333333 jne = 400W vievä 7900XT vastaisi siis tuplasti tehoiltaan 6900XT korttia.
(" Being a triple-slot card, the AMD Radeon RX 6900 XT draws power from 2x 8-pin power connectors, with power draw rated at 300 W maximum.")

Tietysti voidaan vetää jokaisen kortin kanssa noita tietoja mutta käsittääkseni on aina puhuttu lähinnä siitä että "paras" olisi ollut se AMD:n vakiona myymä 6900XT eikä mikään special versio tai kellotettu 6950XT versiokaan. Toki on ollut huhuja ties mistä virrankulutuksista, kellotuksista puhumattakaan.
Nyt en kyllä pysy ollenkaan kärryllä, mistä keksit 2/1,5 tuonne? Se ei täsmää tekstin kanssa mistään kohtaa.
 
Nyt en kyllä pysy ollenkaan kärryllä, mistä keksit 2/1,5 tuonne? Se ei täsmää tekstin kanssa mistään kohtaa.

Siis jos 100% tuosta 300W (eli tämän hetkinen 6900XT) on no.. ..100% ja täsmälleen saman verran (300W) vievä 7900XT (tai millä nimellä sitten julkaistaankaan) olisi sen luvatun 50% tehokkaampi (eli 150% tuosta 6900XT JOS samalla 300W) niin ollakseen 200% tehokkaampi (kuten vuodot ovat väittäneet) tuon 7900XT pitäisi siis:
2 (huhuttu teho) jaettuna 1.5 (eli tuolla 300W millä tulos olisi siis +50% tehoa eikä luvattua 100% eli tuplaten), tulos on 1.333333333 jne loputtomiin
Joten kertomalla tuon nykyisen 300W kulutuksen saadaksemme selville huhutun 200% tehon (150% teho olisi siis kertomalla tuo 1) se täytyy kertoa tuolla summalla eli 1.33333333333 mistä saadaan selville paljonko tuon tulevan kortin mikä vastaisi tuplasti teholtaan 6900XT (mikä ilmeisesti vei 300W) pitäisi kuluttaa (eli 400W).

Edit: toki kuten mainittua ei tuo 100% toimi noin. Eli voi hyvinkin olla että se uusi tehokortti onkin esim. 425W tai "vain" 375W tms. mutta teoriassa jos mitä AMD sanoo pitää paikkansa niin jokainen nykyinen kortti kertaa tuon 1.3333333333 numeron pitäisi teoriassa vastata sitä kulutusta millä sitä vastaava (200% tehokkaampi) seuraavan sukupolven kortti on. Mikä ei tietysti pidä paikkaansa koska (käsittääkseni) esim. halvimman (mikä se nyt onkaan joku 6500 tms) ja kalleimman (tehdas ylikellotettu 6950XT vesikello special version) energian kulutus ja saatu suorituskyky per watti eivät (uskallan väittää, en ole testannut) ole suoraan verrannollisia eli tulos tuskin on sama.
 
Viimeksi muokattu:
Näissä taitaa vain olla tapana ilmoitella energiatehokkuutta siten että esim 50% parempi energiatehokkuus tarkoittaa, että se uusi näyttis pystyy esim tuohon 6900xt:n (300w) suorituskykyyn 200w tehobudjetilla,
eli uusi näyttis toimii paljon optimaalisemmalla perf/w alueella testausskenaariossa.
Sitten tämä uusi näyttis kuitenkin kellotetaan ihan tappiin ja perf/w huononee huomattavasti, joten lopputuote esim sillä 400w tehobudjetilla ei sitten omaakkaan kuin esim 10-20% paremman perf/w lukeman kuin aiempi sukupolvi kun molempia verrataan täyden tehobudjetin ollessa käytössä.
 
kopite7kimi väittää edelleen 4090 on 2x3090. Suorituskyky kasvaa 100%. Jos virrankulutus on jossain 500-600W välissä niin voisi väittää virrankulutuksen kasvaneen jotain 50% luokkaa.

Mutta aika näyttää, se firma joka jää alakynteen todnak. yrittää kuroa tehoeroa kiinni jäätävällä tehdasylikellotuksella, joka johtaa absurdiin lämmöntuottoon. Nvidia ainakin huhujen puhjalta tuntuu tuollaista stunttia suunnittelevan/valmistelevan. Mutta toki muutama kuukausi tarvii vielä odotella, että alkaa tilanne oikeasti selviämään. Melkoinen silly season menossa huhujen osalta. Josko jossain syys/lokakuussa jotain tiedettäisiin varmaksi.


Intelin pitkä hegemonia päättyi tähän lämmöntuottoon, noin prossupuolella. Hurja virrankulutus ja jäähdytystarve vaatii usein kopan ja PSU:n vaihtoa.

Mutta kuten sanoit, huhut ovat sitä itseään, ja raudan tullessa ulos, voidaan lopettaa fiktio
 
Siis jos 100% tuosta 300W (eli tämän hetkinen 6900XT) on no.. ..100% ja täsmälleen saman verran (300W) vievä 7900XT (tai millä nimellä sitten julkaistaankaan) olisi sen luvatun 50% tehokkaampi (eli 150% tuosta 6900XT JOS samalla 300W) niin ollakseen 200% tehokkaampi (kuten vuodot ovat väittäneet) tuon 7900XT pitäisi siis:
2 (huhuttu teho) jaettuna 1.5 (eli tuolla 300W millä tulos olisi siis +50% tehoa eikä luvattua 100% eli tuplaten), tulos on 1.333333333 jne loputtomiin
Joten kertomalla tuon nykyisen 300W kulutuksen saadaksemme selville huhutun 200% tehon (150% teho olisi siis kertomalla tuo 1) se täytyy kertoa tuolla summalla eli 1.33333333333 mistä saadaan selville paljonko tuon tulevan kortin mikä vastaisi tuplasti teholtaan 6900XT (mikä ilmeisesti vei 300W) pitäisi kuluttaa (eli 400W).

Edit: toki kuten mainittua ei tuo 100% toimi noin. Eli voi hyvinkin olla että se uusi tehokortti onkin esim. 425W tai "vain" 375W tms. mutta teoriassa jos mitä AMD sanoo pitää paikkansa niin jokainen nykyinen kortti kertaa tuon 1.3333333333 numeron pitäisi teoriassa vastata sitä kulutusta millä sitä vastaava (200% tehokkaampi) seuraavan sukupolven kortti on. Mikä ei tietysti pidä paikkaansa koska (käsittääkseni) esim. halvimman (mikä se nyt onkaan joku 6500 tms) ja kalleimman (tehdas ylikellotettu 6950XT vesikello special version) energian kulutus ja saatu suorituskyky per watti eivät (uskallan väittää, en ole testannut) ole suoraan verrannollisia eli tulos tuskin on sama.
Aivan aivan, sain kiinni punaisesta langasta
 
Näissä taitaa vain olla tapana ilmoitella energiatehokkuutta siten että esim 50% parempi energiatehokkuus tarkoittaa, että se uusi näyttis pystyy esim tuohon 6900xt:n (300w) suorituskykyyn 200w tehobudjetilla,
eli uusi näyttis toimii paljon optimaalisemmalla perf/w alueella testausskenaariossa.
Nvidia on noita vääristellyt ainakin Amperen julkkarissa, mutta AMD:n lukemat tais kyllä olla ihan rehelliset RDNA -> RDNA2 siirtymän yhteydessä, jolloin luvattiin samat +50% perf/watt:

03c-Efficiency-UHD.png


 
Näissä taitaa vain olla tapana ilmoitella energiatehokkuutta siten että esim 50% parempi energiatehokkuus tarkoittaa, että se uusi näyttis pystyy esim tuohon 6900xt:n (300w) suorituskykyyn 200w tehobudjetilla,
eli uusi näyttis toimii paljon optimaalisemmalla perf/w alueella testausskenaariossa

Ei tuota lukua varten ole testattu mitään kortteja, graafin otsikkokin jo ilmaisee että se perustuu puhtaasti laskettuun kulutukseen joka sitten voi toteutua tai olla toteutumatta riippuen siitä minkälaista tuotetta tulee pihalle. Kun esim. AMD sanoo RDNA2 vs RDNA3 niin silloinhan ei tosiaan viitata mihinkään yksittäiseen konfiguraatioon vaan yleisesti arkkitehtuuriin.

Vaikka projektio olisikin oikea arkkitehtuurista puhuttaessa niin voi tilanne jonkun 7950XT:n kanssa olla ihan eri jos tehot jää skaalautumatta hyvin isoilla kelloilla joita sellaiseen korttiin väistämättä yritetään saada. Sen sijaan joku 7400 voi viedä vähemmän kuin hehkulamppu mutta absoluuttinen suorituskyky sitten jääkin sen mukaiselle tasolle.
 
Ei tuota lukua varten ole testattu mitään kortteja, graafin otsikkokin jo ilmaisee että se perustuu puhtaasti laskettuun kulutukseen joka sitten voi toteutua tai olla toteutumatta riippuen siitä minkälaista tuotetta tulee pihalle. Kun esim. AMD sanoo RDNA2 vs RDNA3 niin silloinhan ei tosiaan viitata mihinkään yksittäiseen konfiguraatioon vaan yleisesti arkkitehtuuriin.

Vaikka projektio olisikin oikea arkkitehtuurista puhuttaessa niin voi tilanne jonkun 7950XT:n kanssa olla ihan eri jos tehot jää skaalautumatta hyvin isoilla kelloilla joita sellaiseen korttiin väistämättä yritetään saada. Sen sijaan joku 7400 voi viedä vähemmän kuin hehkulamppu mutta absoluuttinen suorituskyky sitten jääkin sen mukaiselle tasolle.
Ja jos lontoo ei taivu niin uutisessa ihan lukeekin että AMD odottaa x% parempaa perf/watt, ei että se olisi sitä nyt, jonkun testin mukaan tai muuta sellaista
 
Toivottavasti tämä energiatehokkuus tarkoittaa sitä että esim 750W virtalähteen omistava saisi suoraan tuohon päivitettyä vain näytönohjaimen eikä tarttis lähtee +1000W virtalähdettä metsästää.
 
Toivottavasti tämä energiatehokkuus tarkoittaa sitä että esim 750W virtalähteen omistava saisi suoraan tuohon päivitettyä vain näytönohjaimen eikä tarttis lähtee +1000W virtalähdettä metsästää.
Aivan varmasti tulee myös alle 350W näyttiksiä.

Mielestäni turhaa karsastaa huippunäyttisten nousevia tehonkulutuksia, kun niitä hillitympiäkin teholuokkia tulee tarjolle ja myös niitä koskee pienemmän valmistustekniikan ja uudistuneen arkkitehtuurin mukanaan tuomat edut.
 
Jos lähtee kovin tuota energiankulutusta pohtimaan niin josko kielletään koko pelaaminen tai ainakin pc-pelaaminen ja ainoa valtion sallittu konsoli on switch teholuokan laitteet. Tai vielä parempi ainoastaan energiatehokkaalla puhelimella saa pelata, jotta vältetään ylimääräinen pelilaitteista tuleva ser-jäte ja resurssien kuluttaminen hukkaan.

Tuskin pelipc:t älyttömiä kuluttaa, jos mietitään kokonaisuutta mihin kaikkeen energiaa menee. Virransäästö toiminee normaalikäytössä, jos surffii webbiä, katsoo netflixiä tms. Tuskin pelitkään koko ajan pitää virrankulutusta tapissa poislukien ne pelaajat, jotka pelaa benchmarkkeja.

Samaan aikaan kuitenkin jengi menee pikkumatkakin fossiilisia polttoaineita käyttävällä autolla, harrastaa moottorikelkkailua, käydään lentokoneella lomareissussa tai autolla roadtrip:lla yms.

Tässä on oiva paikka kuluttajan äänestää. Ostaa sellaisia laitteita mitkä miellyttää. Jos ei ole markkinaa teho gpu:lle niin ne kuolevat pois.
 
Viimeksi muokattu:
Jos lähtee kovin tuota energiankulutusta pohtimaan niin josko kielletään koko pelaaminen tai ainakin pc-pelaaminen ja ainoa valtion sallittu konsoli on switch teholuokan laitteet. Tai vielä parempi ainoastaan energiatehokkaalla puhelimella saa pelata, jotta vältetään ylimääräinen pelilaitteista tuleva ser-jäte ja resurssien kuluttaminen hukkaan.

Tuskin pelipc:t älyttömiä kuluttaa, jos mietitään kokonaisuutta mihin kaikkeen energiaa menee. Virransäästö toiminee normaalikäytössä, jos surffii webbiä, katsoo netflixiä tms. Tuskin pelitkään koko ajan pitää virrankulutusta tapissa poislukien ne pelaajat, jotka pelaa benchmarkkeja.

Samaan aikaan kuitenkin jengi menee pikkumatkakin fossiilisia polttoaineita käyttävällä autolla, harrastaa moottorikelkkailua, käydään lentokoneella lomareissussa tai autolla roadtrip:lla yms.

Tässä on oiva paikka kuluttajan äänestää. Ostaa sellaisia laitteita mitkä miellyttää. Jos ei ole markkinaa teho gpu:lle niin ne kuolevat pois.
"Lompakolla äänestäminen" on kyllä typerin asia mitä ihmisiin on viimeisten vuosikymmenten aikana yritetty iskostaa, usein siinä on jopa onnistuttu.

E: Sanotaanko, jos AMD onnistuu pääsemään vaikkapa 10 % pienempään rasterointitehoon vs. Nvidia, mutta tekee sen montakymmentä prosenttia energiatehokkaammin, on AMD kyllä vienyt kruunun parhaan näytönohjaimen tittelistä.
 
"Lompakolla äänestäminen" on kyllä typerin asia mitä ihmisiin on viimeisten vuosikymmenten aikana yritetty iskostaa, usein siinä on jopa onnistuttu.

E: Sanotaanko, jos AMD onnistuu pääsemään vaikkapa 10 % pienempään rasterointitehoon vs. Nvidia, mutta tekee sen montakymmentä prosenttia energiatehokkaammin, on AMD kyllä vienyt kruunun parhaan näytönohjaimen tittelistä.

Mun kommentti ei liittynyt mitenkään amd vs. nvidia vääntöön tai siihen mitä tehoa per watti saa.

Ei niin suorasti sanottua ja suorasti sanottua kieltäkää 400W, 600W tuotteet kauhistelua on monessa ketjussa. Kyllä sieltä tulee niitä vähemmänkin kuluttavia perusmalleja tarjolle. Ei kaikki kortit ole tappiin asti kellotettuja överikulutuksellisia halo malleja. Tai jos on niin sama protokolla kuin vegan kanssa. Pienellä alikellolla voi saada paremmankin suorituskyvyn ja oleellisesti pienemmän virrankulutuksen. Viimeiset tehot kuitenkin otetaan irti nostamalla virrankulutusta exponentiaalisesti.

 
Ei siihen mitään ilmastonpelastushömpötysajatusta tarvitse, mutta jos sähkölaskut maksaa itse, niin mieluummin maksan vähemmän kuin enemmän ja päälle tulee ongelmaksi tuo jäähdytyksen tuottama melu.
Tuskin olet ostanut 3090TI korttiakaan joka kuluttaa tänä päivänä 450-500W. Ne on myös suht hiljaisia, samaa tasoa kuin muutkin kortit. Noiden wattien jäähdyttäminen hiljaisesti ei ole vaikeaa jos tilankäyttöä ei rajoiteta. Ainakin minulle on täysin yhdentekevää jos parin kolmen tonnin kärkikortti kuluttaa 500-600W. En ole ostamassa sellaista ikinä. Et ole sinäkään joten turha huolehtia sähkölaskuista. Ostelet vaan niitä 200-300W keskitason kortteja kuten monet muutkin. Muutenkin on vain parempi että kärkikortit ovat mahdollisimman tehokkaita vaikka sitten energiatehokkuuden kustannuksella. Ne vaikuttaa positiivisesti keskikastin korttien hinta/tehosuhteeseen.
 
Toivottavasti tämä energiatehokkuus tarkoittaa sitä että esim 750W virtalähteen omistava saisi suoraan tuohon päivitettyä vain näytönohjaimen eikä tarttis lähtee +1000W virtalähdettä metsästää.

Hiukan pahalta näyttää kun katselee noitten nykyisten huippumallien piikkejä mitä ne ottaa.

power-spikes.png


Jo 3080 kanssa oli joillakin powereilla ongelmia, Ilmeisesti tossa 6900XT:ssä ollu joku ajuri problem joka myöhemmin saatu aisoihin kun 6950XT piikkaa huomattavasti vähemmän.
Taisi nvidia myöskin ajureilla saata jotain älyttömiä piikkejä kuriin. Mutta kyllähän noi vaan tulee kasvamaan jos keskikulutus kasvaa.

E: Sanotaanko, jos AMD onnistuu pääsemään vaikkapa 10 % pienempään rasterointitehoon vs. Nvidia, mutta tekee sen montakymmentä prosenttia energiatehokkaammin, on AMD kyllä vienyt kruunun parhaan näytönohjaimen tittelistä.

Taitaa toi jo toteutua tälläkin hetkellä. Úlkomuistista 6950XT vs 3090Ti niin 3090Ti 10 pinnaa nopeampi mutta kuluttaa yli 30 pinnaa enemmän saavuttaakseen tuon.

Toki AMD:llä node etu tässä sukupolvessa, joten saa nähdä miten seuraavassa menee noi.
 
Säteenseurannan olettais paranevan, koska nyt ollaan todella pahasti nvidiaa jäljessä, vaikka kilpaillaan periaatteessa samassa hintaluokassa. Ei meinaan ole mikään hetkellinen trendi kuitenkaan.
 
Tuskin olet ostanut 3090TI korttiakaan joka kuluttaa tänä päivänä 450-500W. Ne on myös suht hiljaisia, samaa tasoa kuin muutkin kortit. Noiden wattien jäähdyttäminen hiljaisesti ei ole vaikeaa jos tilankäyttöä ei rajoiteta. Ainakin minulle on täysin yhdentekevää jos parin kolmen tonnin kärkikortti kuluttaa 500-600W. En ole ostamassa sellaista ikinä. Et ole sinäkään joten turha huolehtia sähkölaskuista. Ostelet vaan niitä 200-300W keskitason kortteja kuten monet muutkin. Muutenkin on vain parempi että kärkikortit ovat mahdollisimman tehokkaita vaikka sitten energiatehokkuuden kustannuksella. Ne vaikuttaa positiivisesti keskikastin korttien hinta/tehosuhteeseen.

En ole todellakaan ostamassa 3090TI:tä, siinä olet oikeassa. Kotikoneista löytyy sen sijaan 3090, 3080Ti ja 3070 - toki silti huolehdin sähkölaskuista.
 
huomioita netistä ja kommentteja...

hmm,ensiksi rdna3 syö aika varmasti lähelle 500w tehoja,ellei, voi unohtaa kamppailut rtx 4000 vastaan,tehoja kun ei tule ilmaiseksi,
ellei amd ole keksinyt välttää fysiikan lakeja tai sanotaan todella nopean auton polttomoottorilla joka vie vähän bensaa... lol

ja sitten, tulevat näykkärit?! kummaltakin tulossa hirmuisia petoja..oikeastaan mihin niitä,varsinkin top malleja tarvitaan.....nooh, joku pelaa 34-55" näytöllä 4K:lla tai jopa 8K:lla,
pienen pieni osa pelaajista kuitenkin,0,5%...
koskahan tulee näykkäreihin eu direktiivi tai jotain, esim max virrankulutus.. vaikka 350-500w? ois ihan ok nykyaikana.

toiseksi, täytyy muistaa että nvidia näykkärit on nyt pitkästä aikaa,samalla viivalla rdna3:n kanssa, molemmat 5nm tehty(nvidian tosin optimoitu 5nm,sanotaan 4N malliksi), joten katsotaan se virran kulutus sitten....
kuitenkin..huhuista päätellen näyttää että nvidia on ottanut kaiken tehon irti korteistaan välittämättä virranotosta,mutta noilla tehopakkausksilla 450W on normaalia.

sillä jos muistetaan.. ,amd teki vega ja fury x:n 7 vuotta sitten, eli kivikausi välissä ja kortit vei virtaa ihan älyttömästi suorituskykyyn verrattuna,saman tai melkein kuin nyt tulevat uudet kortit...
eipä kauheesti ollut silloin krtitiikkiä. arkistot siellä on.....?

no....googlella voi kattoa watteja,esim techpowerup sivusto
esim. furmark gtx 1080 ti 267w vs fury x 432W! ja gtx 2080 ti 285w vs amd vega 64 309w!
jopa io-tecin omassa testissä söi yli 100W enmmän kuin 1080 oc,, loppuraportti...huh! no, ulkomaiset sivut sentään..jotain
siellä se on, haulla vaan.. suorituskyky oli eri luokkaa myöskin.

ja tosiaan,silti testeissä amd korttien virrankulutukseen ja lämpöihin suhtaudutiin aika löysästi,vaikka nvidia piti watit ja metelit kohtuu lukemissa,kytättiin vain fps:jä..
harvoin luin testeistä kritiikkiä amd vega ja fury x malleille.. noh,mitä nvidia siitä teki päätöksiään....

nyt kun kaksi (2)kertaa rtx 3090 tehoinen kortti (huhu edelleen)ja oisko 4 kertaa vega suorituskyky antava kortti, rtx 4090 tulee ja watteja menee 150W enenmmän....blaa blaa.
come on..

nyt, rx 6950 vei saman jo kuin 3090 (sitten kun pärjää suorituskyvyssä)ja peakissa paljon enemmän. (rx 6950 formula)
jos rdna3 aikoo edes lähelle rtx 4090 tehoja sanon että 450-550w on aika hyvä arvio. jos alle 400W...

nvidia adalovelace titan ,eli oisko rtx 4090 ti,on sitten kortti jolla nvidia pitää vain huolta että on nopein kortti maan päällä kunnes rtx 5000:t (tai rdna4:t)saapuu 2024/2025
tehonkulutus? who cares!

io-tech modet ja pomot,koittakaa nyt edes... yrittäkää edes olla puna/vihreitä(sini) värisiä... siis objektiivisia...koko ajan saa lukea amd siellä amd täällä..hmm, paha siinä on vertailla...

intel näykkärit?...en oikein usko noihin, lohkaisee kyllä budget luokasta oman osansa,jos ajurit on kunnolliset.

lopuksi#2, jos 5nm zen4 ei pese 10nm intel raptoria, ei hyvä amd cpu sektorille.

mutta silti,todella,todella hankalaa on amd:n cpu sektorille sitten vuodet 2023-2025, kun meteor,arrow,lunar ja nova laket saapuu, vimppa 2025
eli järjestyksessä 7nm,optimoitu 7nm(5nm),3nm,1.8nm

njoo, intelkin nöyrtyi ja laitto rahaa tiskiin ja ostaa TSMC tekniikkaa..sehän on itse tehnyt prossunsa tähän saakaa, amd aina kumartanut TSMC:lle syvään ja ilman heitä, ei olisi ryzeneitä.
eikä varsinkaan 7nm ryzeneitä,niillä amd on rummutellut..tähän saakka.,ja hyviähän ne on kun verrattin intelin 14nm prossuun..bah! tarvittiin vain 10nm alder lake ja kupla hajosi..
mites olisi 7nm meteor lake vs 7nm ryzen...ei piru vie,lisa su tarvitsee tasaväkiseen kamppailuun väh. 5nm prossun..heh

noh, eiköhän siinä ollut vähän viihdykettä ja erhh...jauhantaa,lol


kaikille oikein hyvää kesää!
 
njoo, intelkin nöyrtyi ja laitto rahaa tiskiin ja ostaa TSMC tekniikkaa..sehän on itse tehnyt prossunsa tähän saakaa, amd aina kumartanut TSMC:lle syvään
En jaksa edes alkaa perkaamaan tuota muuta potaskaa, mutta tästä pienestä pätkästä korjataan heti nyt kuitenkin sen verran että ...
Intel on tehnyt tosiaan prossut vissiin itse tähän asti, mutta paljon muuta piirejä ovat tehneet ennenkin kilpailevilla valmistajilla, mukaanlukien TSMC.
AMD on tehnyt prosessoreita myös itse ja GlobalFoundriesilta (joka oli siis AMD:n osa ennen kuin myivät poissa), olikohan UMCkin tehnyt joskus jotain
 
En jaksa edes alkaa perkaamaan tuota muuta potaskaa, mutta tästä pienestä pätkästä korjataan heti nyt kuitenkin sen verran että ...
Intel on tehnyt tosiaan prossut vissiin itse tähän asti, mutta paljon muuta piirejä ovat tehneet ennenkin kilpailevilla valmistajilla, mukaanlukien TSMC.
AMD on tehnyt prosessoreita myös itse ja GlobalFoundriesilta (joka oli siis AMD:n osa ennen kuin myivät poissa), olikohan UMCkin tehnyt joskus jotain
Ei kannata.


noh, eiköhän siinä ollut vähän viihdykettä ja erhh...jauhantaa,lol


kaikille oikein hyvää kesää!
Kiitos ja hyvää kesää sinullekin. :kippis:
 
huomioita netistä ja kommentteja...

Ei paljoa huomioita vaan lähinnä huuhaata, misinformaatiota, täysin ymmärtämiskelvotonta ajatuksenvirtaa ja täyttä potaskaa.

hmm,ensiksi rdna3 syö aika varmasti lähelle 500w tehoja,ellei, voi unohtaa kamppailut rtx 4000 vastaan,tehoja kun ei tule ilmaiseksi,

Höpöhöpö. RDNA3 on vain arkkitehtuuri, ei mikään piiri. Siinä arkkitehtuurissa ei ole mitään mikä estäisi sen käyttämisen muutamia kymmeniä watteja kuluttavassa piirissä.

ellei amd ole keksinyt välttää fysiikan lakeja tai sanotaan todella nopean auton polttomoottorilla joka vie vähän bensaa... lol

Höpöhöpö.

Fysiikan lait laittaa käytännössä rajoituksen, että yhden bitin esittämiseen tarvitaan vähintään yhden elektronin liikettä. Nyt ollaan todella kaukana tästä, yhden bitin flippaamiseksi liikkuu hyvin suuri määrä elekroneja.

toiseksi, täytyy muistaa että nvidia näykkärit on nyt pitkästä aikaa,samalla viivalla rdna3:n kanssa, molemmat 5nm tehty(nvidian tosin optimoitu 5nm,sanotaan 4N malliksi), joten katsotaan se virran kulutus sitten....

TSMCn N5, N5P- ja N4-prosesseissa ei ole mitään 5-nanometristä. N4 ja N5 on vain markkinointinimiä joilla ei ole mitään tekemistä minkään fysiikan mittojen kanssa.

no....googlella voi kattoa watteja,esim techpowerup sivusto
esim. furmark gtx 1080 ti 267w vs fury x 432W! ja gtx 2080 ti 285w vs amd vega 64 309w!

Virrankulutus täysin keinotekoisessa testissä ottamatta huomioon suorituskykyä on täysin EVVK. Jos haluaa vähäistä virrankulutusta tuollaisessa testissä niin senkun säätää kellot ja voltit alas.

Se, millä on väliä on energiatehokkuus (suorituskyvyn ja tehonkulutuksen suhde), ja todellisilla workloadella, ei täysin keinotekoisilla synteettisillä benchmarkeilla.

io-tech modet ja pomot,koittakaa nyt edes... yrittäkää edes olla puna/vihreitä(sini) värisiä... siis objektiivisia...koko ajan saa lukea amd siellä amd täällä..hmm, paha siinä on vertailla...

Mitähän ihmettä oikein nyt sönkötät? io-techin ylläpito on hyvin objektiivista.

lopuksi#2, jos 5nm zen4 ei pese 10nm intel raptoria, ei hyvä amd cpu sektorille.

Ei intelillä ole mitään "10nm raptoria". Intelin raptor lakessa ei ole mitään 10-nanometristä. Sen johtoväli on 36nm, porttiväli 54 nm, finniväli 34nm. Ja Intelin markkinointi kutsuu sitä valmistustekniikaa nimellä "intel 7".

Zen4ssa ei myöskään ole mitään 5-nanometristä, vaikka AMD niin valehteleekin. Sen N5P-prosessin johtoväli on n. 30nm, porttiväli jotain n. 40nm. Ero Intel 7-prosessin mittoihin on parinkymmenen prosentin luokkaa, ei puolet pienempi.

mutta silti,todella,todella hankalaa on amd:n cpu sektorille sitten vuodet 2023-2025, kun meteor,arrow,lunar ja nova laket saapuu, vimppa 2025
eli järjestyksessä 7nm,optimoitu 7nm(5nm),3nm,1.8nm

Väärin. Ei niissä ole mitään 7-nanometrista, 5-nanometrista, 3-nanometrista tai 1.8-nanometristä.

noh, eiköhän siinä ollut vähän viihdykettä ja erhh...jauhantaa,lol

Oli kyllä aivan totaalisen päätöntä ajatuksenvirtaa, josta otti hyvin vähän selvää ja sen vähän mitä siitä otti selvää, oli ihan päin honkia.
 
Viimeksi muokattu:
Vai on laskutehon kasvu ilman tehonkulutuksen kasvua fysiikan lakien vastaista...
 
Hiukan pahalta näyttää kun katselee noitten nykyisten huippumallien piikkejä mitä ne ottaa.

Jo 3080 kanssa oli joillakin powereilla ongelmia, Ilmeisesti tossa 6900XT:ssä ollu joku ajuri problem joka myöhemmin saatu aisoihin kun 6950XT piikkaa huomattavasti vähemmän.
Taisi nvidia myöskin ajureilla saata jotain älyttömiä piikkejä kuriin. Mutta kyllähän noi vaan tulee kasvamaan jos keskikulutus kasvaa.

RDNA2:lla nuo piikit tulee furmarkissa. Peliajoissa niitä ei ole, techpowerupilla on muuten ihan hyvät mittauskäyrät eri tilanteista. Minusta tuo kertoo siitä, että Nvidian tehonrajoituslogiikka on vähän nopeampaa. Tai sitten ajurit tunnistaa furmarkin ja rajaa menoa sitä kautta.
 
huomioita netistä ja kommentteja...

hmm,ensiksi rdna3 syö aika varmasti lähelle 500w tehoja,ellei, voi unohtaa kamppailut rtx 4000 vastaan,tehoja kun ei tule ilmaiseksi,
ellei amd ole keksinyt välttää fysiikan lakeja tai sanotaan todella nopean auton polttomoottorilla joka vie vähän bensaa... lol

ja sitten, tulevat näykkärit?! kummaltakin tulossa hirmuisia petoja..oikeastaan mihin niitä,varsinkin top malleja tarvitaan.....nooh, joku pelaa 34-55" näytöllä 4K:lla tai jopa 8K:lla,
pienen pieni osa pelaajista kuitenkin,0,5%...
koskahan tulee näykkäreihin eu direktiivi tai jotain, esim max virrankulutus.. vaikka 350-500w? ois ihan ok nykyaikana.

toiseksi, täytyy muistaa että nvidia näykkärit on nyt pitkästä aikaa,samalla viivalla rdna3:n kanssa, molemmat 5nm tehty(nvidian tosin optimoitu 5nm,sanotaan 4N malliksi), joten katsotaan se virran kulutus sitten....
kuitenkin..huhuista päätellen näyttää että nvidia on ottanut kaiken tehon irti korteistaan välittämättä virranotosta,mutta noilla tehopakkausksilla 450W on normaalia.

sillä jos muistetaan.. ,amd teki vega ja fury x:n 7 vuotta sitten, eli kivikausi välissä ja kortit vei virtaa ihan älyttömästi suorituskykyyn verrattuna,saman tai melkein kuin nyt tulevat uudet kortit...
eipä kauheesti ollut silloin krtitiikkiä. arkistot siellä on.....?

no....googlella voi kattoa watteja,esim techpowerup sivusto
esim. furmark gtx 1080 ti 267w vs fury x 432W! ja gtx 2080 ti 285w vs amd vega 64 309w!
jopa io-tecin omassa testissä söi yli 100W enmmän kuin 1080 oc,, loppuraportti...huh! no, ulkomaiset sivut sentään..jotain
siellä se on, haulla vaan.. suorituskyky oli eri luokkaa myöskin.

ja tosiaan,silti testeissä amd korttien virrankulutukseen ja lämpöihin suhtaudutiin aika löysästi,vaikka nvidia piti watit ja metelit kohtuu lukemissa,kytättiin vain fps:jä..
harvoin luin testeistä kritiikkiä amd vega ja fury x malleille.. noh,mitä nvidia siitä teki päätöksiään....

nyt kun kaksi (2)kertaa rtx 3090 tehoinen kortti (huhu edelleen)ja oisko 4 kertaa vega suorituskyky antava kortti, rtx 4090 tulee ja watteja menee 150W enenmmän....blaa blaa.
come on..

nyt, rx 6950 vei saman jo kuin 3090 (sitten kun pärjää suorituskyvyssä)ja peakissa paljon enemmän. (rx 6950 formula)
jos rdna3 aikoo edes lähelle rtx 4090 tehoja sanon että 450-550w on aika hyvä arvio. jos alle 400W...

nvidia adalovelace titan ,eli oisko rtx 4090 ti,on sitten kortti jolla nvidia pitää vain huolta että on nopein kortti maan päällä kunnes rtx 5000:t (tai rdna4:t)saapuu 2024/2025
tehonkulutus? who cares!

io-tech modet ja pomot,koittakaa nyt edes... yrittäkää edes olla puna/vihreitä(sini) värisiä... siis objektiivisia...koko ajan saa lukea amd siellä amd täällä..hmm, paha siinä on vertailla...

intel näykkärit?...en oikein usko noihin, lohkaisee kyllä budget luokasta oman osansa,jos ajurit on kunnolliset.

lopuksi#2, jos 5nm zen4 ei pese 10nm intel raptoria, ei hyvä amd cpu sektorille.

mutta silti,todella,todella hankalaa on amd:n cpu sektorille sitten vuodet 2023-2025, kun meteor,arrow,lunar ja nova laket saapuu, vimppa 2025
eli järjestyksessä 7nm,optimoitu 7nm(5nm),3nm,1.8nm

njoo, intelkin nöyrtyi ja laitto rahaa tiskiin ja ostaa TSMC tekniikkaa..sehän on itse tehnyt prossunsa tähän saakaa, amd aina kumartanut TSMC:lle syvään ja ilman heitä, ei olisi ryzeneitä.
eikä varsinkaan 7nm ryzeneitä,niillä amd on rummutellut..tähän saakka.,ja hyviähän ne on kun verrattin intelin 14nm prossuun..bah! tarvittiin vain 10nm alder lake ja kupla hajosi..
mites olisi 7nm meteor lake vs 7nm ryzen...ei piru vie,lisa su tarvitsee tasaväkiseen kamppailuun väh. 5nm prossun..heh

noh, eiköhän siinä ollut vähän viihdykettä ja erhh...jauhantaa,lol


kaikille oikein hyvää kesää!
Tuota miten tähän nyt suhtautuisi? Ensinnäkin: Aloita vaikka siitä että opettelet edes alkeelliset Suomenkielen säännöt: pilkut, pisteet, isot kirjaimet lauseen alkuun jne. Voisi olla että sanomasi olisi selkeämpää ymmärtää:) Mitä tulee tuohon arvailuun: RDNA3:nen ottaa virtaa X määrän on niin suurta lottoa kun olla ja voi. Ei täällä kukaan tiedä 4090:sen tai RDNA3:sen, saati Ryzen 4:sen virran kulutusta vielä tässä vaiheessa? Toki huhupajat suoltaa kaikkea taivaan ja maan väliltä, mutta niitä nyt on aika turha uskoa yhtään sen enempää kun litteän maan porukaa. Ja lopuksi; koitas ottaa edes jonkinlaiset faktat ensin selville ennen kun alat söpöttää mitä sattuu...
 
Jos lähtee kovin tuota energiankulutusta pohtimaan niin josko kielletään koko pelaaminen tai ainakin pc-pelaaminen ja ainoa valtion sallittu konsoli on switch teholuokan laitteet. Tai vielä parempi ainoastaan energiatehokkaalla puhelimella saa pelata, jotta vältetään ylimääräinen pelilaitteista tuleva ser-jäte ja resurssien kuluttaminen hukkaan.

Tuskin pelipc:t älyttömiä kuluttaa, jos mietitään kokonaisuutta mihin kaikkeen energiaa menee. Virransäästö toiminee normaalikäytössä, jos surffii webbiä, katsoo netflixiä tms. Tuskin pelitkään koko ajan pitää virrankulutusta tapissa poislukien ne pelaajat, jotka pelaa benchmarkkeja.

Samaan aikaan kuitenkin jengi menee pikkumatkakin fossiilisia polttoaineita käyttävällä autolla, harrastaa moottorikelkkailua, käydään lentokoneella lomareissussa tai autolla roadtrip:lla yms.

Tässä on oiva paikka kuluttajan äänestää. Ostaa sellaisia laitteita mitkä miellyttää. Jos ei ole markkinaa teho gpu:lle niin ne kuolevat pois.
Tässä samaa mieltä. Kovin vähän on kokonaiskäyttöä maksimitehoissa. Enemmän tuo lämmöntuotto ja siitä seuraavat komponenttipäivitykset ja SER-läjät ahdistavat.

Järkevä teho/kulutus/lämpö on se optimitilanne. Nyt siruista puristetaan viimeisetkin rippeet wateilla. Eikä se ole ihan viisasta kenenkään kannalta.
 
RDNA2:lla nuo piikit tulee furmarkissa. Peliajoissa niitä ei ole, techpowerupilla on muuten ihan hyvät mittauskäyrät eri tilanteista. Minusta tuo kertoo siitä, että Nvidian tehonrajoituslogiikka on vähän nopeampaa. Tai sitten ajurit tunnistaa furmarkin ja rajaa menoa sitä kautta.

Eikö 6950XT:tä sitten ajettu turrimarkilla? Siinä kun näyttää huomattavasti paremmalta noi piikit.
 
Tuota miten tähän nyt suhtautuisi?
Paras tapa suhtautua on joko ottaa huumorilla tai ignorata. Tuolle on useita kertoja väännetty rautalangasta ja ei mene perille.

hmm,ensiksi rdna3 syö aika varmasti lähelle 500w
Ai samaan tapaan kuin rdna 2 piti syödä vähintään 400w ja rdna 2 = rdna 1 RT tuella?

koska rx 5700 xt tdp oli 225W ja käytännössä 290W (AIB top oc yms. mallit,ja syö enemmän virtaa kuin esim. 12nm rtx 2080 ti) voi päätellä miten 'big navin' käy jos tuplataan gpu coret
, tarkoittaa väh. 100W lisää,tähän kun lisätään RT tuki 'big naviin' joka entisestään lisää tehon kulutusta,ja HBM2,3 käyttö vielä lisää (en usko että tulee)...minimi >400W...hmmm
ettei vaan rdna 2 edelleen ole 'rdna 1' RT tuella,KOSKA tosiasia on että rdna2:sen siru on sama 7nm kuin rdna1:ssä,ja se on kaiken keskus.
elikkä,sanoo amd mitä vaan jos ydin on sama 7nm ,näin on.

1655165995726.png
 
Eikö 6950XT:tä sitten ajettu turrimarkilla? Siinä kun näyttää huomattavasti paremmalta noi piikit.

Ei noita testejä ajeta uusiksi, vaan tulokset kierrätetään. Joten jos ajurit ovat korjanneet kulutuspiikkejä, niin ne näkyy vain uuden arvostelukappaleen mittauksissa.
 

Statistiikka

Viestiketjuista
257 000
Viestejä
4 465 826
Jäsenet
73 879
Uusin jäsen
Torvelo

Hinta.fi

Back
Ylös Bottom