Testissä AMD Radeon RX 9070 & 9070 XT (RDNA 4)

No tossahan se vastaus on. TPUlla high asetukset, Iotechillä mediumit. Lisäksi eroa saattaa tuoda tuo custom benchmarkmappi jota sampsa käyttää.

Tietty toi AIB malli mikä käytössä vaikuttaa myös. Ja nyt kun katselin tarkemmin niin eipä nuo tulokset oikein ole 1:1 minkään pelin kohdalla. Aika paljon kyllä heittelee eri testaajien välillä nuo. Voiko tuo eri AIB malli vaikuttaa niinkin paljon, esim CB2077 tapauksessa TPUlla 9070xt on tehokkaampi kuin mitä iotech mittasi RTX5080, minimi fps nousi myöskin 10:llä. Ja sitten sama mutta toisinpäin tapahtunut noissa 1440p Wukong tuloksissa. Mielenkiintoista miten paljon tulokset eroaa. Joku mega excel nörtti vois yhdistää kaikki arvostelurevikat ja ottaa niistä jotain keskiarvoa:lol:
TPU:lla Cyberpunkissa selvästi käytössä pelin sisäinen benchmark tai ainakin FPS:stä päätellen täysin eri testikohta, kun meillä peli testataan 60 sekuntia oikeasti peliä pelaamalla (benchmark antaa epärealistisen korkean FPS-tuloksen vs mikä samoilla asetuksilla oikeasti peliä pelatessa olisi).

Miljoonannen kerran, kahden eri tahon tuloksia ei voi verrata keskenään koska muuttujia on niin runsaasti testaaja, laitteisto, käyttöjärjestelmä, testimetodi, jne. Joku 3DMarkin grafiikkatulos voi olla suoraan vertailukelpoinen, mutta muuten ei.

edit: kurkkasin nyt TechPowerUp! arvostelun kommentteja, sillä näköjään TPU:n tuloksia ihmetellään ja verrataan Tech Yes Cityn tuloksiin :lol:

"On average it's 46% not 36% and in some cases even 50% look at Tech Yes City review!"


Mutta joo, pahoittelut, on turhauttavaa selittää tätä samaa asiaa kun toistuu kerta toisensa jälkeen ja taas ensi kerralla.
 
Viimeksi muokattu:
TPU:lla Cyberpunkissa selvästi käytössä pelin sisäinen benchmark tai ainakin FPS:stä päätellen täysin eri testikohta, kun meillä peli testataan 60 sekuntia oikeasti peliä pelaamalla (benchmark antaa epärealistisen korkean FPS-tuloksen vs mikä samoilla asetuksilla oikeasti peliä pelatessa olisi).

Miljoonannen kerran, kahden eri tahon tuloksia ei voi verrata keskenään koska muuttujia on niin runsaasti testaaja, laitteisto, käyttöjärjestelmä, testimetodi, jne. Joku 3DMarkin grafiikkatulos voi olla suoraan vertailukelpoinen, mutta muuten ei.
Juu onhan tuo selvää että se testikohta vaikuttaa jos toinen testaa kaupungissa pyöritellen ukkelia ja toinen testaa aavikolla katsoen maahan puhumattakaan muista muuttujista. En ole koskaan nuota benchmarkkeja 100% tosissani ottanutkaan, niissähän vaihtelee sijoituksetkin korteilla eri tahojen välillä. Korkeintaan osviittaa antavia ja lukijan on sitten itse päätettävä mikä on hyödyllisin vai onko mikään.
 
@Sampsa antoiko noilla korteilla kuinka monta prosenttia laskea power limitiä? Ainakin RX 6800-sarjalaisissa tuo oli muistaakseni jotain 8% tai 10% SKU:sta riippuen kun taas RTX 4070:illä sai pudottaa jopa 50%. Tämä kiinnostaa kun ajatuksena on alivoltitus ja wattien rajoittaminen lukemiin, joilla saavutetaan hiljaisempana sama suorituskyky tai marginaalisesti vakiota heikompi suorituskyky kuin vakiona.
-30% - +10 % välillä pystyy säätämään Power Limitiä ja -200 mV alivoltittamaan.
 
-30% - +10 % välillä pystyy säätämään Power Limitiä ja -200 mV alivoltittamaan.
Kuulostaa ihan riittävältä säätöalueelta alaspäin. Omien kokemusten perusteella yleensä jossain 20-30 % välissä on piste, jossa GPU:n kellot alkavat tippumaan sen verran paljon että suorituskyky alkaa laskemaan enemmän.
 
Jes! Parhautta! Toi voisi olla 3070 vakio vehkeelle soveltuva päivitys, 9070. Tosin CPU:a kun tsekkailee ja päättyvää Win10 tukea, pitänee ensin korjailla muita asioita setupista :D

Linuxia vaan kehiin sen Windows 10 tilalle ja kovaa ajoa :)

Tästä vielä Wendelin RX 9070 XT testiä linuxissa:


Huomautti videolla että tarvii kernel version 6.13.5 ja Mesa 25.

Ja mitä tuossa tänään kattelin että ne ovat jo jakelussa (Fedorassa nyt ainankin) ennen kuin kortit ovat edes kuluttajien ostettavissa.

Kuvakaappaus_20250306_100446.pngKuvakaappaus_20250306_100431.png
 
Nyt kun julkaisupäivän suositushintaiset sponsored by AMD näytönohjaimet on myyty niin ei tarvitse ihan hirveä sherlock olla kun laskee 1+1 yhteen:

$699 -> euroiksi muunnettuna ja Suomen 25,5 % ALV = 809 €

Sapphiren Pulse 9070 XT 809 €

Eli eiköhän AMD:lla ollut 9070 XT:n suositushinnaksi kaavailtu alunperin $699 mutta viime aikojen momentum käännettiin 9070 XT $599 markkinointikampanjaksi.
 
Pahus kun töissä venähti ja jäi F5 arpajaiset väliin, täytyy vähän seurata hintojen kehittymistä. Toki vielä pärjää rx6800 kortillakin toistaiseksi
 
Asus meinaa että tuo PRIME OC on niin hyvä jäähy että hinnoiteltu vain 30€ alemmas kuin Sapphiren Nitro+ malli XT kortissa
 
Ja mitä tuossa tänään kattelin että ne ovat jo jakelussa (Fedorassa nyt ainankin) ennen kuin kortit ovat edes kuluttajien ostettavissa.
Linuxilla on tosiaan toi ajuritilanne ihan toisenlainen. Phoronixin mukaan viime vuonna julkaistulla 6.12 kernelillä jo toimivat nuo kortit, joten kortit olisi siltä osin voinut tuoda jo aiemminkin myyntiin. Mutta ovat noi suorituskyvyn kannalta vielä vaiheessa, kun esim. CS2:n FPS-lukemat ovat kehnot vastaaviin Windows-lukuihin verrattuna
 
Se mitä toivois näihin testeihin lisää, olis pari screenshottia järkevillä DLS/FSR2 asetuksilla (ilman frame generationia) miten kuvanlaatu heikkenee kun 4k resot on käytössä supersamplayksien kanssa.
Itse kun pelailen 4k näytöillä tai telkkarilla niin resoluution skaalaus on se ainoa järkevä kun ei rahaa ole siihen lippulaiva-malliin laittaa että puhtaalla natiivilla voisi mennä..
Eikä sitten taas frame generaatio ihan hirveästi kiinnosta. Sellaiset skaalausasetukset, että pelit pyörii 60-120 fps 4k skaalattuna, ja tosta skaalauksesta pari screenshottia mukaan miten hyvin toimii?

Ainakin 4k telkkareilla (hdmi 2.1, 4k/120) parhaiten tuntuu toimivan kun on se max natiivi asetukset käytössä, 1440p resot ei skaalaudu oikein ja input lagikin tuntuu nousevan eikö natiivi 1080p oikeen kiinnosta isommalla ruudulla.

tyyliin screenshotit
Cyperpunk 2077
2160p
Ray Tracing high, DLSS/FSR Quality

Noilla päästäneisiin sinne toivotuille fps lukemille, mutta skaalauksessa voi toki eroja olla mikä kiinnostais nähdä
 
Viimeksi muokattu:
Linuxilla on tosiaan toi ajuritilanne ihan toisenlainen. Phoronixin mukaan viime vuonna julkaistulla 6.12 kernelillä jo toimivat nuo kortit, joten kortit olisi siltä osin voinut tuoda jo aiemminkin myyntiin. Mutta ovat noi suorituskyvyn kannalta vielä vaiheessa, kun esim. CS2:n FPS-lukemat ovat kehnot vastaaviin Windows-lukuihin verrattuna
Joo kyllä tuolla phronixin teisteissä jotain kyykkyä näky olleen ajureissa. Toki kaikki testit ajettu 4k:lla noissa testeissä.
 
Vähän OT:ks menee mutta menköön, kun juuri hetki sitten testailin huvin vuoksi omaa 7800 XT:tä Steel Nomadissa.
Stock power limitillä hörppää 267W. Adrenalinissa saa power limitin alimmillaan -10%, mikä olisi 240W. Kortin saa kuitenkin kuluttamaan vähemmänkin rajoittamalla kelloja (alivoltituksen lisäksi).

Tuossa kolmosrivillä omat 24/7 -asetukset. 1150mV -> 1060mV ja kellot rajoitettu 2350MHz. Ei osu power limittiin eikä osuisi vaikka olisi se -10% limit. Suorituskyky käytännössä sama kuin Stockkina (nelosrivi) mutta tehonkulutus 222W eli -17%. Kuva spoilerin takana piilossa pilaamasta niiden päivää, joita ei kiinnosta.
gpu_7800xt.png

EDIT: Varmasti tuon 9070 XT:nkin saa kelloja rajoittamalla kuluttamaan vaikka tuon saman 220W kuin 9070. Mielenkiintoista olisikin nähdä, millaisilla kelloilla asettuu tuohon kulutukseen ja mikä silloin suorituskyky verrattuna esim. 9070 tai nyt vaikka tuo oma 7800 XT, jota ajelen noilla 222W asetuksilla. Mutulla arvaisin että vähän parempi kuitenkin kuin 9070.
Saako kellot rajoitettua vaikka 1600mhz? Lähti itselle nyt kortti tilaukseen ja 4070superilla on tullut pelattua 110w tdp:llä 120fps ->Nyt toivottavasti onnistuu sama jatkossakin
 
9070 kiinnostaisi tehonkulutuksen puolesta pienempään koteloon ja riittäisi varmasti, pahin pettymys tässä on tuo 9070/9070 XT hinnoitteluväli. Toki todellinen hinnoittelu näkyy sitten ehkä muutaman viikon/kuukauden päästä, jos tilanne markkinoilla rauhoittuu ja AMD (tai jopa Nvidia) saavat korttejansa toimitettua tarjolle. Mutta vähän naiivisti toivoin, että MSRP olisi ollut ainakin satasen halvempi. 5070 haukuttiin jo alitehoisena ja ylihintaisena (joskin en ole varma viitattiinko MSRP vai todellisiin hintoihin), niin 9070 melko samantasaisena korttina olisin kuvitellut että se hinnoiteltaisiin halvemmkasi kuin kilpailijansa, eikä omien korttien välille jätettäisi 50$.

Ihan ei pysty tällaisiin F5-kisoihin osallistumaan, kun pitäisi samalla tilata koko kone ja tarkistella kaikkien osien saatavuutta, ja vielä pyrkiä valitsemaan kortti joka mahtuu koteloon ja jättäen vähän varaa ilmankiertoonkin.
 
9070 kiinnostaisi tehonkulutuksen puolesta pienempään koteloon ja riittäisi varmasti, pahin pettymys tässä on tuo 9070/9070 XT hinnoitteluväli. Toki todellinen hinnoittelu näkyy sitten ehkä muutaman viikon/kuukauden päästä, jos tilanne markkinoilla rauhoittuu ja AMD (tai jopa Nvidia) saavat korttejansa toimitettua tarjolle. Mutta vähän naiivisti toivoin, että MSRP olisi ollut ainakin satasen halvempi. 5070 haukuttiin jo alitehoisena ja ylihintaisena (joskin en ole varma viitattiinko MSRP vai todellisiin hintoihin), niin 9070 melko samantasaisena korttina olisin kuvitellut että se hinnoiteltaisiin halvemmkasi kuin kilpailijansa, eikä omien korttien välille jätettäisi 50$.

Ihan ei pysty tällaisiin F5-kisoihin osallistumaan, kun pitäisi samalla tilata koko kone ja tarkistella kaikkien osien saatavuutta, ja vielä pyrkiä valitsemaan kortti joka mahtuu koteloon ja jättäen vähän varaa ilmankiertoonkin.
Powercolorin reaperit vaikuttais kompakteimmilta korteilta tällä hetkellä.
 
9070 kiinnostaisi tehonkulutuksen puolesta pienempään koteloon ja riittäisi varmasti, pahin pettymys tässä on tuo 9070/9070 XT hinnoitteluväli. Toki todellinen hinnoittelu näkyy sitten ehkä muutaman viikon/kuukauden päästä, jos tilanne markkinoilla rauhoittuu ja AMD (tai jopa Nvidia) saavat korttejansa toimitettua tarjolle. Mutta vähän naiivisti toivoin, että MSRP olisi ollut ainakin satasen halvempi. 5070 haukuttiin jo alitehoisena ja ylihintaisena (joskin en ole varma viitattiinko MSRP vai todellisiin hintoihin), niin 9070 melko samantasaisena korttina olisin kuvitellut että se hinnoiteltaisiin halvemmkasi kuin kilpailijansa, eikä omien korttien välille jätettäisi 50$.

Ihan ei pysty tällaisiin F5-kisoihin osallistumaan, kun pitäisi samalla tilata koko kone ja tarkistella kaikkien osien saatavuutta, ja vielä pyrkiä valitsemaan kortti joka mahtuu koteloon ja jättäen vähän varaa ilmankiertoonkin.
9070 on tehonkulutukseltaan vähän outo koska sitä voi helposti kellottaa korkeammalle, samalla nvidiat on selkeästi edellä tehokkuudessa fps/watt osalta.

reee.jpg
 
Se mitä toivois näihin testeihin lisää, olis pari screenshottia järkevillä DLS/FSR2 asetuksilla (ilman frame generationia) miten kuvanlaatu heikkenee kun 4k resot on käytössä supersamplayksien kanssa.
Kuvista on hankala todeta fsr/dlss/framegen kuvanlaatua kun moni artifakta ja parannus näkyy vain liikkeessä. Tyyliin onko taa-blurria dlss/fsr:ssa vai ei, jos on niin missä efekteissä. Shimmeröikö, onko jotain epävakautta tai suttua minkä huomaa vain liikkeessä jne. Muutenkin kokemus 400% zoomattu stilli vs. miltä näyttää ja tuntuu liikkeessä on kovin erilainen.
 
Se mitä toivois näihin testeihin lisää, olis pari screenshottia järkevillä DLS/FSR2 asetuksilla (ilman frame generationia) miten kuvanlaatu heikkenee kun 4k resot on käytössä supersamplayksien kanssa.
Itse kun pelailen 4k näytöillä tai telkkarilla niin resoluution skaalaus on se ainoa järkevä kun ei rahaa ole siihen lippulaiva-malliin laittaa että puhtaalla natiivilla voisi mennä..
Eikä sitten taas frame generaatio ihan hirveästi kiinnosta. Sellaiset skaalausasetukset, että pelit pyörii 60-120 fps 4k skaalattuna, ja tosta skaalauksesta pari screenshottia mukaan miten hyvin toimii?

Ainakin 4k telkkareilla (hdmi 2.1, 4k/120) parhaiten tuntuu toimivan kun on se max natiivi asetukset käytössä, 1440p resot ei skaalaudu oikein ja input lagikin tuntuu nousevan eikö natiivi 1080p oikeen kiinnosta isommalla ruudulla.

tyyliin screenshotit
Cyperpunk 2077
2160p
Ray Tracing high, DLSS/FSR Quality

Noilla päästäneisiin sinne toivotuille fps lukemille, mutta skaalauksessa voi toki eroja olla mikä kiinnostais nähdä
Kuvista on hankala todeta fsr/dlss/framegen kuvanlaatua kun moni artifakta ja parannus näkyy vain liikkeessä. Tyyliin onko taa-blurria dlss/fsr:ssa vai ei, jos on niin missä efekteissä. Shimmeröikö, onko jotain epävakautta tai suttua minkä huomaa vain liikkeessä jne. Muutenkin kokemus 400% zoomattu stilli vs. miltä näyttää ja tuntuu liikkeessä on kovin erilainen.
Tämä on aivan totta, valitettavasti kuvankaappauksista on hyvin vaikea lähteä analysioimaan noita tekniikoita keskenään. Toki yksittäisiä eroja löytyy niistäkin. Tuo aiemmin linkattu Digital Foundryn video on todella hyvä, kannattaa katsoa.
 
Saako kellot rajoitettua vaikka 1600mhz? Lähti itselle nyt kortti tilaukseen ja 4070superilla on tullut pelattua 110w tdp:llä 120fps ->Nyt toivottavasti onnistuu sama jatkossakin

Tuossa pari Reddit -postausta, joiden innoittamana testailin omaani. Nuo postaajat ainakin saaneet ilman ongelmia rajoitettua tuonne 1750/1800MHz asti ja FPS/W sweet spot jossain 2000MHz tuntumassa. Itsellä kävi niin että jostain 2100-2200:sta alaspäin ei enää toiminut lineaarisesti vaan todelliset kellot Steel Nomadissa tippuivat 1400:aan. Eli ihan sama oliko limittinä 2000 vai 1700 niin todelliset kellot oli silti 1400, kulutus ja lämmöt romahti mutta niin romahti suorituskykykin. En tiedä onko korteissa eroja vai teinkö itse jotain väärin (todennäköisesti tein) mutta nostin sitten tuohon 2350, joka itsellä antaa (yhdessä alivoltituksen kanssa) stockkisuorituskyvyn 45W pienemmällä kulutuksella ja päätin että "good enough for me".

Itse sain kahdessa kaupassa 721e XT:n koriin mutta en kumpaakaan kassalle asti kun sivut kippasivat. Pettymyspäissään otin sitten Verkkiksestä 667e non-XT Primen testailtavaksi. Ihan mielenkiintoista nähdä, miten vertautuu sitten kun sitäkin hieman optimoi ja sen perusteella päätän sitten kumpi kortti saa koneeseen jäädä.
 
"valitettavasti kuvankaappauksista on hyvin vaikea lähteä analysioimaan noita tekniikoita keskenään. Toki yksittäisiä eroja löytyy niistäkin."
Vähän täytyy kritisoida, kaikki pelit kun ei ole sitä jatkuvaa liikettä.. Nimim. BG3 400h :D :D
Balduri3 on ainakin hyvä esimerkki siitä, että skaalauksella saadaan liikettä sujuvaksi, mutta kuitenki sitä stillikuvaa tuijoitellaan suurimman osan ajasta ja siinä kyllä huomaa eroja natiivin ja DLS:n välillä.
Ehkä sitten oman artikkelin paikka IO-techillekin näistä? Kunnon vanhan liiton aikoina vertailtiin kuvanlaatuasetuksia jo ihan eri ajureidenkin välillä. Youtube-videot vaikka kuinka olis 4k resolla niin kuvanpakkaukset ei tunnu olevan lähelläkään sitä mitä oikeassa elämässä ruudulla näkee kun isompaa ruutua tuijottelee.
 
Osaakohan joku sanoa, onko luvassa paljonkin eroa Sapphire Pulse vs Powercolor Reaper vs Asus Prime ?

Itsellä kun ei AMD korttia ole aiemmin ollut ja muutenkin hitaasti päivittelee, niin onko hirveästi eroa luvassa? Ja ARGB yms. ei väliä, lämmöt & suorituskyky / kellotetavuus kiinnostaa lähinnä.

Itsellä on ollut useampi Sapphire kortti (ja useita AMD ja NV kortteja) ja voin suositella lämpimästi.
Varsinkin jäähdytys on toteutettu hyvin.

Sapphire valmistaa pelkästään AMD kortteja eli siinä mielessä eroaa muista AIB:sta.
Sapphire taitaa käyttää kaikissa malleissa myös omaa PCB:tä.

Tuohon FSR 4 ja DF videoon liittyen, DF:n TLDR taisi olla, että ollaan DLSS CNN ja DLSS Transformer välissä laadullisesti.
FSR 4 on raskaampi kuin FSR 3 mikä nyt ei yllätä, mutta samaten DLSS Transformer malli on raskaampi kuin CNN malli, huom.

Jos vertasi FSR 3 ja FSR 4 suorituskykyeroa versus DLSS CNN ja DLSS Transformer ero, puhutaan suurin piirtein samasta erosta, joten FSR 4 ei verota suorituskykyä suhteellisesti sen enempää kuin DLSS Transformer.

DF myös sanoo lopussa, että ottaen huomioon 9070 XT:n olevan selvästi edullisempi kuin 5070 Ti, tekee se AMD:n kortista houkuttelevan vaihtoehdon.

Eilen muuten julkaistu AMD 25.3.1 ajurit, jotka toi tuen uusille korteille ja ajurin tiedoissa mainitaan, että pelit, joissa on jo FSR 3.1 tuki on mahdollista saada ajurin kautta toimimaan FSR 4 mallilla:

  • AMD FSR 4 features a new upgrade toggle in AMD Software: Adrenalin Edition™ that automatically upgrades supported games that have built-in AMD FSR 3.1 support to use the new ML-based AMD FSR 4 upscaling algorithm.
Samaten uutena ominaisuutena myös vanhemmille korteille on AFMF 2.1 ja ainakin oman nopean kokeilun perusteella Metro Exoduksessa, parannus vs. 2.0 on huomattava.

PS: OptiScalerilla on mahdollista modata FSR 3.1 tuki DLSS peleihin.
En tiedä minkälaista Whitelistiä ajuri käyttää, mutta teoriassa voi olla mahdollista modata DLSS peli -> FSR 3.1 ja sitten ajurista FSR 4 päälle.
 
Viimeksi muokattu:
Itsellä on ollut useampi Sapphire kortti (ja useita AMD ja NV kortteja) ja voin suositella lämpimästi.
Varsinkin jäähdytys on toteutettu hyvin.

Sapphire valmistaa pelkästään AMD kortteja eli siinä mielessä eroaa muista AIB:sta.
Sapphire taitaa käyttää kaikissa malleissa myös omaa PCB:tä.
Jäähyt on tosiaan lähtökohtaisesti hyviä näissä about kaikissa AMD 9070 korteissa. Itseä vaan ihmetyttää muistilämmöt

Onko muut ihmetelleet tai tutkineet AMD kuumina käyviä gddr6 muisteja?
-Jos tuo on normaalia, niin ei siitä tarvitse olla huolissaan. Onhan se tosiaan ollut AMD:llä aiemmissakin generaatioissa vs Nvidia, mutta jännä että näin on.

Olisi kuitenkin kiva tietää miksi lämmöt on noin korkeat. Onkohan Nvidialla lämpösensori jossain muualla, ettei käytetäkään muistipiirien sisällä olevaa? IO-tech sanoo ettei Nvidia ja AMD lämpöjä voi verrata, mutta voiko muistipiirien lämpöjä kuitenkin verrata suoraan? @Sampsa tietää varmaankin

katso liitettä 1492025
Techpowerupin review

katso liitettä 1492023

Random käyttäjä redditissä
 
Onko muut ihmetelleet tai tutkineet AMD kuumina käyviä gddr6 muisteja?
-Jos tuo on normaalia, niin ei siitä tarvitse olla huolissaan. Onhan se tosiaan ollut AMD:llä aiemmissakin generaatioissa vs Nvidia, mutta jännä että näin on.

On, itsellä edellisessä Sapphire Pure 7700 XT kortissa pisti silmään korkeat muistilämmöt, mutta näyttää olevan näin kautta linjan.

NVIDIA ja AMD mittaa lämmön varmasti eri tavalla.
 
Jäähyt on tosiaan lähtökohtaisesti hyviä näissä about kaikissa AMD 9070 korteissa. Itseä vaan ihmetyttää muistilämmöt

Onko muut ihmetelleet tai tutkineet AMD kuumina käyviä gddr6 muisteja?
-Jos tuo on normaalia, niin ei siitä tarvitse olla huolissaan. Onhan se tosiaan ollut AMD:llä aiemmissakin generaatioissa vs Nvidia, mutta jännä että näin on.


Operating Temp0C to +95C

On siis vielä speksin sisässä.

Edit: GDDR6 noilla nopeuksilla on 1.35v jännittellä, GDDR7 on 1.2v. Siinä on yksi ero nykyisessä rautasukupolvessa, nvidian muistit on energiatehokkaamat ja siten ne tuottaa myös vähemmän lämpöä.
 
Viimeksi muokattu:

Operating Temp0C to +95C

On siis vielä speksin sisässä.

Edit: GDDR6 noilla nopeuksilla on 1.35v jännittellä, GDDR7 on 1.2v. Siinä on yksi ero nykyisessä rautasukupolvessa, nvidian muistit on energiatehokkaamat ja siten ne tuottaa myös vähemmän lämpöä.
Veikkaan, että GDDR7 muisteissa on parempi energiatehokkaampi per siirretty bitti, mutta koska siirtonopeus on paljon kovempi voi lämmöntuotto olla sama tai suurempi.
 

Operating Temp0C to +95C

On siis vielä speksin sisässä.

Edit: GDDR6 noilla nopeuksilla on 1.35v jännittellä, GDDR7 on 1.2v. Siinä on yksi ero nykyisessä rautasukupolvessa, nvidian muistit on energiatehokkaamat ja siten ne tuottaa myös vähemmän lämpöä.
Vertasin siis tietty Nvidian gddr6 lämpöihin (3070&4060ti). Tosin luulin että AMD:kin on käytössä jo gddr7 tässä generaatiossa, kun painoin "Osta" napista, mutta eipä ollutkaan
 
Veikkaan, että GDDR7 muisteissa on parempi energiatehokkaampi per siirretty bitti, mutta koska siirtonopeus on paljon kovempi voi lämmöntuotto olla sama tai suurempi.


GDDR7 will also offer big gains in efficiency over GDDR6 as well. For example, Samsung claims its GDDR7 memory will offer a 30% improvement in power efficiency over GDDR6, while Micron and SK Hynix both claim their GDDR7 will offer up to 50% better efficiency, which is quite a jump. This boost to efficiency will arguably be more important for mobile 50-series GPUs with GDDR7, but desktop users will also benefit from it as well.

AMD:llä on 20Gbs muistit, nvidialla 28Gbs. Noilla tehokkuuslukemilla 30% energiatehokkaampi saisi samalla wattimäärällä joko 26Gps tai 50% energiatehokkaampi muisti olisi samalla kulutuksella 30Gbs. Taidat siis olla oikeilla jäljillä, lämmöntuotto vaikuttaisi olevan about samaa luokkaa.
 

GDDR7 will also offer big gains in efficiency over GDDR6 as well. For example, Samsung claims its GDDR7 memory will offer a 30% improvement in power efficiency over GDDR6, while Micron and SK Hynix both claim their GDDR7 will offer up to 50% better efficiency, which is quite a jump. This boost to efficiency will arguably be more important for mobile 50-series GPUs with GDDR7, but desktop users will also benefit from it as well.

AMD:llä on 20Gbs muistit, nvidialla 28Gbs. Noilla tehokkuuslukemilla 30% energiatehokkaampi saisi samalla wattimäärällä joko 26Gps tai 50% energiatehokkaampi muisti olisi samalla kulutuksella 30Gbs. Taidat siis olla oikeilla jäljillä, lämmöntuotto vaikuttaisi olevan about samaa luokkaa.
Olisikohan tulleet ysitonniset kuinka paljon kalliimmiksi noilla?
 
Onkohan Nvidialla lämpösensori jossain muualla, ettei käytetäkään muistipiirien sisällä olevaa? IO-tech sanoo ettei Nvidia ja AMD lämpöjä voi verrata, mutta voiko muistipiirien lämpöjä kuitenkin verrata suoraan? @Sampsa tietää varmaankin
Ei voi varmaksi sanoa, tuo data kun kulkee näyttiksen firmiksen ja ajurien läpi. Se voi esim. olla muistipiirien keskimääräinen, mediaani, korkein, tai matalin lämpötila. Jos muistipiirikohtaiset lämpötilat saisi esille ja olisi varmuutta siitä että luvuille ei olla tehty mitään muunnoksia, niin vertailu olisi helpompaa. Silloinkin eroja tulisi siitä että minne itse muistipiirillä se lämpötilasensori on laitettu. Onko esim. muistipiirillä oma "hotspot" lämpö? Onko sensori kuinka keskellä rakennetta, vai ennemmin IO puolen lähettyvillä? jne.

Eli ei, ei ole vertailukelpoisia, ellei ole varmaa että tiedot on kerätty samalla tavalla ja muistipiirit on identtiset ja samalta valmistajalta.

Ainoa tapa saada edes lähes vertailukelpoisia tietoja on irroittaa jäähdytin ja asettaa sensori lämpötyynyn sisälle muistipiirin päälle. Nykyset taitaa olla ns. flip chip piirejä, jolloin korkein lämpötila on siellä muistipiirin ja pcb:n välissä, jonne mittaria ei niin vain laitetakkaan.
 
Jäähyt on tosiaan lähtökohtaisesti hyviä näissä about kaikissa AMD 9070 korteissa. Itseä vaan ihmetyttää muistilämmöt

Onko muut ihmetelleet tai tutkineet AMD kuumina käyviä gddr6 muisteja?
-Jos tuo on normaalia, niin ei siitä tarvitse olla huolissaan. Onhan se tosiaan ollut AMD:llä aiemmissakin generaatioissa vs Nvidia, mutta jännä että näin on.

Olisi kuitenkin kiva tietää miksi lämmöt on noin korkeat. Onkohan Nvidialla lämpösensori jossain muualla, ettei käytetäkään muistipiirien sisällä olevaa? IO-tech sanoo ettei Nvidia ja AMD lämpöjä voi verrata, mutta voiko muistipiirien lämpöjä kuitenkin verrata suoraan? @Sampsa tietää varmaankin

katso liitettä 1492025
Techpowerupin review

katso liitettä 1492023

Random käyttäjä redditissä
NVIDIA on käyttänyt GDDR6-muisteja viimeksi RTX 3070-mallissa, sen jälkeen käytössä on ollut GDDR6X- ja nyt RTX 50 -sarjassa uudet GDDR7-muistit. Eiköhän noista piireistä lueta lämpötiladata ihan samalla tavalla AMD:lla ja NVIDIAlla.
 
Eiköhän noista piireistä lueta lämpötiladata ihan samalla tavalla AMD:lla ja NVIDIAlla.
Itse piirit on vaan erilaiset, joka johtaa siihen että lämpötilat ei ole vertailukelpoisia. Vähän kuin AMD:n ja Nvidian näyttisten lämpötilaluvut ei ole vertailukelpoisia vaikka nekin luetaan lähtökohtaisesti samalla tavalla. Tai vaikka Nvidian näyttikset eri vuosilta, anturien paikkaa on viilattu vuosien saatossa, jne.

Lisäksi tosiaan se että ei ole mitään tietoa että onko toi muistien lämpötila se korkein, matalin vai keskiarvo eri muistipiirien lämpötiloista, vai mittaako se GPU vain yhden muistipiirin lämpötilaa.

Mut eipä tuolla ole juuri merkitystä kenellekkään. Kovaa ajoa oli lämmöt mitä tahansa, kyllä se sit rajoittaa kelloja/kaatuu jos lämmöt ylittää speksin.

edit: ton voisi "helposti" testata ottamalla yhdeltä muistipiiriltä lämpötyyny pois ja kattomalla että vetääkö muistien lämpötila tjmax arvoon asti vai ei. Tuolloin voitais sanoa varmasti että muistien lämpötila on korkein muistipiirien lämpötiloista ja että annettu luku on kalibroitu suhteessa muistipiirien speksiin. Tällöinkään erilaisten muistipiirien välinen lämpötilavertailu on mahdotonta, mutta ainakin voitaisiin arvioida kortteja vertailtaessa että kuinka lähellä ollaan muistien tjmax arvoa. Iso ero tjmax:iin on hyvä, pieni ero tjmax:iin huono,
 
Viimeksi muokattu:
Tuo mitattu CS2-tulos on melko poikkeuksellinen eikä vaikuta olevan korrelaatiossa minkään muun median tulosten kanssa. Testin perusteella voisi helposti saada kuvan, että kyseinen kortti on liki paras mahdollinen valinta CS2-pelaajalle, mutta muualla on jopa hämmästelty sen poikkeuksellisen heikkoa suorituskykyä CS2:ssa. Eri testejä on toki vaikea vertailla suoraan keskenään, mutta jonkinlainen yhtenäinen linja niistä yleensä löytyy.

Näin suuri poikkeama vaikuttaa jo siltä, että se vaatisi lisätutkimusta. Kyseessä on kuitenkin Steamin suosituin räiskintäpeli, joka on vielä Suomessa poikkeuksellisen suosittu. Monet pelaajat käyttävät io-techin testituloksia apunaan valitessaan seuraavaa näytönohjaintaan, ja CS2-suorituskyky saattaa olla heille yllättävän merkittävä tekijä. Tässä vaiheessa epäilen tarjoaako 9070 XT todella paremman pelikokemuksen kuin 5070TI ja joka on enemmänkin linjassa 5080 / 7900 XTX:n kanssa - voiko tuo testitulos johtaa kuluttajaa hieman harhaan.

CS2-9070XT.jpg
 
io techin tulos on eri kuvanlaatuasetuksilla kuin noissa muissa testeissä. io techillä on ns. kilpailulliset asetukset, muilla kaikki turhat paskat päällä kuvanlaatuasetuksissa.

Kyllä minä ymmärrän sen, mutta harvoin tuo vaikuttaa asiaan siten, että koko marssijärjestys muuttuisi siten, että kärjestä tiputaan liki hännille verratesssa muihin ohjaimiin. Esim. kuvan (joka nyt valitettavasti pakkautui turhan puuroksi) näytönohjaimet pysyvät kutakuinkin samassa järjesteyksessä 1440p -> 4K vaikka kyse on eri medioista.

Voi olla tietysti monenmonesta kyse, ajuriversio, CS2 versio, testimetodi. AMD viritellyt workshopin tunnetuimpaan FPS benchmarkkiin ajurioptimoinnit tikkariin, vrt. oikea pelikokemus yms. yms. Vaikeita testattavia toki nämä multiplayerit. Mutta jotain ihan huomioonotettavaa / tutkimisen arvoista tuossa on todennäköisesti tapahtunut.
 
Viimeksi muokattu:
Kyllä minä ymmärrän sen, mutta harvoin tuo vaikuttaa asiaan siten, että koko marssijärjestys muuttuisi siten, että kärjestä tiputaan liki hännille verratesssa muihin ohjaimiin.
Kyllä se aika usein vaikuttaa marssijärjestykseen. Vaikkapa RT efektien käyttäminen on usein saanut isojakin vaikutuksia marssijärjestykseen.

Tässä tapauksessa esimerkiksi GPU:n cachet voi loppua amd:n näyttiksellä kesken 4k max asetuksilla, mutta 1080p medium, no AA, sinne mahtuu niin paljon kamaa että nopeus kasvaa huomattavasti.

Myös käytetty skenaario vaikuttaa todella paljon siihen että millainen suorituskyky saadaan aikaiseksi. io tech ilmoittaa kaiken ja voit vaikka itse testata omalla laitteistollasi tismalleen saman ajon. Mitä vaikka HUB tai d8 tekee, ei mitään hajua. Joskus HUB ajoi jotain nauhoitettua peliä replayna, mutta en nykytilasta ole lainkaan varma.
 
Millainen on muuten ollut yleinen käyttäjäkokemus niillä, jotka ovat päässeet jo hypistelemään korttia? @Sampsa, onko tullut vastaan mitään ajureihin taikka rautaan liittyviä omituisuuksia? Se, että ei ole edes Redditissä tullut vastaan mitään raivonpurkaus megaketjuja, muuhun kun saatavuuteen ja hintoihin liittyen, on melkein huolestuttavaa. :D
 
Tuo mitattu CS2-tulos on melko poikkeuksellinen eikä vaikuta olevan korrelaatiossa minkään muun median tulosten kanssa. Testin perusteella voisi helposti saada kuvan, että kyseinen kortti on liki paras mahdollinen valinta CS2-pelaajalle, mutta muualla on jopa hämmästelty sen poikkeuksellisen heikkoa suorituskykyä CS2:ssa. Eri testejä on toki vaikea vertailla suoraan keskenään, mutta jonkinlainen yhtenäinen linja niistä yleensä löytyy.

Näin suuri poikkeama vaikuttaa jo siltä, että se vaatisi lisätutkimusta. Kyseessä on kuitenkin Steamin suosituin räiskintäpeli, joka on vielä Suomessa poikkeuksellisen suosittu. Monet pelaajat käyttävät io-techin testituloksia apunaan valitessaan seuraavaa näytönohjaintaan, ja CS2-suorituskyky saattaa olla heille yllättävän merkittävä tekijä. Tässä vaiheessa epäilen tarjoaako 9070 XT todella paremman pelikokemuksen kuin 5070TI ja joka on enemmänkin linjassa 5080 / 7900 XTX:n kanssa - voiko tuo testitulos johtaa kuluttajaa hieman harhaan.

CS2-9070XT.jpg
Kysäise alkuun vaikka HUB:lta miten ovat saaneet 4080 Superin suorituskykyisemmäksi kuin 5080, eikö tämä herätä mitään kysymyksiä testin luotettavuudesta?


CS2 meillä testattu 1080p, Medium-asetuksilla, FSR pois päältä ja käytössä on CS2 FPS Benchmark jonka jokainen voi ladata täältä ja ajaa vertailutuloksen:


Muut tahot eivät kaiketi ole testimetodiaan kertonut.


Minun käsittääkseni valtaosa ja myös minä itse pelaan Counter Strikeä juurikin noilla asetuksilla (1080p), ei 1440p, ei 4k MAX. Prosessori Counter Strikessä ja monissa muissa vastaavissa peleissä on melkein tärkeämmässä roolissa, ei niinkään näytönohjain.

Näillä 1080p-asetuksilla entinen CS-kilpapelaaja natu pelaa, joka on myös töissä Suomen suurimmassa esports-organisaatiossa Encessä, jonka CS-joukkue pelaa ajoittain Major-tasolla:

1741346001598.png


Tässä vielä koko kaavio, kuten kuvasta näkyy 5090 ja 4090 kanssa on jo prosessori pullonkaulana:

1741345850850.png


Mutta joo, tässä nyt vähän taustaa ja selvitystä meidän poikkeuksellista CS2-tuloksesta.
 
Viimeksi muokattu:
Millainen on muuten ollut yleinen käyttäjäkokemus niillä, jotka ovat päässeet jo hypistelemään korttia? @Sampsa, onko tullut vastaan mitään ajureihin taikka rautaan liittyviä omituisuuksia? Se, että ei ole edes Redditissä tullut vastaan mitään raivonpurkaus megaketjuja, muuhun kun saatavuuteen ja hintoihin liittyen, on melkein huolestuttavaa. :D
Eipä tullut testeissä vastaan mitään erikoisuuksia, peleissä tai ajureissa ja myös ylikellotusominaisuudet toimi hyvin. Näytönohjaimet olivat hiljaisia, ei coilwhineä havaittavissa, vähän tuo kolme 8-pin PCIe-lisävirtaliitintä on kömpelö ja ruma toteutus kun on noilla 12V-2x6-liittimimillä NVIDIAn kanssa tottunut käyttämään, mutta eipähän ainakaan ole kärähtämisvaaraa.
 
Tuo mitattu CS2-tulos on melko poikkeuksellinen eikä vaikuta olevan korrelaatiossa minkään muun median tulosten kanssa. Testin perusteella voisi helposti saada kuvan, että kyseinen kortti on liki paras mahdollinen valinta CS2-pelaajalle, mutta muualla on jopa hämmästelty sen poikkeuksellisen heikkoa suorituskykyä CS2:ssa. Eri testejä on toki vaikea vertailla suoraan keskenään, mutta jonkinlainen yhtenäinen linja niistä yleensä löytyy.

Näin suuri poikkeama vaikuttaa jo siltä, että se vaatisi lisätutkimusta. Kyseessä on kuitenkin Steamin suosituin räiskintäpeli, joka on vielä Suomessa poikkeuksellisen suosittu. Monet pelaajat käyttävät io-techin testituloksia apunaan valitessaan seuraavaa näytönohjaintaan, ja CS2-suorituskyky saattaa olla heille yllättävän merkittävä tekijä. Tässä vaiheessa epäilen tarjoaako 9070 XT todella paremman pelikokemuksen kuin 5070TI ja joka on enemmänkin linjassa 5080 / 7900 XTX:n kanssa - voiko tuo testitulos johtaa kuluttajaa hieman harhaan.

CS2-9070XT.jpg
Eri resoluutiot ja asetukset.

9070XT:llä on paljon suurempi Pixel Fill Rate, kuin esim. RTX5080 kortilla ja se voi antaa edun matalemmilla grafiikka-asetuksilla. Isommalla resoluutiolla ja paremmilla grafiikka-asetuksilla alkaa muistikaista ja varjostimet rajoittaa menoa enemmän?
 
Taitaa vaikuttaa myös vasteaikaan vaikka olisi hitaampikin näyttö käytössä. Ei sillä että olisi merkitystä 95% pelaajille, mutta ammattilaisille toki jokainen millisekunti on tärkeä.
Vasteajassa ero on cs2:ssa häviävän pieni esimerkin 300 vs. 400 fps tapauksessa. cs go tuolla olisi ollu ehkä jotain merkitystäkin vielä.

edit:
Esim. 300 fps vs 700 on ero latenssissa vain 2 ms (14 vs 12ms) jos näyttö on tavanomainen 165 hz.
 
Kysäise alkuun vaikka HUB:lta miten ovat saaneet 4080 Superin suorituskykyisemmäksi kuin 5080, eikö tämä herätä mitään kysymyksiä testin luotettavuudesta?


CS2 meillä testattu 1080p, Medium-asetuksilla, FSR pois päältä ja käytössä on CS2 FPS Benchmark jonka jokainen voi ladata täältä ja ajaa vertailutuloksen:


Muut tahot eivät kaiketi ole testimetodiaan kertonut.


Minun käsittääkseni valtaosa ja myös minä itse pelaan Counter Strikiä juurikin noilla asetuksilla (1080p), ei 1440p, ei 4k MAX. Prosessori Counter Strikessä ja monissa muissa vastaavissa peleissä on melkein tärkeämmässä roolissa.

Ajattelin, että teiltä olisi helpompi kysyä, mutta kai sitä voisi itsekin kirjeen Ausseihin kirjoittaa. Tuntuu, että täällä usein lähes suututaan, jos joku edes hieman kyseenalaistaa saatuja tuloksia. Itsevarmuus ja omaan työhön luottaminen on toki hyvä asia.

Kaikki, mitä halusin sanoa, on, että testimetodia ja sen luotettavuutta voisi ehkä vielä hieman tarkastella. Tulokset eivät vaikuta olevan linjassa muiden testien kanssa. Onko käyttämänne benchmark todella hyvä, ja vastaako se oikeaa pelikokemusta? Minusta tuntuu, että ei. Tuollaiset yli 700 FPS:n keskiarvot ovat asetuksista ja kokoonpanosta huolimatta silkkaa fantasiaa Premier- tai Faceit-peleissä – puhumattakaan 1% loweista. Ainakin oman aiemman kokemukseni mukaan 7800X3D + 4090 -kokoonpanolla.

Jos tähän testiin todella on luottaminen ja ostaisi 9070 XT:n, niin CS2:n kilpailullisessa pelitilanteessa 1080p / medium-asetuksilla saavutettu suorituskyky olisi suunnilleen samalla tasolla kuin 5080:llä tai 7900 XTX:llä – ja parempi kuin 5070 Ti:llä. Se olisi todella kova tulos ja tekisi kortista loistavan valinnan jokaiselle CS2-pelaajalle tähän hintaan. Mutta sitten taas jos se onkin oikeassa pelitilanteessa jopa heikompi kuin jopa perustason 5070/7900GRE kuten HUB arvostelu viittoisi, niin kyseessä on suorastaan melko huono ostos CS2 pelurille.

Onko sillä edes mitään tosielämän merkitystä pyöriikö cs 300 vai 400fps?

On. Nille joille on. Näytöissäkin alkaa mennä aina 600Hz asti jo.
 
Viimeksi muokattu:
Kaikki mitä halusin sanoa on, että asiaa ja mahdollista testimetodia voisi ehkä vähän vielä kyseenalaistaa / tutkia - kun se ei jotenkin vaikuta olevan linjassa muiden kanssa.
Tutkittavaa on ainakin siinä että selvittää testimetodit muiltakin testaajilta. Sitten voidaan yhdessä ihmetellä että mikä käytetyistä testaustavoista on paras tapa tuota testata.

Nyt on tiedossa miten yksi taho tuon testaa (io tech) ja että tulokset on erilaiset kuin muilla. Se että miksi ne on erilaiset vaatii että tiedetään miten muut tahot tuota testaa. Sampsa ei sinulle osaa sanoa että miksi tulokset ovat erilaiset jollain toisella testaajalla. Se toinen testaaja sen osaisi sanoa, he kun tietävät miten testaavat mitä testaavat.
 
Onko sillä edes mitään tosielämän merkitystä pyöriikö cs 300 vai 400fps?
Kyllä täällä joku minulle näin väitti ihan viikon sisällä. En tiedä sitten oliko kultasilmä vai oliko kyse pätemisestä, mutta väitti, että engine on niin persuksesta, että fps määrittelee pelin sulavuuden vaikka olisi älyttämällä tasollakin
 
Kyllä täällä joku minulle näin väitti ihan viikon sisällä. En tiedä sitten oliko kultasilmä vai oliko kyse pätemisestä, mutta väitti, että engine on niin persuksesta, että fps määrittelee pelin sulavuuden vaikka olisi älyttämällä tasollakin
Ei päde enää cs2 tuo. Cs go oli vielä source moottorilla jossa tuo piti paikkansa. cs2 saa vain marginaalista hyötyä latenssiin ja sit placebot päälle, kunhan siis pysytään jo tukevasti näytön virkistystaajuuden yläpuolella.
 
Ajattelin, että teiltä olisi helpompi kysyä, mutta kai sitä voisi kirjettä ausseihin tehtailla. Tuntuu, että täällä todella usein liki suututaan jos kukaan kyseenalaistaa yhtään mitään saaduista tuloksista. Itsevarmuus ja omiin tuloksiin luottaminen on toki hyvästä.

Kaikki mitä halusin sanoa on, että asiaa ja mahdollista testimetodia voisi ehkä vähän vielä kyseenalaistaa / tutkia - kun se ei jotenkin vaikuta olevan linjassa muiden kanssa. Onko tuo käyttämänne benchmark todella hyvä ja vastaako se oikesti toteutuvaa pelikokemusta. Vähän tuntuu, että ei.

Eli jos nyt ostan sitten 9070 XT:n niin CS2 oikeassa kilpailullisessa pelitilanteessa saavutettu suorituskyky 1080p / medium asetuksilla on kutakuinkin samassa linjassa 5080 / 7900 XTX:n kanssa ja ihan jopa pienellä kaulalla parempi kuin 5070 TI. Se on tosi kova tulos, todella huippuvalinta siis jokaiselle CS2 pelaajalle.

Toisaalta sitten jos joskus vaikka päivittää tuollaiseen 1440p 480Hz OLEDiin niin asetelma hyvyydestä saattaakin kääntyä päälaelleen ja kortista muuttuu heikompi kuin perus 5070. 7900GRE tasoinen, yksinkertaisesti pykälää suuremmalla resoluutiolla - mikäli tähän hubin testiin olisi luottaminen samaan aikaan. Erikoistahan tuo on. Sanoisin, että jommassa kummassa testissä on jotain erikoista.
Eikö se nyt kuitenkin ole hyvä jos eri paikoissa tuota testataan eri tavalla? Jos kaikki mediat testaisi vain samoilla 4k max-asetuksilla niin se 1080p medium -pelaaja ei löytäisi mistään omaa käyttökohdettaan vastaavia tuloksia.

Olisi toki mielenkiintoista nähdä testitulokset ihan vaan kahdella kortilla (esim. 7090 XT ja RTX 5070 Ti) vaikkapa 4k max asetuksilla niin näkee että muuttuuko korttien keskinäiset voimasuhteet samalla tavalla io-techin käyttämässä testikentässä. Ja jos muuttuvat niin siinähän on taas videon aihetta kun tästä kerrotaan korttia omaan käyttöön valitseville ;)
 
Eikö se nyt kuitenkin ole hyvä jos eri paikoissa tuota testataan eri tavalla? Jos kaikki mediat testaisi vain samoilla 4k max-asetuksilla niin se 1080p medium -pelaaja ei löytäisi mistään omaa käyttökohdettaan vastaavia tuloksia.

Olisi toki mielenkiintoista nähdä testitulokset ihan vaan kahdella kortilla (esim. 7090 XT ja RTX 5070 Ti) vaikkapa 4k max asetuksilla niin näkee että muuttuuko korttien keskinäiset voimasuhteet samalla tavalla io-techin käyttämässä testikentässä. Ja jos muuttuvat niin siinähän on taas videon aihetta kun tästä kerrotaan korttia omaan käyttöön valitseville ;)
Hold my beer
 
Kaikki mitä halusin sanoa on, että asiaa ja mahdollista testimetodia voisi ehkä vähän vielä kyseenalaistaa / tutkia - kun se ei jotenkin vaikuta olevan linjassa muiden kanssa. Onko tuo käyttämänne benchmark todella hyvä ja vastaako se oikesti toteutuvaa pelikokemusta. Vähän tuntuu, että ei.

Täh? Luitko oikeasti ollenkaan mitä Sampsa vastasi?

Minun käsittääkseni valtaosa ja myös minä itse pelaan Counter Strikeä juurikin noilla asetuksilla (1080p), ei 1440p, ei 4k MAX. Prosessori Counter Strikessä ja monissa muissa vastaavissa peleissä on melkein tärkeämmässä roolissa, ei niinkään näytönohjain.

Näillä 1080p-asetuksilla entinen CS-kilpapelaaja natu pelaa, joka on myös töissä Suomen suurimmassa esports-organisaatiossa Encessä, jonka CS-joukkue pelaa ajoittain Major-tasolla

Eli monet harrastajat, entiset ammattilaiset JA nykyiset ammatikseen (eli ihan elääkseen = saavat rahaa siitä) henkilöt käyttävät juuri noita asetuksia millä IO-Tech on testin tehnyt.

Minusta Sampsa on kuitenkin kohtuu maanläheinen kaveri ja vastailee viesteihin toisin kuin kohtuu moni suuren (ja kyllä, vähintäänkin Suomen mittapuun mukaan IO-Tech on suuri) kanavan perustaja.

Eli henkilöt jotka oikeasti pelaavat peliä, tekevät sitä harrastuksena, tekevät sitä rahasta, käyttävät järkyttävän määrän tunteja (osa helposti 8-10+ tuntia per päivä jopa) siihen kyllä minusta vastaa sananmukaisesti toteutuvaa pelikokemusta. Se että tehdään joku "tekotaiteellinen" testi asetuksilla millä pyritään simuloimaan jotain vaikka ei olla edes ikinä pelattu peliä taas mielestäni EI ole hyvä tai vastaa toteutuvaa pelikokemusta.
 

Statistiikka

Viestiketjuista
270 475
Viestejä
4 679 166
Jäsenet
76 617
Uusin jäsen
hauskasti4

Hinta.fi

Back
Ylös Bottom