Näytönohjaimet - Yleisthreadi, mikä kortti minulle?

Puhuin vain 4K tilasta. 3440 uw:tä en ole käyttänyt, eikä asia ole kiinnostanut millääntavoin. Onko se joku ultramatala resoluutio?
Raju reso etenkin jos 3440x1440p. Lisäksi leveä FOV voi tuoda omat haasteensa.
 
Ei ole rajua nähnytkään, kun puheena oli 4k (2160p), jossa on 67,4 % enemmän pikseleitä kuin 3440x1440:ssä.

(3840 * 2160) / (3440 * 1440) * 100 % = 167,4 %

Ei se ole pelkkä pikselimäärä. Peleissä laajempi FOV näyttää enemmän, että kerralla on enemmän assetteja ja pelimaailmaa näkyvissä. Kun näkee kapeammin niin pelimoottorit sitten rapsii enemmän pois käsiteltäviä asioita.
 
Ei se ole pelkkä pikselimäärä. Peleissä laajempi FOV näyttää enemmän, että kerralla on enemmän assetteja ja pelimaailmaa näkyvissä. Kun näkee kapeammin niin pelimoottorit sitten rapsii enemmän pois käsiteltäviä asioita.
Kommentoin vain tuota "raju reso" -väitettä. Reso yksinäänkin oli kuulemma raju, ja FOV toi siihen vielä lisää.

Minulla ei ole kokemusta FOV:n vaikutuksesta fps:ään. Onko sitä testattu millään suuremmalla sivustolla? Esim. 21,5:9:llä vs. 16:9.

Uskon kyllä, että ylisuuri FOV voi olla liikaa jollekin heikommalle prossulle, jolloin frame timet alkavat kärsiä. Nyt kuitenkin puhuttiin pelkistä näytönohjaimista, joten heikkojen prossujen ongelmat voi unohtaa. Voiko laajempi FOV tosiaan verottaa pelkkää näytönohjainta enemmän kuin mitä 67,4 % suurempi pikselimäärä rasittaa? Oma veikkaukseni nimittäin on, että pikselimääräero pienentää fps-lukemaa selvästi enemmän kuin mitä laaja FOV vs. normaali FOV -vaikutus on.

Kyseisellä 3440x1440 näytöllä voi teoriassa näkyä 34,4 % enemmän pelimaailmaa kuin normaalilla 16:9-näytöllä, mutta reuna-alueita on mahdollisesti yksinkertaistettu (koska eivät ole pelaajan huomion keskipisteenä), jolloin tavaraa näkyisi alle 34,4 % enemmän.

Joka tapauksessa lukema on pienempi kuin 67,4 %, joten 3840x2160@normaali FOV on rajumpi GPU:lle kuin 3440x1440@laaja FOV. Suorittimen kannalta taas jälkimmäinen on rajumpi, mutta prossuista ei ollut puhe.
 
Viimeksi muokattu:
Minulla ei ole kokemusta FOV:n vaikutuksesta fps:ään. Onko sitä testattu millään suuremmalla sivustolla?

Tätä on testattu Quake 1:llä jo vuonna 1996 kun sai pelin konsolista käännettyä FOV:ia vaikka siihen aikaan asioita rajoitti fillrate. Ja homma perustuu aika pitkälti tähän: Hidden-surface determination - Wikipedia

Pikatestauksen voi tehdä FPS pelissä missä kiikarikivääri ja katsoa sen läpi paikkoja. FPS useinkin nousee. Se vaikuttaa kun on enemmän erilaisia assetteja ruudulla. Johonkin saman pusikon tai kiven murikan piirtoon ei nykyään vaikuta koska siellä on instansing, mutta erilaisilla asseteilla draw callien määrä kasvaa ja GPU haluaa piirrellä erilaisia assetteja.

Sen lisäksi FOV:n kääntö kutistaa kaikkea mikä tarkoittaa sitä, että objekteissa polygonit alkavat kutistua. Silloin LOD tasojen pitäisi vaihtua nopeammin karkeammaksi, että polygonitheys pysyy vastaavana ja näin ne pelimoottoritkin yleensä tekevät koska näytönohjaimet alkavat kyykkää mitä pienempiä polygoneja piirtävät eikä niinkään niiden täytöstä. Mutta, kaikissa objekteissa ei ole muita kuin karkeita LOD tasoja joten käytännössä polygonimäärä kasvaa ja löytyy enemmän pieniä polygoneja -> eli enemmän kuormaa. Sitten jos peli on tehty ihan perseelleen ja LOD tasot eivät säädy oikein niin voi olla ihan kyykyssä.

Eli kuormaa tulee näytönohjaimille siitä, että on enemmän erilaisia assetteja kuin että jonkin verran on enemmän pienempää polygonia.
 
Tätä on testattu Quake 1:llä jo vuonna 1996 kun sai pelin konsolista käännettyä FOV:ia vaikka siihen aikaan asioita rajoitti fillrate. Ja homma perustuu aika pitkälti tähän: Hidden-surface determination - Wikipedia

Pikatestauksen voi tehdä FPS pelissä missä kiikarikivääri ja katsoa sen läpi paikkoja. FPS useinkin nousee. Se vaikuttaa kun on enemmän erilaisia assetteja ruudulla. Johonkin saman pusikon tai kiven murikan piirtoon ei nykyään vaikuta koska siellä on instansing, mutta erilaisilla asseteilla draw callien määrä kasvaa ja GPU haluaa piirrellä erilaisia assetteja.

Sen lisäksi FOV:n kääntö kutistaa kaikkea mikä tarkoittaa sitä, että objekteissa polygonit alkavat kutistua. Silloin LOD tasojen pitäisi vaihtua nopeammin karkeammaksi, että polygonitheys pysyy vastaavana ja näin ne pelimoottoritkin yleensä tekevät koska näytönohjaimet alkavat kyykkää mitä pienempiä polygoneja piirtävät eikä niinkään niiden täytöstä. Mutta, kaikissa objekteissa ei ole muita kuin karkeita LOD tasoja joten käytännössä polygonimäärä kasvaa ja löytyy enemmän pieniä polygoneja -> eli enemmän kuormaa. Sitten jos peli on tehty ihan perseelleen ja LOD tasot eivät säädy oikein niin voi olla ihan kyykyssä.

Eli kuormaa tulee näytönohjaimille siitä, että on enemmän erilaisia assetteja kuin että jonkin verran on enemmän pienempää polygonia.
Minua kiinnostaisi nähdä käytännön testi 3440x1440@laaja FOV vs. 2560x1440@normaali FOV. Mielestäni niiden erojen teoreettinen maksimi on (3440 / 2560) ^ 2 = 1,81. Ensimmäinen potenssi tulee pikselimääräerosta ja toinen näkyvissä olevan pelimaailman pinta-alasta, kun katseluetäisyys ja pysty-FOV ovat vakiot (=näytöt ovat fyysisesti yhtä korkeita, mutta toinen on leveämpi). Käytännössä UW + laaja FOV ovat alle 81 % raskaampia näytönohjaimelle, mutta mennään varmuuden vuoksi sillä.

Kysymys oli, onko 3440x1440@laaja FOV rajumpi kuin 3840x2160@normaali FOV. Jos 3840x2160@normaali FOV on yli 81 % raskaampi kuin 2560x1440@normaali FOV, niin 3440 + laaja ei ole rajumpi.

Valitaan peli ja GPU niin, että suoritin ei rajoita@1440p. Hyvä valinta on Cyberpunk ilman säteenseurantaa. Näytönohjaimeksi kannattaa varoiksi valita vanha lippulaiva, jotta suoritin ei ota vastaan, mutta muistimäärä/-kaista eivät kuitenkaan ahdista@2160p. Valitaan siis RTX 3090 24 Gt 936 Gt/s. Techpowerup on testannut sen nopeudeksi 94,3 fps@1440p vs. 46,5 fps@2160p. Jälkimmäinen on 103 % raskaampi. Pikselimäärä on 125 % suurempi, joten aivan sen vertaa ei ole eroa.

Teoria:
A) 3840x2160@normaali vs. 2560x1440@normaali on teoriassa 125 % raskaampi

B) 3440x1440@laaja vs. 2560x1440@normaali on teoriassa 81 % raskaampi

Käytäntö:
C) 3840x2160@normaali vs. 2560x1440@normaali on käytännössä 103 % raskaampi, eli teoria miinus x (x = 125 - 103, eli 22)

D) 3440x1440@laaja vs. 2560x1440@normaali on käytännössä (81 - Y)% raskaampi


En näe, miten D-kohdan (81 - y) voisi olla suurempi kuin 103. Sen perusteella väitän, että 3840x2160@normaali FOV on raskaampi näytönohjaimelle kuin 3440x1440@laaja FOV.
 

Liitteet

  • Screenshot_2024-03-21-11-14-03-18_40deb401b9ffe8e1df2f1cc5ba480b12.jpg
    Screenshot_2024-03-21-11-14-03-18_40deb401b9ffe8e1df2f1cc5ba480b12.jpg
    158,8 KB · Luettu: 57
Eipä se 4080 mikään raketti ole.. Jos oikeasti haluaa leikkejä 4K leikkejä, niin kyllä se valinta on silloin vain ja ainoastaan Nvidian 4090 tällä hetkellä..
Ei sitä kukaan ole raketiksi väittänytkään. Segmentointikontekstissa 4080 kuitenkin kaupataan 4K-korttina, siinä missä 4070-sarjalaisia 1440p kortteina. Ja edelleen riippuu asetuksista, pelistä,näytöstä, sekä käyttääkö DLSS vai ei.

Myös 4090 on mopo mikäli on tarve ajaa vaikkapa Cyberpunkia 4K:na RT/Ultra-asetuksilla. Silloin kannattaa katsella jo 5000-sarjaa.
 
Minua kiinnostaisi nähdä käytännön testi 3440x1440@laaja FOV vs. 2560x1440@normaali FOV. Mielestäni niiden erojen teoreettinen maksimi on (3440 / 2560) ^ 2 = 1,81. Ensimmäinen potenssi tulee pikselimääräerosta ja toinen näkyvissä olevan pelimaailman pinta-alasta, kun katseluetäisyys ja pysty-FOV ovat vakiot (=näytöt ovat fyysisesti yhtä korkeita, mutta toinen on leveämpi). Käytännössä UW + laaja FOV ovat alle 81 % raskaampia näytönohjaimelle, mutta mennään varmuuden vuoksi sillä.

Näytönohjaimelle lisärasitus suhteessa pikseleihin tosiaankin tulee siitä, että:
1. Enemmän erilaisia assetteja näkyvillä
2. Käytännössä enemmän pienempiä polygoneja koska kaikki voidaan piirtää pienempänä.

Näytönohjaimet käyttää moninkertaisesti enemmän resursseja kolmioiden reunojen piirrossa kuin niitä täytettäessä joten polygonien kutistuminen, ja toki myös ruudulla näkyvän geometrian määrä tuntuu. Se miten LOD tasot toimivat vaikuttavat myös.

Ei silti, kyllä tuo näytönohjaimella menee enemmän pikselimäärän mukaan että vaikea testaamatta arvioida paljon se vaikutus nyt on missäkin pelissä mutta FOV:n säätäminen suuremmaksi samalla pikselimäärällä pitäisi lisätä kuormaa jonkin verran.

Jotain käytännöntestejä voisi kokeilla sitten oikeastaan millä tahansa pelillä missä pääsee säätämään FOV:ia. Pikselimäärä voi toki pysyä samana että testaa vaan sitä FOV:n vaikutusta.
 
Lainaan ketjua pienelle ja helpolle kysymykselle. Onko tämä lämpötahna riittävän hyvä Asus RTX 2070 kortille vai onko syytä hankkia jotain parempaa?

 
Se miten LOD tasot toimivat vaikuttavat myös.

Sinulla on nyt fiksaatio noihin LOD-tasoihin ja ei ne toimi, niinkuin luulet.

Lisäksi näytönohjaimet piirtävät nykyään paljon enemmän kuin polygoneja tekstuureineen, jostain ikivanhasta Deus Ex:stä lähtien on tehty multipass renderingiä ja tuo hidden surface removal on tällä vuosituhannella hoidettu z-bufferilla, joka ei ole riippuvainen FOV:ista vaan taas pikselitiheydestä.

Ja tässäkin on taas osittain oikein.. eli kyllä: scenen monimutkaisuudesta riippuu renderöintiaika. Sinne ei vaan tarvitse tunkea jargonia ja pieniä polygoneita.

Hitto, näitä joutuu aina korjaamaan. Mutta jatkettaisiinko jossain toisessa ketjussa?
 
Sinulla on nyt fiksaatio noihin LOD-tasoihin ja ei ne toimi, niinkuin luulet.

Siis tiedän hyvin tarkkaan miten LOD tasot toimivat. Näitä ja assettien tekoa on opeteltu optimoimaan.

Lisäksi näytönohjaimet piirtävät nykyään paljon enemmän kuin polygoneja tekstuureineen, jostain ikivanhasta Deus Ex:stä lähtien on tehty multipass renderingiä ja tuo hidden surface removal on tällä vuosituhannella hoidettu z-bufferilla, joka ei ole riippuvainen FOV:ista vaan taas pikselitiheydestä.

Frustum cullingiin linkkasin.

Ja tässäkin on taas osittain oikein.. eli kyllä: scenen monimutkaisuudesta riippuu renderöintiaika. Sinne ei vaan tarvitse tunkea jargonia ja pieniä polygoneita.

LOD tasoissa merkittävä asia vaan on, että välttää piirtämästä pieniä polygoneja. Näytönohjaimet olennaisesti on tehty siihen että laskevat vastaavaa asiaa voimakkaasti rinnakkaistettuna. Tämä asia kärsii pienillä polygoneilla. Laittamalla FOV:n suureksi pelimoottori piirtää keskimäärin pienempää polygonia mutta LOD tasojen pitäisi ratkoa tuo FOV:n kasvaessa, että ei mene sinne pikselitasolle. Isot polygonit sieltä kuitenkin katoavat kun FOV:n kasvatus kutistaa kaikkea.

Hitto, näitä joutuu aina korjaamaan. Mutta jatkettaisiinko jossain toisessa ketjussa?

Jatketaan vaan.
 
Näytönohjaimelle lisärasitus suhteessa pikseleihin tosiaankin tulee siitä, että:
1. Enemmän erilaisia assetteja näkyvillä
2. Käytännössä enemmän pienempiä polygoneja koska kaikki voidaan piirtää pienempänä.

Näytönohjaimet käyttää moninkertaisesti enemmän resursseja kolmioiden reunojen piirrossa kuin niitä täytettäessä joten polygonien kutistuminen, ja toki myös ruudulla näkyvän geometrian määrä tuntuu. Se miten LOD tasot toimivat vaikuttavat myös.

Ei silti, kyllä tuo näytönohjaimella menee enemmän pikselimäärän mukaan että vaikea testaamatta arvioida paljon se vaikutus nyt on missäkin pelissä mutta FOV:n säätäminen suuremmaksi samalla pikselimäärällä pitäisi lisätä kuormaa jonkin verran.

Jotain käytännöntestejä voisi kokeilla sitten oikeastaan millä tahansa pelillä missä pääsee säätämään FOV:ia. Pikselimäärä voi toki pysyä samana että testaa vaan sitä FOV:n vaikutusta.
Pakkohan se oli hiukan testata FOV:n vaikutusta fps:ään kolmella ajopelillä, joissa prossu ei taatusti kanittanut vastaan, vaan GPU sai painaa 99 % koko ajan.


Dirt Rally 3840x2160@ultra:

arvot epämääräisiä 0,0-1,0 (default 0,5), mutta vaikutti näkökentän laajuuteen, joten testasin laajin vs. oletus -> ei vaikutusta, tai jos oli, niin laaja pyöri inasen nopeammin.


Forza 4 3840x2160@ultra:

default vs Max. FOV -> avg. 66,4 vs. 66,5 fps (CPU avg. simulation 301 fps vs. 300,5 fps, CPU render 229,7 fps vs. 228,6 fps). Prossu otti laajasta osumaa noin 1 fps, mutta GPU taas jopa karvan nopeampi. Testasin benchmarkin lisäksi radalla useassa eri kohdassa, ja niinkin, ettei laaja FOV johtanut taivaan näkymiseen, vaan rajoittui puiden latvoihin. Näin molemmissa näkyi enimmäkseen puita, ja laajalla enemmän. Kokeilin kuskin paikalta, konepelliltä ja puskurista, vaihtelin pysty-FOV:ä noin 40-70 astetta. Tuloksena laajin näkymä pyöri yhtä hyvin tai jopa hieman paremmin kuin normaali tai suppea näkymä.


Assetto Corsa 3840x2160@ultra:

pysty-FOV, avg. Fps:
56° 63 fps
80° 65 fps
100° 66 fps
120° 67 fps (sivuikkuna oli jo leveämpi ja paljon suurempi kuin tuulilasi)

Lopuksi testasin 3072x1728@ultra, 120° v-FOV, niin tuli 88 fps, mikä on 39,7 % korkeampi fps kuin normaali FOV 2160p. Kyseisessä 3072x1728:ssa on yli 7 % enemmän pikseleitä kuin eilen puheena olleessa 3440x1440:ssä.

On varmaa, että 2160p@normaali FOV on rajumpi resoluutio pikselimäärän osalta kuin 3440x1440@laaja FOV. Edellisen kappaleen perusteella jälkimmäisen laaja-FOV:n fps ollee 45-50 % korkeampi kuin 2160p@normaali. @Pyrres
 

Liitteet

  • Screenshot_2024-03-22-20-19-49-45_965bbf4d18d205f782c6b8409c5773a4.jpg
    Screenshot_2024-03-22-20-19-49-45_965bbf4d18d205f782c6b8409c5773a4.jpg
    188,5 KB · Luettu: 69
  • Screenshot_2024-03-22-20-44-53-31_965bbf4d18d205f782c6b8409c5773a4.jpg
    Screenshot_2024-03-22-20-44-53-31_965bbf4d18d205f782c6b8409c5773a4.jpg
    260,3 KB · Luettu: 71
  • Screenshot_2024-03-22-20-45-06-08_965bbf4d18d205f782c6b8409c5773a4.jpg
    Screenshot_2024-03-22-20-45-06-08_965bbf4d18d205f782c6b8409c5773a4.jpg
    258,6 KB · Luettu: 71
  • Screenshot_2024-03-22-20-56-08-25_965bbf4d18d205f782c6b8409c5773a4.jpg
    Screenshot_2024-03-22-20-56-08-25_965bbf4d18d205f782c6b8409c5773a4.jpg
    233,1 KB · Luettu: 56
ja konsolin määrittämä speksi kestää 7v.

Ei kestä, jos speksi oli se 4k, konsolilla pelit skaalataan lennossa allemmille resoluutioille dynaamisella resoluutiolla, eikä mainostettu "up to 120fps" Ps5 toimi kuin kourallisessa pelejä, esim. Alan wake 2 hädintuskin 30fps. Ja ei, kaikkia pelejä ei tehdä konsoleita silmällä pitäen.

Edit: Tsori väärä ketju. Jatkot muualla.
 
Pakkohan se oli hiukan testata FOV:n vaikutusta fps:ään kolmella ajopelillä, joissa prossu ei taatusti kanittanut vastaan, vaan GPU sai painaa 99 % koko ajan.


Dirt Rally 3840x2160@ultra:

arvot epämääräisiä 0,0-1,0 (default 0,5), mutta vaikutti näkökentän laajuuteen, joten testasin laajin vs. oletus -> ei vaikutusta, tai jos oli, niin laaja pyöri inasen nopeammin.


Forza 4 3840x2160@ultra:

default vs Max. FOV -> avg. 66,4 vs. 66,5 fps (CPU avg. simulation 301 fps vs. 300,5 fps, CPU render 229,7 fps vs. 228,6 fps). Prossu otti laajasta osumaa noin 1 fps, mutta GPU taas jopa karvan nopeampi. Testasin benchmarkin lisäksi radalla useassa eri kohdassa, ja niinkin, ettei laaja FOV johtanut taivaan näkymiseen, vaan rajoittui puiden latvoihin. Näin molemmissa näkyi enimmäkseen puita, ja laajalla enemmän. Kokeilin kuskin paikalta, konepelliltä ja puskurista, vaihtelin pysty-FOV:ä noin 40-70 astetta. Tuloksena laajin näkymä pyöri yhtä hyvin tai jopa hieman paremmin kuin normaali tai suppea näkymä.


Assetto Corsa 3840x2160@ultra:

pysty-FOV, avg. Fps:
56° 63 fps
80° 65 fps
100° 66 fps
120° 67 fps (sivuikkuna oli jo leveämpi ja paljon suurempi kuin tuulilasi)

Lopuksi testasin 3072x1728@ultra, 120° v-FOV, niin tuli 88 fps, mikä on 39,7 % korkeampi fps kuin normaali FOV 2160p. Kyseisessä 3072x1728:ssa on yli 7 % enemmän pikseleitä kuin eilen puheena olleessa 3440x1440:ssä.

On varmaa, että 2160p@normaali FOV on rajumpi resoluutio pikselimäärän osalta kuin 3440x1440@laaja FOV. Edellisen kappaleen perusteella jälkimmäisen laaja-FOV:n fps ollee 45-50 % korkeampi kuin 2160p@normaali. @Pyrres
Sori, meni UW reso sekaisin kun muistin hypyn 5120x1440 resoon normi UW:sta. Meikän moga. Siinä vain hiukan vähemmän pikseleitä vs 4k.
 
4 vuotias Asus dual 2080 super päätti hajota ja nyt pitäis saada tilalle uusi tai käytetty takuullinen. mitä arvon raati suosittelee?
Budjetti: 300-600
Poweri: 750w
Prosessori: i7 6700k
Kotelo: fractal r6
Kellotus: ei
Montako näyttöä (myös TVt yms): yhdellä mennään tällä hetkellä
Näytön/näyttöjen resoluutio(t): 2560x1440
Käyttötarkoitus: asettoa simulla ja satunnaista sotaräiskintää(cod,hll,squad)
 
4 vuotias Asus dual 2080 super päätti hajota ja nyt pitäis saada tilalle uusi tai käytetty takuullinen. mitä arvon raati suosittelee?
Budjetti: 300-600
Poweri: 750w
Prosessori: i7 6700k
Kotelo: fractal r6
Kellotus: ei
Montako näyttöä (myös TVt yms): yhdellä mennään tällä hetkellä
Näytön/näyttöjen resoluutio(t): 2560x1440
Käyttötarkoitus: asettoa simulla ja satunnaista sotaräiskintää(cod,hll,squad)

RX7800XT / RTX4070
 
RX7800XT / RTX4070
Nämä 2 näytönohjainta kiinnostaisi, mutta koska mulla on koneessa kiinni laadukas 500W virtalähde joka tulee kestämään vielä vuosia niin tuntuisi tyhmältä käyttää 100 euroa uuteen 750W virtalähteeseen. Tämän takia 4070 on alkanut tuntumaan fiksulta vaihtoehdolta ja samalla säästäisin vuosittain kymmenisen euroa sähkölaskuissa.

MUTTA... Minua alkoi ahdistamaan 4070:n 192-bitin muistiväylä. Olen huomaavinani melkein jokaisessa benchmark videossa pientä micro stutteria.

Kuvittelenko, vai töksytteleekö 4070 enemmän kuin vastaavat radeonit 1440p resolla pelattaessa?
 
Nämä 2 näytönohjainta kiinnostaisi, mutta koska mulla on koneessa kiinni laadukas 500W virtalähde joka tulee kestämään vielä vuosia niin tuntuisi tyhmältä käyttää 100 euroa uuteen 750W virtalähteeseen. Tämän takia 4070 on alkanut tuntumaan fiksulta vaihtoehdolta ja samalla säästäisin vuosittain kymmenisen euroa sähkölaskuissa.

MUTTA... Minua alkoi ahdistamaan 4070:n 192-bitin muistiväylä. Olen huomaavinani melkein jokaisessa benchmark videossa pientä micro stutteria.

Kuvittelenko, vai töksytteleekö 4070 enemmän kuin vastaavat radeonit 1440p resolla pelattaessa?

Oon kyllä väärä henkilö tähän vastaamaan, mutta ei kai sulla edes muita vaihtoehtoja ole, jos haluat vähävirtaisen tehokkaan kortin?

Kahdella frendillä on RTX4070 ja kyllä ne on tyytyväisiä olleet.
 
En ole kyllä 4070 kanssa ~9kk aikana huomannut mitään microstuttereita, huonosti koodatut pelit toki tökkii vähän millä raudalla vaan.
 
Oon kyllä väärä henkilö tähän vastaamaan, mutta ei kai sulla edes muita vaihtoehtoja ole, jos haluat vähävirtaisen tehokkaan kortin?

Kahdella frendillä on RTX4070 ja kyllä ne on tyytyväisiä olleet.
Joo kyllä minäkin varmasti tyytyväinen olisin jos voisin pelata uusimpia pelejä, mutta jos käytän 500 euroa yhteen komponenttiin niin saa aika tarkkaan miettiä että ei ala jälkeenpäin kaduttamaan. Jos mulla olisi tehokkaampi virtalähde niin ehdottomasti ostaisin 7800XT:n ja alivoltittaisin sen, mutta nyt en oikein tiedä kun tuli aikoinaan hankittua liian tehoton virtalähde. Uskoisin että 7800XT kestää paremmin aikaa, mutta 4070:ssa on sitten ne omat hyvät puolensa.

En ole kyllä 4070 kanssa ~9kk aikana huomannut mitään microstuttereita, huonosti koodatut pelit toki tökkii vähän millä raudalla vaan.
Ok, kiitti. Pitääpä vielä mietiskellä.
 
MUTTA... Minua alkoi ahdistamaan 4070:n 192-bitin muistiväylä. Olen huomaavinani melkein jokaisessa benchmark videossa pientä micro stutteria.

Kuvittelenko, vai töksytteleekö 4070 enemmän kuin vastaavat radeonit 1440p resolla pelattaessa?
Tsekkaappa millä fps -lukemalla se benchmark -video suoltaa sitä videota ulos - sen jälkeen tsekkaa mille värähtelytaajuudelle sun näyttö on säädetty. Jos noissa on tasajaollinen ristiriita, niin se heittää stutteria. Omalla kohdalla oon ihmetellyt miksei freesync premium pro hoida hommaa himaan videotoistossa - mutta peleissä hoitaa.
 
Joo kyllä minäkin varmasti tyytyväinen olisin jos voisin pelata uusimpia pelejä, mutta jos käytän 500 euroa yhteen komponenttiin niin saa aika tarkkaan miettiä että ei ala jälkeenpäin kaduttamaan. Jos mulla olisi tehokkaampi virtalähde niin ehdottomasti ostaisin 7800XT:n ja alivoltittaisin sen, mutta nyt en oikein tiedä kun tuli aikoinaan hankittua liian tehoton virtalähde. Uskoisin että 7800XT kestää paremmin aikaa, mutta 4070:ssa on sitten ne omat hyvät puolensa.

Toisaalta jos on käyttämässä 500e yhteen komponenttiin ja tietää minkä ehdottomasti haluaisi niin onko se virtalähteen päivittäminen niin suuri kynnyskysymys että mieluummin käyttää 500e yhteen komponenttiin, jota ei oikeastaan olisi halunnut mutta johon joutui tyytymään? Itse ainakin myöntäisin mieluummin itselleni valinneeni aiemmin virtalähteen, joka ei riittänytkään niin pitkälle tulevaisuuteen kuin olin ajatellut, päivittäisin sen ja häviäisin siinä tietysti X määrän rahaakin mutta ainakin pelaisin sitten sillä 500e näyttiksellä millä halusinkin. Toki jos haluaa mieluummin vaalia sitä virtalähdettä ja tehdä sen takia kompromissejä muun kokoonpanon suhteen ties kuinka monta vuotta tulevaisuuteen niin sitten tekee mutta vähän hölmöltä sekin ainakin minusta tuntuu.
 
Nämä 2 näytönohjainta kiinnostaisi, mutta koska mulla on koneessa kiinni laadukas 500W virtalähde joka tulee kestämään vielä vuosia niin tuntuisi tyhmältä käyttää 100 euroa uuteen 750W virtalähteeseen. Tämän takia 4070 on alkanut tuntumaan fiksulta vaihtoehdolta ja samalla säästäisin vuosittain kymmenisen euroa sähkölaskuissa.

MUTTA... Minua alkoi ahdistamaan 4070:n 192-bitin muistiväylä. Olen huomaavinani melkein jokaisessa benchmark videossa pientä micro stutteria.

Kuvittelenko, vai töksytteleekö 4070 enemmän kuin vastaavat radeonit 1440p resolla pelattaessa?

Yleisesti ottaen näytönohjaimen muistiväylän suuruus tai kapeus näkyy lähinnä puhtaassa suorituskyvyssä erityisesti korkealla resoluutiolla. Microstutterit taas aiheutuvat useimmiten pullonkaulasta joka käytännössä on näytönohjaimen muistin määrä tai huonosti koodattu peli jolloin peli joutuu hakemaan RAM-muistista tai levyltä dataa jotka kumpikin on moninkertaisesti hitaampia operaatioita. Jos benchmark tai peli lataa järkevästi näytönohjaimen muistiin dataa hyvissä ajoin niin en usko että näytönohjaimen muistiväylä aiheuttaisi näkyvää micro stutteria.
 
Tsekkaappa millä fps -lukemalla se benchmark -video suoltaa sitä videota ulos - sen jälkeen tsekkaa mille värähtelytaajuudelle sun näyttö on säädetty. Jos noissa on tasajaollinen ristiriita, niin se heittää stutteria. Omalla kohdalla oon ihmetellyt miksei freesync premium pro hoida hommaa himaan videotoistossa - mutta peleissä hoitaa.
Niissä benchmarkeissa mitä olen katsellut niin on vierekkäin useampi video ja 4070:n lähdevideo näyttäisi nykivän enemmän. Youtuben kommenteissa jotkut oli huomannut saman, mutta eipä noihin videoihin kai ole luottamista.
Toisaalta jos on käyttämässä 500e yhteen komponenttiin ja tietää minkä ehdottomasti haluaisi niin onko se virtalähteen päivittäminen niin suuri kynnyskysymys että mieluummin käyttää 500e yhteen komponenttiin, jota ei oikeastaan olisi halunnut mutta johon joutui tyytymään? Itse ainakin myöntäisin mieluummin itselleni valinneeni aiemmin virtalähteen, joka ei riittänytkään niin pitkälle tulevaisuuteen kuin olin ajatellut, päivittäisin sen ja häviäisin siinä tietysti X määrän rahaakin mutta ainakin pelaisin sitten sillä 500e näyttiksellä millä halusinkin. Toki jos haluaa mieluummin vaalia sitä virtalähdettä ja tehdä sen takia kompromissejä muun kokoonpanon suhteen ties kuinka monta vuotta tulevaisuuteen niin sitten tekee mutta vähän hölmöltä sekin ainakin minusta tuntuu.
En ole niin ehdoton, mutta haaveena ollut joku tehokkaampi näyttis että voisi vähän paremmin immersoitua pelien maailmaan. Minulle tärkeämpää on järkeillä ja perustella ostokset. Saan eniten iloa ostamalla sen näytönohjaimen mikä tuntuu järkevimmältä, mutta saattaa tässä vielä joutua nöyrtymään ostamaan sen virtalähteen. GTX 1080:lla mennään toistaiseksi.
 
Ainakin youtube-videoissa voisi olla cpu-stutterissa eroja. Tai siis näytönohjaimia vähemmän testataan 2-3 sukupolvea vanhoilla prosuilla, joita monella silti on. Ja näyttis 1 voi vaatia enemmän CPU:ta kuin näyttis 2.

Itse olen ollut tyytyväinen 4070-korttiin +5800x/5800x3d ja en vaihtaisi.

Täytyy myöntää että pelivalikoima joita olen pelannut on ollut suppea mutta pelannut olen kuitenkin.
Makuasioille tarvii antaa tilaa kanssa.
 
En ole niin ehdoton, mutta haaveena ollut joku tehokkaampi näyttis että voisi vähän paremmin immersoitua pelien maailmaan. Minulle tärkeämpää on järkeillä ja perustella ostokset. Saan eniten iloa ostamalla sen näytönohjaimen mikä tuntuu järkevimmältä, mutta saattaa tässä vielä joutua nöyrtymään ostamaan sen virtalähteen. GTX 1080:lla mennään toistaiseksi.
Juu, tuttua on tuo Jaakobinpaini itsellekin ja jokainenhan tekee niinkuin parhaaksi näkee. Siksi vain kommentoin kun kirjoitit aiemmin:
Jos mulla olisi tehokkaampi virtalähde niin ehdottomasti ostaisin 7800XT:n
ja itse olen joskus huomannut että jos oikeasti haluaa ostaa juuri jonkun tietyn asian niin todennäköisesti kannattaa ostaa juuri se asia. Vaikka ostaessa kuinka hyvin järkeilisi jonkun kompromissin itselleen, saattaa jälkikäteen harmittaa kun se ostamasi kompromissi ei sitten kuitenkaan ole se, mistä alunperin haaveilit. Tämä siis ihan yleisesti koskien muutakin kuin tietokoneen komponentteja. Toki ihmiset on erilaisia ja joku ei ostoksen tehtyään asiaa enää toista kertaa mieti.

Tuossa tuo rajoittava tekijä eli virtalähde on kuitenkin omalla toiminnalla aika helposti poistettavissa. Saattaa myös olla, ettei jää viimeiseksi kerraksi kun tuo virtalähde osoittautuu jotain rajoittavaksi tekijäksi - joskus kannattaa vain repäistä laastari äkkiä.

Positiivinen asia on se, että päädyt sitten mihin ratkaisuun tahansa niin kumpikin noista korteista on varmasti hyvä päivitys nykyiseen. Onnea painiskeluun!
 
@hanse millä prossulla touhuat? Nuo näytönohjainten valmistajien suosituswatit on jotain ihan hattuvakioita ja iso osa porukasta jostain syystä lähtee tähän wattihypeen. Väittäisin, että sun virtalähteellä ei tule ongelmia kummankaan näyttiksen kanssa.

En nyt muista mitä rautaa juuri silloin oli, mutta muutamia vuosia sitten oli näyttis, joka valmistajan mukaan vaatii väh. 600w virtalähteen ja mittarilla kun katsoi niin KOKO KONE imi töpselistä virtalähteelle täydessä rasituksessa alle 400w ja siinä oli senaikaista ihan hyvää prossuakin mukana jne.
 
Niissä benchmarkeissa mitä olen katsellut niin on vierekkäin useampi video ja 4070:n lähdevideo näyttäisi nykivän enemmän. Youtuben kommenteissa jotkut oli huomannut saman, mutta eipä noihin videoihin kai ole luottamista.

Ei mistään youtube videosta pysty microstutterista päättelemään mitään, jos se video nykisi näkyvästi 60fps:n youtube-videossa kyse olisi jo ihan kunnon stutterista jossa fps tippuisi myös jne. Microstutteri näkyy vain frametime-käppyröistä tai sitten jollain suurnopeuskameralla kuvaamalla.
 
@hanse millä prossulla touhuat? Nuo näytönohjainten valmistajien suosituswatit on jotain ihan hattuvakioita ja iso osa porukasta jostain syystä lähtee tähän wattihypeen. Väittäisin, että sun virtalähteellä ei tule ongelmia kummankaan näyttiksen kanssa.

En nyt muista mitä rautaa juuri silloin oli, mutta muutamia vuosia sitten oli näyttis, joka valmistajan mukaan vaatii väh. 600w virtalähteen ja mittarilla kun katsoi niin KOKO KONE imi töpselistä virtalähteelle täydessä rasituksessa alle 400w ja siinä oli senaikaista ihan hyvää prossuakin mukana jne.
Mittasin minä joskus virrankulutuksen täydessä rasituksessa, en enää tarkkaan muista, mutta oiskohan ollut yhteensä jotain 280W Ryzen 5600 + GTX 1080.

RX7800XT:n TDP on 280W ja virtalähdesuositus 750W. Periaatteessa voisi toimia alivoltitettuna, mutta en tiiä onko se hyvä idea. Voisihan sitä toki kokeilla, koska alivoltitan uuden näytönohjaimen joka tapauksessa. :D

edit: AMD:n virallinen TDP 263W ja virtalähdesuositus 700W
 
Viimeksi muokattu:
Mittasin minä joskus virrankulutuksen täydessä rasituksessa, en enää tarkkaan muista, mutta oiskohan ollut yhteensä jotain 280W Ryzen 5600 + GTX 1080.

RX7800XT:n TDP on 280W ja virtalähdesuositus 750W. Periaatteessa voisi toimia alivoltitettuna, mutta en tiiä onko se hyvä idea. Voisihan sitä toki kokeilla, koska alivoltitan uuden näytönohjaimen joka tapauksessa. :D
Nuo suositukset on kyllä aina varsin hatusta heitettyjä. Katsoo vaikka IO-Techin näytönohjaintesteistä kulutusmittaukset, kun on kerta koko kokoonpanon kulutus esitettynä.
Esim. tuoreessa RX 7900 GRE -artikkelissa mukana olleet 4070 335W, 4070 Super 350W, 7800 XT 405W jne.. alivoltitettuna sitten kulutusta voi saada jopa 100W pois.
 
Mittasin minä joskus virrankulutuksen täydessä rasituksessa, en enää tarkkaan muista, mutta oiskohan ollut yhteensä jotain 280W Ryzen 5600 + GTX 1080.

RX7800XT:n TDP on 280W ja virtalähdesuositus 750W. Periaatteessa voisi toimia alivoltitettuna, mutta en tiiä onko se hyvä idea. Voisihan sitä toki kokeilla, koska alivoltitan uuden näytönohjaimen joka tapauksessa. :D
Igorslab suosittelee 7800 XT:lle 650 W gold/platinum:
"This is also the reason for my power supply recommendation, which for both models is that you should be able to get by with a modern 550 watt Gold or Platinum power supply (RX 7700XT) or 650 watt power supply (RX 7800XT). If you want to overclock, you should add another 50 watts, which is especially true for the board partner cards."

Toisaalta sinulla on pihi Ryzen 5600, niin vähän pienempikin riittäisi. Seinästä ottanee pelatessa noin 400 W, eli DC-out -kuormitusaste noin 70-75 % laadukkaalla 500 wattisella. Jos kerran aiot alivoltittaakin, niin ainoa mahdollinen mörkö on virtalähteen piikkikesto. Seasonic-pohjaiset olivat heikkoja tuon suhteen ennen 2020. Igorin mukaan 7800 XT:n piikit heiluvat 350-400 W. Ei ihan pieni, muttei suurimmasta päästäkään.


Minulla on 5900X:lle 550 W gold (ei piikkiongelmainen), enkä laittaisi yli RTX 4070, mutta haenkin vähintään 10 vuoden käyttöikää, ja lisäksi haluan GPU:n vievän enintään noin 200 W hiljaisuuden takia. Varmasti 7800 XT toimisi, mutta se ei oikein täytä noita kahta kriteeriä.
 
Sehän olisikin kova juttu jos youtube osaisi suoltaa benchmark -videoita ulos variable refresh ratella. Vielä kovempi juttu, jos benchmark -videon 4 kortin vertailu (4 split screen) osaisi suoltaa jokaisen omalla variable refresh ratella ulos. Eli toisin sanoen, jokainen pikseli värähtelisi omalla taajuudellaan. Nyt täytyy vaan tyytyä noihin FPS -lukemiin joita benchmark -videot näyttää. Visuaalisesti vertaus kyseisistä videoista on toistaiseksi mahdotonta ylläolevista syistä. Eli yksinkertaisesti: videon tekijä - youtube - näyttöpääte. Tässä tapauksessa youtube on pullonkaula (60fps).
 
Nuo suositukset on kyllä aina varsin hatusta heitettyjä.
Juurikin näin, yllä olikin jo hyvää selvitystä aiheeseen mutta lähtökohtaisesti jos sulla kokoonpanon virrankulutus on max 395w, sille riittää 400w tuottava virtalähde ja piste. Muuttujat huomioiden, 600w riittää aivan varmasti.
Vähän sama kun nuo virtaliittimet, pci-e liittimen speksattu "virallinen" 75w on ihan naurettava muinaisjäänne jostain 20 vuoden takaa. Muistaakseni tuolle molex-liittimen pinnille luvataan 13A eli ~150w jatkuvaa kuormaa eli yksi 6p liitin kestää jo 450w yksinään.

Toki nämä mietityttää etenkin nyt kun tehot kasvaneet ja standardeja tullut uusia, mutta 99% tapauksista nämä eivät ole ongelma näytönohjainta päivittäessä.
 
jos kokoonpanon virrankulutus on max 395w, sille riittää 400w tuottava virtalähde
Jos virtalähteen absoluuttinen maksimiteho olisi tuon 400W, niin ehkä kyseinen yhdistelmä olisi jo hieman riskialtis noiden piikkien vuoksi, mutta teoriassa kyllä ihan toimiva, ei vain pyöritä enää siellä virtalähteen parhaan hyötysuhteen puitteissa (n. 40-60% kuorma).
Virtalähteet tosin ovat useimmiten ylimitoitettuja verrattuna kylkeen lyötyyn leimaan, hyvänä esimerkkinä aiemmassa kokoonpanossa ollut EVGA G3 750W, joka eTeknixin testissä antoi pihalle peräti 1151W (+53%).
Tässä kun kyseessä ilmeisesti oli 500W jokin laatuvirtis, niin voinee piikkitehona tarjota jotain 700-750W luokkaa ennen kuin OPP lopettaa leikit.
 
Itse mitoitan virtalähteen niin että se kestää 2,5 - 3 kertaisesti normaalikäytön. Jolloin sen tuuletin ei käynnisty normaalikäytössä ja maksimikulutus sattuu suunnilleen parhaalle hyötysuhteelle. Ja on varaa vaihtaa enemmän kuluttaviin komponentteihin sen kummemmin miettimättä. Nykyiset virtalähteet kun ovat energiatehokkaita myös idle-kulutuksen suhteen eli alle 100W tehonkulutuksella.
Eli käytin 750W virtalähdettä silloin kun sanottiin että kulutukset pienenee tulevaisuudessa ja 500W riittää kaikkeen. Nykyinen on 1000W ja seuraava on vähintään 1200W, ehkä isompi kun katsoo mihin kulutuksiin ollaan menossa.
 
Tuota, en tiedä kuuluuko kysymykseni tähän keskusteluun, mutta kuinka hyvin esim. gpucheck -ohjelman teoreettiset arviot näyttiksien ja prossujen suorituskyvystä pitää paikkaansa? Perustuuko tuo gpucheck myöskin jotenkin käyttäjien kokemuksiin vai miten sen arviot toimii?
 
Ei ole niin tullu seurattuu näyttiksien osalta mikä hyvä/hintalaatusuhde. Mutta miettinyt AMD radeonin 7600xt löytyyköhän nvidialta jotain samassa teholuokassa
 
Ei ole niin tullu seurattuu näyttiksien osalta mikä hyvä/hintalaatusuhde. Mutta miettinyt AMD radeonin 7600xt löytyyköhän nvidialta jotain samassa teholuokassa

Nopeasti katsottuna tuossa vaikuttaisi olevan aika huono hinta/tehosuhde. Itse katselisin mieluummin käytettyjä 6700xt. Enemmän tehoa edullisemmin.
 
Riittääkö 6600 hyvin 1080p pelaamiseen (esim. ajo-/lentosimut, Diablot, yms.) vai kannattaako yrittää metsästää joku 6650 XT / 6700 XT / 3060 / 3060Ti kortti? Näyttö on 144hz, mutta mitään räiskintäpelejä ei tule juurikaan pelattua, joten ei tarvitse ihan tapissa olla framet kuitenkaan välttämättä.

Joskus aikanaan sitten päivitystä isompaan resoluutioon, mutta sillä kun ei ole vielä mitään kiirettä niin ehkä myös päivitän tuolloin näyttiksenkin uuteen.

Prossuksi tulossa 7500f ja 32gb ramia, joten kortista luulisi tehojen jäävän toistaiseksi kiinni.
 
Riittääkö 6600 hyvin 1080p pelaamiseen (esim. ajo-/lentosimut, Diablot, yms.) vai kannattaako yrittää metsästää joku 6650 XT / 6700 XT / 3060 / 3060Ti kortti? Näyttö on 144hz, mutta mitään räiskintäpelejä ei tule juurikaan pelattua, joten ei tarvitse ihan tapissa olla framet kuitenkaan välttämättä.

Joskus aikanaan sitten päivitystä isompaan resoluutioon, mutta sillä kun ei ole vielä mitään kiirettä niin ehkä myös päivitän tuolloin näyttiksenkin uuteen.

Prossuksi tulossa 7500f ja 32gb ramia, joten kortista luulisi tehojen jäävän toistaiseksi kiinni.
Assetto Corsat ja F1:t pitäisi pyöriä täysilläkin asetuksilla noin 100 fps.

Diablo IV on vähän raskaampi, eli ultralla 60-100 fps (low graphics noin 200 fps). Ultralla 8 Gt VRAM saattaa kuitenkin tehdä sen, että 0,1 %-min alkaa heikentyä (jopa 10 fps tasolle), mutta 1 %-min on vielä kunnossa.

Flight Simulator 2020 on raskain. Keskimäärin voi pyöriä 40-60 fps, mutta raskaissa kaupungeissa voi mennä alle 30 fps, jos asetuksia ei kevennä.

Ostaisin sinuna mieluummin 6700 XT, niin ei tarvitse karsia asetuksia, saat paremmin suorituskykyä irti suorittimestasi ja nopeasta monitorista, eikä tule kiirettä päivittämiseen. Muistiakin on taatusti riittävät 12 Gt.
 
Ostaisin sinuna mieluummin 6700 XT, niin ei tarvitse karsia asetuksia, saat paremmin suorituskykyä irti suorittimestasi ja nopeasta monitorista, eikä tule kiirettä päivittämiseen. Muistiakin on taatusti riittävät 12 Gt.

6700XT on parempi ja riittää 1440p näytöllekin (ray tracingista kun ei radeonien kanssa puhuta), mutta onko se hintansa väärti 6600:n verrattuna. 30% enemmän tehoa ja 60% enemmän hintaa. 6600:ssa saa siten vähän parempaa vastinetta rahalle.
 
6700XT on parempi ja riittää 1440p näytöllekin (ray tracingista kun ei radeonien kanssa puhuta), mutta onko se hintansa väärti 6600:n verrattuna. 30% enemmän tehoa ja 60% enemmän hintaa. 6600:ssa saa siten vähän parempaa vastinetta rahalle.
Tässä ehdinkin tehdä jo kaupat käytetystä 2070 Superista, mikä vaikuttaa varsin kelvolta välimallin ratkaisulta tuohon :)

Tavallaan olisin halunnut AMD:n leiriin jäädä ja samalla myös uudempi teknologia kiinnostaa, mutta toistaiseksi tuon luulisi riittävän omiin tarpeisiin aivan tarpeeksi hyvin.
 
6700XT on parempi ja riittää 1440p näytöllekin (ray tracingista kun ei radeonien kanssa puhuta)

Tänä päivänä rupeaa olemaan hieman kyseenalaista onko tuo enää riittävä 1440p-resolle, tuohan vastaa ~3060Ti korttia. TPU:n revikoita kun katsoo niin tuo jää 1440p-resolla todella monessa pelissä selvästi alle 60fps:n(ilman RT:ä), toki asetuksia tiputtamalla saa freimejä lisää mutta silti.
 
@hanse millä prossulla touhuat? Nuo näytönohjainten valmistajien suosituswatit on jotain ihan hattuvakioita ja iso osa porukasta jostain syystä lähtee tähän wattihypeen. Väittäisin, että sun virtalähteellä ei tule ongelmia kummankaan näyttiksen kanssa.

Siellä tietokoneessa on ohimeneviä virtapiikkejä ja niiden kesto lasketaan mikrosekunneissa.

Tuo tarvitsee huomioida mm. emolevyjen virransyötössä. GPU:n virransyötössä ja powerissa ja mitoitus tehdään nimenomaan sen maksimin mukaan mikä on niissä virtapiikeissä. Ylikellotus, samapa tuo onko tehtaalla tehty tai itse, lisää vaatimusta. Suositukset ovat siis normaalisti siihen kun käytetään ilman ylikellotuksia.

Tyypillinen kulutus tietokoneessa sitten tosiaankin on helposti vain murto-osa mutta jos haluaa tehokkaan GPU:n, tarvitsee huomioida ne virtapiikit.

Eli lyhyesti, suositukset ovat ihan päteviä. Laittamalla alle tietokone saattaa sammua satunnaisesti.
 
6700XT on parempi ja riittää 1440p näytöllekin (ray tracingista kun ei radeonien kanssa puhuta), mutta onko se hintansa väärti 6600:n verrattuna. 30% enemmän tehoa ja 60% enemmän hintaa. 6600:ssa saa siten vähän parempaa vastinetta rahalle.
Niin, 6700 XT riittää monessa pelissä 1440p. Kysyjän pelivalikoimaan kuitenkin kuului lentosimut. Esim. FS 2020:ssä 6700 XT ei riitä pitämään edes 1080p:llä 60 fps (käyttöaste 94 % ja fps 54), jos on ultra ja kurkkaa edes pientä kaupunkia. Suuremman kaupungin tapauksessa pikkuveli RX 6600 kyykkää alle 30 fps.

Olen samaa mieltä, että 6600 tarjoaa enemmän suorituskykyä eurolla kuin 6700 XT. Kysyjän lentosimut ja nopeahko prossu kuitenkin tarkoittavat sitä, että 6600 rajoittaisi menoa niin paljon, että asetuksia joutuisi karsimaan. Hänen pelaamansa Diablo näykkii 0,1 %-minimeissä 10 fps:ään 6600:lla @1080p ultra, jos on Diablo IV. Hän suunnitteli päivittävänsä seuraavan kerran näytönohjaimen vasta uuden monitorin myötä joskus aikanaan, ei vielä mitään kiirettä. Ja silloinkin vain ehkä. Sinä aikana ehditään julkaisemaan uusia pelejä. Jos tulee uusi FS2020:ä raskaampi lentosimu, saattaa siinä joutua karsimaan asetuksia niin paljon, että GPU-päivityspaine iskee ennenaikaisesti.

Jos 180 cm henkilö tarvitsee mukavasti harjatakseen vähintään 160 cm lakaisuharjan, ei kannata ostaa 120 cm harjaa, vaikka sen metrihinta olisikin pienempi.

Itse ostin viime syksynä uutena RX 6600 alle 200 eurolla ja Starfield kylkeen. En pelaa lentosimuja, ja suostun tarvittaessa laskemaan asetuksia. Olisin suostunut maksamaan 500 €, jos sillä olisi saanut 16 Gt VRAM ja RTX 4080-4090 suorituskyvyn alle 200 watilla. Sellainen olisi riittänyt minun kuviteltaviin tarpeisiini vuoteen 2030 asti. Kaupassa ei kuitenkaan vielä myyty sellaista korttia, joten nappasin halparatkaisun 2-4 vuodeksi. Ehkä sitten RTX 6060/6060 Ti tai vastaava Radeon.
 

Liitteet

  • Screenshot_2024-04-04-13-26-49-27_f9ee0578fe1cc94de7482bd41accb329.jpg
    Screenshot_2024-04-04-13-26-49-27_f9ee0578fe1cc94de7482bd41accb329.jpg
    180,2 KB · Luettu: 70
Tässä ehdinkin tehdä jo kaupat käytetystä 2070 Superista, mikä vaikuttaa varsin kelvolta välimallin ratkaisulta tuohon :)

Tavallaan olisin halunnut AMD:n leiriin jäädä ja samalla myös uudempi teknologia kiinnostaa, mutta toistaiseksi tuon luulisi riittävän omiin tarpeisiin aivan tarpeeksi hyvin.
Frame gen -modilla tuosta 2070 Superista saa vielä hyvin "lisätehoa" irti, jos peliin moinen modi onnistuu



 
Hei, mulla on kone jo aika vanhaa rautaa, i5-8600K, Strix z370-f, 16GB Trident Z RGB 3200MHz ja näytönohjaimena 1070 ti 8gb. Nyt on koneen päivittäminen taas ruvennut pyörimään mielessä.

Aion päivittää jossain kohtaa prossun, emon ja muistit (luultavasti i5-13600K tai vastaava), mutta onko mitään järkeä hommata nyt jo vanhaan setuppiin uusi näyttis, joka toimisi sitten myös uuden setupin kanssa hyvin. Katsellut käytettyinä 2080S ja vastaavia, toisaalta uusi 4070 voisi tulla myös kuuloon, mutten tiedä pelaako se vanhojen osien kanssa lainkaan. Kiitokset avusta!
 
Hei, mulla on kone jo aika vanhaa rautaa, i5-8600K, Strix z370-f, 16GB Trident Z RGB 3200MHz ja näytönohjaimena 1070 ti 8gb. Nyt on koneen päivittäminen taas ruvennut pyörimään mielessä.

Aion päivittää jossain kohtaa prossun, emon ja muistit (luultavasti i5-13600K tai vastaava), mutta onko mitään järkeä hommata nyt jo vanhaan setuppiin uusi näyttis, joka toimisi sitten myös uuden setupin kanssa hyvin. Katsellut käytettyinä 2080S ja vastaavia, toisaalta uusi 4070 voisi tulla myös kuuloon, mutten tiedä pelaako se vanhojen osien kanssa lainkaan. Kiitokset avusta!

Totta kai uusi näyttis toimii myös vanhojen osien kanssa, prossu vaan voi jäädä pullonkaulaksi. Näin todennäköisesti tapahtuukin RTX 4070:n tapauksessa. Mutta toisaalta jos ei ole kova kiire, niin ehkä kannattaa päivitellä loppuvuonna kun uudet näyttissukupolvet tulevat?

Prossun suhteen taas kannattaa todennäköisesti mennä AMD:n AM5-alustalla, kun se tarjoaa paremmin päivitettävyyttä kuin Intelin LGA1700.
 
Hei, mulla on kone jo aika vanhaa rautaa, i5-8600K, Strix z370-f, 16GB Trident Z RGB 3200MHz ja näytönohjaimena 1070 ti 8gb. Nyt on koneen päivittäminen taas ruvennut pyörimään mielessä.

Aion päivittää jossain kohtaa prossun, emon ja muistit (luultavasti i5-13600K tai vastaava), mutta onko mitään järkeä hommata nyt jo vanhaan setuppiin uusi näyttis, joka toimisi sitten myös uuden setupin kanssa hyvin. Katsellut käytettyinä 2080S ja vastaavia, toisaalta uusi 4070 voisi tulla myös kuuloon, mutten tiedä pelaako se vanhojen osien kanssa lainkaan. Kiitokset avusta!
Käsittääkseni uuden sukupolven näytönohjaimet Nvidialta saapuvat vasta vajaan vuoden päästä, näin oli ainakin yhdessä roadmapissa sanottu. Uusi 4070 kuulostaa hyvältä päivitykseltä nykyiseen ja näköjään Founder's Edition mallejakin löytyy kirjoitushetkellä Nvidian kaupasta (Proshop). Esimerkiksi 4070 perusmalli 629€.


Toinen vaihtoehto ostaa Asuksen custom-malli.


Jos olisit ostamassa uutta prosessoria NYT, olisi ehdottoman suositeltavaa pelikoneeseen hankkia AMD:n 7800X3D. AM5-kantaa tulee saamaan myös tulevia julkaisuja, kun taas tuo LGA1700-kantainen i5-13600K ei niitä enää saa, se kanta on loppuun ajettu. Jos prosessoripäivitys siirtyy myöhempään ajankohtaan, kannattaa seurata io-techin uutisointia ja testituloksia sen ajankohdan Intel Core Ultra 200- ja AMD Ryzen 8000 -sarjan prosessoreista. Enää en lähtisi ostamaan i5-13600K-prosessoria, ellei koneella tehdä myös muutakin kuin pelaamista ja budjetti ei veny kalliimpiin Intelin prossuihin.
 
Hei, mulla on kone jo aika vanhaa rautaa, i5-8600K, Strix z370-f, 16GB Trident Z RGB 3200MHz ja näytönohjaimena 1070 ti 8gb. Nyt on koneen päivittäminen taas ruvennut pyörimään mielessä.

Aion päivittää jossain kohtaa prossun, emon ja muistit (luultavasti i5-13600K tai vastaava), mutta onko mitään järkeä hommata nyt jo vanhaan setuppiin uusi näyttis, joka toimisi sitten myös uuden setupin kanssa hyvin. Katsellut käytettyinä 2080S ja vastaavia, toisaalta uusi 4070 voisi tulla myös kuuloon, mutten tiedä pelaako se vanhojen osien kanssa lainkaan. Kiitokset avusta!
Järkevyyttä voit miettiä testaamalla paljonko prossussa on reserviä omilla peleilläsi ja asetuksilla. Pidä muuten samat asetukset, mutta aseta resoluutioksi 480p (720p:kin toimii, jos nyt pelaat yli 1080p:llä).

Jos pelien fps parani 480p:llä yli 100 %, voit huoletta hankkia RTX 4070:n ja saada siitä kaiken irti.

Jos pelien fps parani 480p:llä 50 %, voit huoletta hankkia RTX 2080S:n ja saada siitä kaiken irti.

Jos pelien fps ei parantunut 480p:llä ollenkaan, voit unohtaa näyttispäivityksen, kunnes olet päivittänyt suorittimen uuteen.


Jos päädyt hankkimaan uuden pelkän GPU:n, osta sellainen, jossa PCIe on x16. Nimittäin esim. RTX 4060 Ti:n PCIe4 x8 liitäntä toimisi nykyisellä emolevylläsi PCIe3 x8 -tilassa, mikä vastaa nopeudeltaan PCIe4 x4:ää. Radeoneista sopivia ovat 6700 XT, 6750 XT, 7700 XT, 6800 ja 7800 XT, jos nopeus parani 480p:llä 60-140 %.


Edit. Liitteessä nopeuksia, eli 2080S on 151 % vs. 1070 Ti. Siitä ovat peräisin suositukseni, eli jos fps paranee 480p:llä 50 % -> 2080S jne.
 

Liitteet

  • Screenshot_2024-04-04-16-36-57-94_40deb401b9ffe8e1df2f1cc5ba480b12.jpg
    Screenshot_2024-04-04-16-36-57-94_40deb401b9ffe8e1df2f1cc5ba480b12.jpg
    142,9 KB · Luettu: 26
Viimeksi muokattu:

Statistiikka

Viestiketjuista
256 208
Viestejä
4 452 911
Jäsenet
73 674
Uusin jäsen
Eemeli77

Hinta.fi

Back
Ylös Bottom