NVIDIA-spekulaatioketju (Lovelace ja tulevat sukupolvet)

Huhut normaalin suolan ja epäilyksen kera. Oletettavasti kirsikkapoimituilla asetuksilla täyden ad102 piirin suorituskyvystä.

Täyttä piiriä tuskin nähdään julkaisussa. 4090 lienee julkaistaan leikatulla piirillä. Täysi piiri tulee sit ti tai super malliin riippuen ja roikkuen amd:n rdna3:en suorituskyvystä. Ei nvidia ainakaan ilman tappelua suorituskykykruunia anna amd:lle. Jos amd floppaa(ei todennäköistä) niin täys ad102 piiri voi jäädä myöhempien aikojen päivitettyyn korttiin.



Tyypin lisäkommentti beyond3d:n forumilta

Got first in game score. Full AD102 at "high power draw" (I guess OC) in Control Ultra 4K RT+DLSS does 160+fps. Around 2.2 times what a RTX 3090Ti AIB OC model like Strix does. Not bad...
 
Viimeksi muokattu:




Aikamoista jos totta! :think:

Riippuu ihan virrankulutuksesta. Jos se on yli 350w, niin oikea sana on FAIL
 
Eiköhän 4090 ole "alkaen 450W" näiden tämän hetken juttujen perusteella. Eikä tuo silloin ole yhtään huono suorituskyky vs virrankulutus jos vertaa edelliseen sukupolveen. Tietysti korkea kulutus vs. kasuaali-SER -tason rauta, mutta muutoin selvä parannus.
 
Ei se suorituskyky tyhjästä tule... 3090ti taitaa olla jo 450W, 4090 pitäisi olla 66% nopeampi 100W pienemmällä kulutuksella?

Riippuu miten ylös sen piirin joutuu kellottamaan. Juttuja jotka parantanevat ada energiatehokuutta versus ampere
- parempi valmistusprosessi, samsung 8 vs. tsmc 5 tai 4
- Iso piirinsisäinen cache == laskenta pysyy enemmän piirin sisällä
- Suunniteltu toimimaan isommilla kelloilla eikä pelkästään ylikellotettu isoille kelloille == sisäisiä muutoksia kuten yllämainitun cachen käyttö

Toki energiatehokkuus menee kaivoon, jos piiri kellotetaan ns. tappiin. Huhujen mukaan se tappi on jossain 3Ghz pinnassa. Miten tappiin adat ylikellotetaan tehtaalta riippunee ihan siitä kuinka kilpailukykyinen nvidia olettaa amd:n olevan. OEM lähteiden vuotoihin perustuva/huhuttu 600W malli lienee äärimmäinen esimerkki siitä mihin nvidia voi mennä, jos kilpailutilanne sitä vaatii. Jäähyt, virransyötöt yms. mietitty valmiiksi tuollaiselle mallille.
 
Viimeksi muokattu:
Ei se suorituskyky tyhjästä tule... 3090ti taitaa olla jo 450W, 4090 pitäisi olla 66% nopeampi 100W pienemmällä kulutuksella?
Ok, muistelin, että olisi ollut vain 350W. Joka tapauksessa jos kulutus nousee, se merkitsee, että teho haetaan sähkölaitokselta eikä teknisistä parannuksista ja kehityksestä. Ja se ei ole hyvä se.
 
Joka tapauksessa jos kulutus nousee, se merkitsee, että teho haetaan sähkölaitokselta eikä teknisistä parannuksista ja kehityksestä. Ja se ei ole hyvä se.
Juurikin näin. Valmistaja on epäonnistunut jo kättelyssä, mikäli tehontarpeen kasvattamista ei osata pitää kurissa. E: Oikeastaan siinä Nvidia epäonnistui jo nykyisen sukupolven kohdalla, AMD:n ohi mentiin pääosin tuon avulla.
 
66% nopeampi samalla kulutuksella on aika kova hyppy historiallisesti katsoen. En valita. En myöskään valita jos sieltä tulee vielä 600W jytky perään :D
 
66% nopeampi samalla kulutuksella on aika kova hyppy historiallisesti katsoen. En valita. En myöskään valita jos sieltä tulee vielä 600W jytky perään :D

66% benchmarkissa ei tarkoita, että on sitten peleissä tuon verran nopeampi... Ns. cherry pickkaamalla voi etsiä pelin, jossa vaikka 6900XT on alemmalla virrankulutuksella jopa tuota nopeampi verrattuna esim. 3080:aan. Minä tosin myös ainakin valitan, jos virtalähteitä pitää näytönohjaimen vaihdon yhteydessä säännöllisesti pistää jälleen vaihtoon.
 
Historiallisesti TSE-luvut ovat aika hyvin osuneet keskiverto GPU-limited pelin lukemiin. Ja en yllättyisi jos RT-peleissä tulisi vieläkin kovempia lukemia vs. edellinen generaatio.
 
Oikeasti niin kova silly season menossa, että ehkä paras olis vaan odotella kuukausi ja tsekata sitten missä mennään. Kai se 4090 == 2x3090 on lähellä totuutta

xpea sanoi: NVidia Ada Speculation, Rumours and Discussion
hmmm odd... I got much higher score for TSE. I can't share the exact score because it will automatically give out my source but let's say more than 20% higher..

Edit: Oh I just saw the new Kopite7kimi tweet and it's more like it. So he was sandbagging :p
ja kopite7kimi pakitteli



Kai se virrankulutus riippuu siitä miten tappiin piirit kellotetaan. Voi muistella vaikka vegaa ja alikellottelutalkoita
 
Viimeksi muokattu:
Luuletko siis, että kilpailijat kykenevät parempaan?

Miksi (minkä teknisen syyn takia) virrankulutus pitäisi olla alle 350W ?
Missä kohdassa olen sanonut mitään kilpailijoista? Ja miksi sen virrankulutuksen pitäisi mennä yli 350W? Muistan vielä sen ajan kun 300W oli kiuas. Nyt ei sitten vissiin ole enää millään väliä kun vaan saadaan se viimeinenkin karkkimarkki ulos
 
Missä kohdassa olen sanonut mitään kilpailijoista? Ja miksi sen virrankulutuksen pitäisi mennä yli 350W? Muistan vielä sen ajan kun 300W oli kiuas. Nyt ei sitten vissiin ole enää millään väliä kun vaan saadaan se viimeinenkin karkkimarkki ulos
No miksi kulutuksen pitäisi olla ennallaan, jos vehje toimii kuitenkin ilman valtavaa melua. Minulle ainakin sopisi mainiosti, että virrankulutus tuplaantuu, jos samalla tehot nelinkertaistuu.
 
Luuletko siis, että kilpailijat kykenevät parempaan?

Miksi (minkä teknisen syyn takia) virrankulutus pitäisi olla alle 350W ?
Tarvitseeko syyn olla tekninen? Kyllähän tuo alkaa olemaan jo ihan merkittävää jos sähkö maksaa mitä se nyt tällä hetkellä ja lähitulevaisuudessa tuntuu euroopassa maksavan. Puhumattakaan tietty muista arvoista jotka voi vaikuttaa ostopäätökseen.

Tehon nousu kulutusta nostamalla on väistämättä kuoleva asia, vaikka se ei tänään vielä ihan kaikille ole selvää.
 
Tarvitseeko syyn olla tekninen? Kyllähän tuo alkaa olemaan jo ihan merkittävää jos sähkö maksaa mitä se nyt tällä hetkellä ja lähitulevaisuudessa tuntuu euroopassa maksavan. Puhumattakaan tietty muista arvoista jotka voi vaikuttaa ostopäätökseen.

Tehon nousu kulutusta nostamalla on väistämättä kuoleva asia, vaikka se ei tänään vielä ihan kaikille ole selvää.

Ja vaikkei esim. ympäristöasiat tai sähkölasku kuumottelisi, kesähelteillä pelaaminen voi jo sekin alkaa kuumotella tuollaisten tehokiukaiden kanssa. Ainakin jos ei ole ilmalämpöpumppua... :D
 
No miksi kulutuksen pitäisi olla ennallaan, jos vehje toimii kuitenkin ilman valtavaa melua. Minulle ainakin sopisi mainiosti, että virrankulutus tuplaantuu, jos samalla tehot nelinkertaistuu.

No missä se raja sitten menee? Jos näyttis alkaa viemään kilowatin niin onhan se nyt aivan älytöntä touhua. Kesällä varsinkin kämppä on äkkiää kuin sauna. Ja talvellakin mikäli keskuslämmitys talossa asuu niin onhan se täysin älytöntä kämppää lämmittää sähköllä kun samaan aikaan lämmityksestä juoksee kuitenkin kiinteät kulut.

Puhumattakaan siitä että tehonkulutuksen noustessa se jäähdytyksen tarve itse kortissa kasvaa ja vaikeutuu jolloin jäähdytyksen rakentamista tulee selvästi lisää kuluja joka väistämättä ajaa vain entistä korkeampiin hintoihin.
 
Ei kukaan enää autoakaan osta, jonka bensankulutus on suurempi kuin edellisen auton.
 
No miksi kulutuksen pitäisi olla ennallaan, jos vehje toimii kuitenkin ilman valtavaa melua. Minulle ainakin sopisi mainiosti, että virrankulutus tuplaantuu, jos samalla tehot nelinkertaistuu.

Koska energia maksaa, ja koska kesällä aiheuttaa myös asunnon ei-haluttua kuumenemista.

Mutta tosiaan, energiatehokkuus on se, millä on enemmän väliä kuin maksimitehonkulutus. Eli jos suurempi (hetkellinen) virrankulutus mahdollistaa sen, että kortti voi idlata suuremman osan framesta seuraavaa vsynciä odotellessa, ei mitään ongelmaa. Paitsi niillä "suurempi fps-luku on aina parempi"-hörhöillä jotka kytkee vsyncin pois päältä että saa 500 fps.
 
En yhtään ihmettelisi jos esim Euroopan Unioni laittaisi rajoitukset kuluttajakäyttöön kuuluville pelinäytönohjaimien sähkönkulutukselle.

Itselleni tosin riittää kohtuullinen Rtx 4070 huhutulla 300w kulutuksella niin toimii nykyisen virtalähteen kanssa mutta mahdollisesti seuraavaa konetta kootessa tarvii kyllä varmaan vähintään 850w virtalähde olla.
 
Koska energia maksaa, ja koska kesällä aiheuttaa myös asunnon ei-haluttua kuumenemista.

Mutta tosiaan, energiatehokkuus on se, millä on enemmän väliä kuin maksimitehonkulutus. Eli jos suurempi (hetkellinen) virrankulutus mahdollistaa sen, että kortti voi idlata suuremman osan framesta seuraavaa vsynciä odotellessa, ei mitään ongelmaa. Paitsi niillä "suurempi fps-luku on aina parempi"-hörhöillä jotka kytkee vsyncin pois päältä että saa 500 fps.
Tämä pätee toki vain silloin kun pelattava peli ja valittu resoluutia mahdollistavat näyttikselle idlesyklejä. Aika vähässä on ne pelit jos näyttö on modernia aikakautta.
 
Tehonkulutuksen laskeminen on triviaalin helppoa Afterburnerilla. Ei Ada mikään kiuas ole, vaikka huippumallit olisikin viritetty vakiona 450W:iin.
 
Tarvitseeko syyn olla tekninen? Kyllähän tuo alkaa olemaan jo ihan merkittävää jos sähkö maksaa mitä se nyt tällä hetkellä ja lähitulevaisuudessa tuntuu euroopassa maksavan. Puhumattakaan tietty muista arvoista jotka voi vaikuttaa ostopäätökseen.

Tehon nousu kulutusta nostamalla on väistämättä kuoleva asia, vaikka se ei tänään vielä ihan kaikille ole selvää.

Tekninen kehitys ja mahdollisuudet energiankulutuksen vähentämiseen pienenevät kokoajan. Lisäksi suuri osa menee suorituskyky edeltä, Energiankulutus on sivuseikka, joten hyvin myy, jos vain hinta ei ole liian korkea, riippumatta kulutuksesta. 450W ei ole suurelle osalle vielä paljonkaan.. Huippupään kortit ja resoluutiot eivät ole pelaajalle, joka haluaa säästää energiaa..

Tehoa nostetaan kulutusta nostamalla, kunnes sitä korttia ei saada enää jäähtymään, kuin jollain liian kalliilla ratkaisulla..
 
Eipä tuo nyt suuresti yllätä, että tehonkulutuskompromissin joutuu tekemään, jos haluaa tuon suorituskyvyn :tup: 4k60fps pelaaminen on tuolla suorituskyvyllä ihan peruskamaa. Nvidia yrittänee nostaa hypeä 8k-pelaamista rummuttamalla, kuten yrittivät jo RTX3090:n kanssa.
 
Nvidialle ja AMD:lle on aina edullisempaa tehdä suppeamman koon piiri isommilla kelloilla vaikka paras hyötysuhde olisi laajemmasta piiristä, jossa enemmän laskentayksiköitä ja jota ajetaan kohtuullisilla kelloilla. Eli Nvidia tekee pienempiä kuin mitä voisi ja maksattaa pienten piirien huonon tehohyötysuhteen asiakkaan sähkölaskussa. Näin se on tavallaan ollut toki aina mutta tässä sukupolvessa se saattaa olla taas räikeämmin edessä. Onneksi asiakas voi alikellottaa ja ottaa käyttöön sitä parempaa hyötysuhdetta.

Nähtäväksi jää onko kummallakaan valmistajalla (jep inteliä ei vielä lasketa) käytössä Samsungin uudet 24 Gbps:n nopeuden DDR6 muistit. Nvidian päivityskortti niillä muistella olisi tod.näk. nopeampi ja pienemmällä kulutuksella... eli aika unelma settiä. Ehkä tulee kunnollinen 4080ti sitten niillä muisteilla tai jotain.
 
Ja vaikkei esim. ympäristöasiat tai sähkölasku kuumottelisi, kesähelteillä pelaaminen voi jo sekin alkaa kuumotella tuollaisten tehokiukaiden kanssa. Ainakin jos ei ole ilmalämpöpumppua... :D
Kyllä se voi ilmalämpöpumpunkin kanssa kuumotella, jos ilppi ei ole pelihuoneessa. Nimim. pumppu eri huoneessa, mutta suhteellisen lähellä, ja kyllä ne lämpötilat silti tuppaa nousemaan pelisession aikana vaikka on reippaasti alivoltitettu 3080. Alkaa kaikkien näiden kiukaiden yhteenlasketut watitkin jo energiaa jonkin verran viemään ympäristönäkökulmastakin käsin ajateltuna.

Mutta tosiaan, energiatehokkuus on se, millä on enemmän väliä kuin maksimitehonkulutus. Eli jos suurempi (hetkellinen) virrankulutus mahdollistaa sen, että kortti voi idlata suuremman osan framesta seuraavaa vsynciä odotellessa, ei mitään ongelmaa. Paitsi niillä "suurempi fps-luku on aina parempi"-hörhöillä jotka kytkee vsyncin pois päältä että saa 500 fps.
Saa olla melkoinen puusilmäboomeri vanhainkodista, jos ei 60 fps:llä huomaa v-syncin vaikutusta input lagiin, tai 60 fps:n eroa 500 fps:ään. Toki fps:n rajoittaminen jollakin järkevällä metodilla (ei v-syncillä) on tilanteesta riippuen hyvä tapa tiputtaa kulutusta.
 
Jos se huhuttu 4090 on 2x3090 tehot 450W:lla niin perffi per watti suhdehan on paljon parempi kuin 3090:lla(100W lisää lämpöä, tuplateho). Huhuttu 600W malli on kai täysi piiri, jossa on kellot puskettu tappiin eli jotain muuta kuin 4090. Se missä virtatehokkuus huhujen mukaan kärsii pahasti on 4080:en ad103 piirillä, jonka kellot on kai puskettu myös tappiin, koska kilpailu amd:n kanssa(vrt. vega).

imho. ei huhujen pohjalta mikään inherentisti 40x0 sarjassa vaikuta epätehokkaalta. Tehtaalla överiksi ylikellotetut mallit saanee kotosalla alikelloteltua ilman, että perffi kovin merkittävästi huononee. Kova kilpailu vain ajaa järjettömiin tehdasylikellotuksiin. Johtuuko tuo sitten siitä, että kuluttajat ostaa sen tuotteen minkä palkki arvosteluissa on pisin? Jos noin on niin sittenhän kuluttajat saavat juuri sitä mitä haluavat.
 
Jos se huhuttu 4090 on 2x3090 tehot 450W:lla niin perffi per watti suhdehan on paljon parempi kuin 3090:lla(100W lisää lämpöä, tuplateho)
Jos jokin on liian hyvää ollakseen totta, se on. Tuo 2x3090 [missään Watti- tai hintaluokassa] huhu kuulostaa kyllä niin tuulesta temmatulta ettei sitä kehtaa edes ääneen sanoa :D
 
Jos jokin on liian hyvää ollakseen totta, se on. Tuo 2x3090 [missään Watti- tai hintaluokassa] huhu kuulostaa kyllä niin tuulesta temmatulta ettei sitä kehtaa edes ääneen sanoa :D

Aika hyvin uskottavimpina pidettävät lähteet ovat pidemmän aikaa tohon 2x3090 tehoihin viitanneet. Ei se nyt mahdottomuus ole, kun samsung 8nm - tsmc 5/4 harppaus mahdollistaa paljon. Iso cache voi auttaa muistikaistan puolesta sen verran ettei muistikaistaan estä tuota 2x3090 suorituskykyä. Tuohon päälle huhuttu isokellotaajuuden nousu + lämmöntuotto.

Arvatenkin tähän on johtanut se, että nvidia olettaa amd:n chipletin olevan todella kova suorituskyvyltään. Jos nvidia ei aio helpolla luovuttaa suorituskykykruunua niin tuo 2x3090 ja siihen päälle vielä joku 4090ti malli lienee pakko tehdä.

Se missä voi alkaa nikottelemaan on hinta,... ei kannata odottaa halpaa ainakaan highendiin.

Tässä toi uusin navi31 huhu. 2x350mm2 piirit chiplettiratkaisuna tulossa amd:lta: AMD Navi 31 GCD (Graphics Complex Die) is reportedly 350 mm²+ in size - VideoCardz.com

edit. Riippuen ja roikkuen mihin kellot ja kilpailutilanne asettuu niin mä uskoisihin 4090:en lisäävän80-120% rasterointisuorituskykyä 3090:een verrattuna. säteenseurantasuorituskyky oletettavasti lisääntyy hieman enemmän. Aika varmaa on myös se, että kaikki pelit ja benchmarkit eivät käyttäydy samalla tavalla.
 
Viimeksi muokattu:
Kuinka paljon porukka pettyy, jos sieltä tuleekin perus, eli 28% nopeampi kuin 3090Ti ja 20% suuremmalla virrankulutuksella? :poop:
 
Kuinka paljon porukka pettyy, jos sieltä tuleekin perus, eli 28% nopeampi kuin 3090Ti ja 20% suuremmalla virrankulutuksella? :poop:
Ei kait kukaan ota noita keulimisia mitenkään kiveenhakattuna totuutena..
Totuuden tietää vasta sitten, kunhjan kolmannet osapuolet ajavat kattavat testit.. (peleiellä, eikä millään hömppätestiohjelmilla..)
 
Itseä kiinnostaa lähinnä tämän uuden sukupolven tuoma (mahdollinen) hinnan alennus 30 sarjaan. Toivotaan, en kuitenkaan usko että rupeaisivat tekemään low-mid kortit 30 sarjana ja sitten high tierit 40 sarjana, ei ainakaan muistu mieleen muutakun GF 2 mx400 ja sitähän jatkettiin vissiin GF 4 sarjaan asti.
 
Itseä kiinnostaa lähinnä tämän uuden sukupolven tuoma (mahdollinen) hinnan alennus 30 sarjaan. Toivotaan, en kuitenkaan usko että rupeaisivat tekemään low-mid kortit 30 sarjana ja sitten high tierit 40 sarjana, ei ainakaan muistu mieleen muutakun GF 2 mx400 ja sitähän jatkettiin vissiin GF 4 sarjaan asti.

turingissa alin "rtx on" kortti oli 2060, 30x0 sarjassa "rtx on" saapui 3050:aan. Mahtaa ainakin 3050 korvautua 4050:lla jossain kohtaa. Voi tietty olla, että 3050:a paketoidaan uusiksi eri nimellä johonkin alempaan hintaluokkaan/oem koneisiin. Taitaa 30x0 sarjan alennuset rajoittua siihen kohtaan, kun korvaava 40x0 tuote tulee myyntiin ja myydään varastot tyhjäksi/käytettyjä tulee markkinoille.
 
Viimeksi muokattu:
Kuinka paljon porukka pettyy, jos sieltä tuleekin perus, eli 28% nopeampi kuin 3090Ti ja 20% suuremmalla virrankulutuksella? :poop:

En pety, mutta yllätyn suuresti. Siinä kohtaa myös amd:n chiplet huhut menee joko vessanpöntöstä alas tai amd dominoi nvidiaa todella rumasti. Ja hox, vertaan 3090 vs. 4090 ja myöhemmin 3090ti vs. 4090ti. 4090 vs. 3090ti overclock ei ole se vertailu mihin sitä 100% tehonlisäystä odotellaan. 4090ti on se mystinen 600W tai 800W hirviö, josta on vähemmän huhuttua tietoa olemassa. Tuo ei ole yllättävää, koska 4090ti on kortti minkä nvidia pelaa jos/kun amd on tuomassa kovempaa tuotetta myyntiin kuin mitä 4090 on. Se mihin 4090ti leikataan(tai ei leikata) ja kuinka tappiin kellotetaan(600W, 800W?) riippuu amd:sta. 4090 taitaa tulla leikatulla piirillä ja ei ole maksimiin kellotettu(450W).
 
Viimeksi muokattu:
Alle +50% (3090 -> 4090) on pettymys. Ja odotus on että se olisi +75-100% riippuen workloadista, kunhan resoa on tarpeeksi. Ja odotus että RT päällä korkeilla resoilla tulee se paras lisäteho.

Tuo tähän mennessä nähty vuoto joka viittasi +82% (ja +66% vs 3090ti) Time Spy Extremessä kuullostaa ihan realistiselta luvulta joka voi olla oikealla pallokentällä. Peleissä lukemat voivat olla pienemmät silloin kun prossu alkaa ottamaan kiinni ja pitää olla varovaisia pelilukujen kanssa ettei heti ala itkeä ja natista jos peli X joka GPU-skaalasi suoraan 3090ti asti ei olekkaan kuin vaikka +30-40% koska 4090 on niin nopea että CPU alkaa ottaa vastaan. On paljon pelejä joissa 3090/3090ti tason korteilla ollaan hyvin lähellä CPU limited -tilaa vaikka muutoin pelin on katsottu olevan täysin GPU-limited.
 
Aika hyvin uskottavimpina pidettävät lähteet ovat pidemmän aikaa tohon 2x3090 tehoihin viitanneet. Ei se nyt mahdottomuus ole, kun samsung 8nm - tsmc 5/4 harppaus mahdollistaa paljon. Iso cache voi auttaa muistikaistan puolesta sen verran ettei muistikaistaan estä tuota 2x3090 suorituskykyä. Tuohon päälle huhuttu isokellotaajuuden nousu + lämmöntuotto.

Arvatenkin tähän on johtanut se, että nvidia olettaa amd:n chipletin olevan todella kova suorituskyvyltään. Jos nvidia ei aio helpolla luovuttaa suorituskykykruunua niin tuo 2x3090 ja siihen päälle vielä joku 4090ti malli lienee pakko tehdä.

Se missä voi alkaa nikottelemaan on hinta,... ei kannata odottaa halpaa ainakaan highendiin.

Tässä toi uusin navi31 huhu. 2x350mm2 piirit chiplettiratkaisuna tulossa amd:lta: AMD Navi 31 GCD (Graphics Complex Die) is reportedly 350 mm²+ in size - VideoCardz.com

edit. Riippuen ja roikkuen mihin kellot ja kilpailutilanne asettuu niin mä uskoisihin 4090:en lisäävän80-120% rasterointisuorituskykyä 3090:een verrattuna. säteenseurantasuorituskyky oletettavasti lisääntyy hieman enemmän. Aika varmaa on myös se, että kaikki pelit ja benchmarkit eivät käyttäydy samalla tavalla.
Sanoisin että hintalappu on alkaen 2199$-> EU:ssa lähtöhinta 2399€. AIB:t pian tuon yli. 4080:n eri siru on hinta-perf -optimointia.

Kaikki viittaisi siihen, että next genistä tulee "titaanien taistelu", eli rahalla saa suhteessa paremman tehon paremmassa päässä (vrt nykygenin 3080vs3090 ja 6800xt vs 6900xt). Lippulaivojen ostaminen ei ollut järkevää suhteessa hintaan ja teholisään.
 
Näistä ensimmäisisä benchmark-huhuista:

Jos on benchmarkattu tilanteessa, jossa CPU on selvästi osittain rajoittamassa suorituskykyä, niin tietysti FPS-parannus jää selvästi pienemmäksi kuin mikä on sen GPUn todellinen suorituskykylisä.

Että ei kannata pettyä jos joillain benchmarkeilla parannus onkin vain esim. luokkaa 1.6x. Se voi johtua ihan täysin CPU-pullonkauloista.

Kun analysoidaan itse näyttiksen suorituskykylisää, niin pitää benchmarkata tilanteessa jossa resoluutiota on paljon ja herkkuja on paljon päällä.

Ja se, millä on oikeasti eniten väliä on se säteenjäljityksen suorituskyky. Kun jo joku 3070 on jo ihan tarpeeksi nopea rasteroinnissa.
 
Näistä ensimmäisisä benchmark-huhuista:

Jos on benchmarkattu tilanteessa, jossa CPU on selvästi osittain rajoittamassa suorituskykyä, niin tietysti FPS-parannus jää selvästi pienemmäksi kuin mikä on sen GPUn todellinen suorituskykylisä.

Että ei kannata pettyä jos joillain benchmarkeilla parannus onkin vain esim. luokkaa 1.6x. Se voi johtua ihan täysin CPU-pullonkauloista.

Kun analysoidaan itse näyttiksen suorituskykylisää, niin pitää benchmarkata tilanteessa jossa resoluutiota on paljon ja herkkuja on paljon päällä.

Ja se, millä on oikeasti eniten väliä on se säteenjäljityksen suorituskyky. Kun jo joku 3070 on jo ihan tarpeeksi nopea rasteroinnissa.
En ole mikään superpro raudan ymmärryksessä, ja kommentoin wannaben roolissa. 3070 on oman kokemukseni mukaan haastavassa tilanteessa 4k-pelaamisessa, kun detaileja hilataan ylöspäin. Ja kun itsellä on haave 4k@120fps very high/ultra. Ilman RT:n aiheuttamaa kuormaa, tuo on aika harvassa pelissä mahdollista 3070:lle.

RT vaati DLSS:n vielä pitkään 4k:n ja korkean framerate-tavoitteen kanssa.

3080 ja 3070ti:n suorituskyvyn ero 4k:lla on iso. Kuitenkin jokainen käyttäjä kommentoi omista tarpeistaan, ja siksi eri näkökulmat ovat valideja. Itse olen sohva-PC -pelaaja, eli padilla ja isolla telkulla. Tää on ollut muuten yleistymään päin.
 
Tai pelannut raskaimpia pelejä 4k. Kyllä tuolla on reilusti pelejä, jotka ei pyöri 4k edes 60fps tasaisesti korkeimmilla grafiikka-asetuksilla. Toki pieni grafiikka-asetusten lasku ei ole paha, mutta esim. RDR2 tai uudessa Far Cry 6 ei vielä sitenkään saa täysin sujuvaa pelikokemusta.

Tasainen 60fps riittäisi jo itselle yksinpeleissä, mutta tasaista 60fps ei oikein ole olemassa, jos kortin tehot riittää juuri ja juuri sinne, niin se tarkoittaa väistämättä dippejä alle 60fps -> tökkimistä. Eikä mitkään VRR tms. poista noiden haittoja.

Eli siis: Myös rasterointi suorituskyvylle on todellakin vielä tarvetta 4k-resoluutiolla (ja joo tietyt pelintekijät ei oikein jaksa tai osaa optimoida pelejään loppuun asti).

QHD-resoluutiolla riittää nämä nykyiset helposti, mutta 4k ei vielä läheskään. Ja 4k on se juttu, jos haluaa isolla ruudulla pelata. 3070ti itsellä, eikä oikein järkeä päivittää 3000-sarjan sisällä enää, joten 4000-sarjaa odotellessa. Toivottavasti nyt edes 750w poweri riittää tuleviin..
 
Viimeksi muokattu:
Näistä ensimmäisisä benchmark-huhuista:

Jos on benchmarkattu tilanteessa, jossa CPU on selvästi osittain rajoittamassa suorituskykyä, niin tietysti FPS-parannus jää selvästi pienemmäksi kuin mikä on sen GPUn todellinen suorituskykylisä.

TSE ei ota kiinni CPUsta vielä tällaisella suorituskykytasolla tai sitten kone on jotain ihan hirveää SERriä. Time Spy toisaalta sitten kyllä voi jo ottaa. Eli jos tulos on aito, se on ihan hyvä pohjataso mitä odottaa.
 
Saakohan kiukaan matkassa jo kiulun ja pyyhkeen että on pelivarustus kunnossa.
Lisäksi pitääkö kivet ostaa erikseen :D
 
Saakohan kiukaan matkassa jo kiulun ja pyyhkeen että on pelivarustus kunnossa.
Lisäksi pitääkö kivet ostaa erikseen :D
En tiedä Nvidiasta, mutta itse lupaan ensimmäiselle Techbbs:n jäsenelle, joka todistettavasti ostaa tuollaisen 800w kiukaan, lahjoittaa Harvian saunahatun:
saunalakkin.png

Eli ostajaehdokkaat, painakaa tarjous (ja saunahattu) päähän :LOL:
 

Uusimmat viestit

Statistiikka

Viestiketjuista
258 311
Viestejä
4 490 714
Jäsenet
74 194
Uusin jäsen
Juhisti

Hinta.fi

Back
Ylös Bottom