NVIDIA GeForce RTX 4090 & 4080 -ketju (Ada Lovelace)

  • Keskustelun aloittaja Keskustelun aloittaja Sampsa
  • Aloitettu Aloitettu
Aika oksennusta toi DLSS3 jälki on, kattokaa tota nyt:
6ab92de20687a9f077a1eca19d1f397a55fee4f12cc664f01470fd7494f7d372.png


Housut, nyrkki, suu... yhtä sotkua.

Ei jatkoon..
Mutta kuinka paljon huomaat ongelmat liikkeessä? Eli oikeasti pelatessa eikä yksittäisiä kuvia katsoessa.
 
Mutta kuinka paljon huomaat ongelmat liikkeessä? Eli oikeasti pelatessa eikä yksittäisiä kuvia katsoessa.
Ei mistään huomaa, ei missään pelissä ole tavoitteena pysäyttää peliä ja zoomailla.

Jos peli pyörii paremmin ja näyttää hyvältä niin jatkoon.

Voin vaikka heti jos jaksaisin niin postata kuvia jossa uusi aa-peli dlss näyttää hyvältä mutta ilman dlss kauhea liikkeessä.
 
Sanotaanko, että varmaan kannattaa odottaa kunnon testejä että voi sanoa mitään kovin varmaa.

Mutta jos jotain voi sanoa, niin ainakin laatu on selvästi huonompaa kuin dlss2:ssa. Onko se sitten siitä kiinni, että siellä on valittu liian aggressiivinen dlss jo valmiiksi, vai onko tekniikka vielä suht raakile. Sinänsä ilmeisesti tuo ruutujen generointi on ainakin jossain pelissä optiona. Eli ei ole mitään dlss3 valintaa, vaan siellä on erikseen ruutujen generointi (millä nimellä sitten onkaan). Ei jäänyt pelin nimi mieleen uusimmasta PC World Full Nerd jaksosta.

Toistaiseksi ei vakuuta laatu kyllä yhtään, koska kyllä noita edellisiä versioitakin on zoomailtu ja pysäytelty.

Mutta onhan tässä vielä aikaa hioa ajureita, tekniikkaa ja pelikohtaista optimointiakin tehtävissä.
 
There's a lot of things Nvidia didn't say during the presentation about things like the RTX 4000 specs, availability, DLSS 3, power consumption, the dual NVENC engines, AV1 decoding, PCIe Gen 5 and the card that should be known as the RTX 4070. So let's go into a deep dive about what they missed and what we've found:
 
Viimeksi muokattu:
Voin jo kuvitella kun jotkut tuuhiot laittaa 12VHPWR -> 3x8-pin adapteriin kiinni 2x8-pin ja yksi 8-pin sitten daisychainilla RTX4090 (tai 4080 16GB) kortin kanssa. Siinä voi liittimet tai jokin muukin sulaa :)
 
Aika oksennusta toi DLSS3 jälki on, kattokaa tota nyt:
6ab92de20687a9f077a1eca19d1f397a55fee4f12cc664f01470fd7494f7d372.png


Housut, nyrkki, suu... yhtä sotkua.

Ei jatkoon..

Kyllähän noi aika pahalle näyttää, eihän siitä mihinkään pääse. Se täytyy kyllä sanoa, että Spidermanissä DLSS2 on myös aika huonosti toteutettu ja itse olen myös sen kanssa havainnut aika paljon grafiikkavirheitä, minkä vuoksi en sitä tuossa pelissä käytä. Se varmasti vaikuttaa myös tuohon DLSS3:n laatuun, koska se rakentuu aika pitkälti samojen peruspalikoiden päälle.

Myös RT on jotenkin tässä pelissä kustu, kun heijastuksiin tulee semmoinen jännä hento viivasto, jos RT ja SSR yhtäaikaa päällä. Ennen kun joku tulee ihmettelemään, niin Spidermanissa niiden on tarkoitus olla yhtäaikaa päällä. SSR taso viimeistelee RT heijastusten häivytykset/kirkkauden, ja ilman SSR:ää RT heijastukset ovat tasaisen kirkkaita.

Kun SSR tai RT on pelkästään käytössä, ei noita viivoja näy heijastuksissa. Tästä syystä Spiderman on ainoa peli, missä olen päätynyt laittamaan myös RT:n off asentoon.

Jo se, että DF käyttää spidermania siinä tulevassa DLSS3 previkassa, on minun mielestä osoitus siitä, että heillä on itselläänkin jonkun verran kyllä sanan vapautta siinä. En usko, että NVIDIA itse olisi valinnut tuota peliä minkään "RTX ominaisuuden" esittelyyn, koska ne on siinä aika huonosti toteutettu.
 
Viimeksi muokattu:
Kyllähän noi aika pahalle näyttää, eihän siitä mihinkään pääse. Se täytyy kyllä sanoa, että Spidermanissä DLSS2 on myös aika huonosti toteutettu ja itse olen myös sen kanssa havainnut aika paljon grafiikkavirheitä, minkä vuoksi en sitä tuossa pelissä käytä. Se varmasti vaikuttaa myös tuohon DLSS3:n laatuun, koska se rakentuu aika pitkälti samojen peruspalikoiden päälle.

Katselin previewistä tuota hidastettuna, siinä näkee selvästi, milloin on generoitu ruutu, kun noita artefakteja pölähtää liikkeiden rajapintoihin ja seuraavasta framesta ne taas puuttuu. Eli olisi sen perusteella DLSS3.0 ongelma, eikä pelin yleinen DLSS ongelma.
 
Nyt nuo ylimääräiset framet ennustetaan kahden edellisen framen perusteella. Kun ennustus epäonnistuu niin tulee rumaa jälkeä. Tuosta voisi tulla "high quality" moodi, jossa ennustamisen sijasta yritettäisiinkin kahden tunnetun framen väliin laskea interpoloitu frame. Tämä lisää latenssia, kun rendattua framea ei näytetä heti, vaan ensin interpoloitu eli ollaan 1/2 framea myöhässä. Nykyiselläänkin on paljon latenssia siellä sun täällä, niin ehkä tuo pehmeämpi liike (60fps vs. 120fps) olisi uhrauksen arvoinen? Kuvittelisin, että tuollaiset interpoloidu framet olisi paljon helpompi ongelma ratkaista kun sitä tekee jo jotkut televisiot
 
Katselin previewistä tuota hidastettuna, siinä näkee selvästi, milloin on generoitu ruutu, kun noita artefakteja pölähtää liikkeiden rajapintoihin ja seuraavasta framesta ne taas puuttuu. Eli olisi sen perusteella DLSS3.0 ongelma, eikä pelin yleinen DLSS ongelma.

No varsinkin noita hämiksen kehon rajoilla näkyviä "repeämiä" on kyllä minun milestä myös DLSS 2.0:lla. Ja ihan itse pelissä olen ne nähnyt, enkä vidolta vaan katsellut.

Edit: Ja DLSS (tietty versio) tekee ihan samat asiat sinänsä, pelissä kun pelissä, mutta se miten pelimoottoriin on implementoitu liikevektorit yms. asiat, joihin DLSS:n toiminta nojaa, vaikuttaa sitten siihen lopputulokseen aika paljon. Siitähän se enimmäkseen varmaan johtuu, miksi eri peleissä DLSS:n laatu vaihtelee paljonkin.
 
Viimeksi muokattu:
jossa ennustamisen sijasta yritettäisiinkin kahden tunnetun framen väliin laskea interpoloitu frame. Tämä lisää latenssia, kun rendattua framea ei näytetä heti, vaan ensin interpoloitu eli ollaan 1/2 framea myöhässä.
Kyllä siinä oltaisiin enemmän kuin 1/2 framea myöhässä koska ollaan odotettu lähtökohtaisestikkin ne kaksi framea joiden väliin sitä kuvaa pitää alkaa laskemaan. Interpolaatiossa koko ketjua pitää viivästyttää vähintään sen yhden framen verran eli ollaan puolitoista framea myöhässä minimissään kun interpoloidaan kahden jo lasketun framen välille dataa. Tästä syystä televisioiden interpolaatio luo niin hirveän latenssin. Sama paradigma.
 
Kiinnostaisi tietää miten tässä sarjalaisessa näkyy ddr4 ja ddr5 ero, luulisin että hyödyt uudemmista kammoista suurenee. :hmm: Kait sekin tullaan näkemään kunhan saavat luvan julkaista testejä.
 
Kiinnostaisi tietää miten tässä sarjalaisessa näkyy ddr4 ja ddr5 ero, luulisin että hyödyt uudemmista kammoista suurenee. :hmm: Kait sekin tullaan näkemään kunhan saavat luvan julkaista testejä.
Nähtäväksi jää mutta jos pullonkaula on CPU:n ja muistin välissä niin sitten varmasti hyötyä on nopeammasta muistista, mutta se että tuo näkyisi merkittävästi näyttiksen sisäisessä toiminnassa (fps/resoluutio) on kyseenalaista.
 
cyberpunk ada.png


Techpowerupin uutiskommenteista. Tämä oli kyllä aika karu pika-analyysi:

"If you compare the non-DLSS results between the 3090TI and 4090, its only a 62% increase in FPS, this is with the 4090 having 55% more CUDA cores, 40%~ more clock speed, and 90MB more L2 cache (96MB vs 6MB on the 3090TI). This does no bode well for the 4080 16GB results in comparison to the 3090TI in non DLSS or heavy RT performance."

Outo julkaisu kaikenkaikkiaan. Paukut on DLSS3.0 korissa ja AD102 piiri vaikuttaa omaavan parhaan perf/€ suhteen, joka on ennenkuulumatonta lippulaivamallille.

Edit: Foorumipostauksen prosenttilasku oli hukassa, eroa on 67,3%, eikä 62%.
 
Viimeksi muokattu:
cyberpunk ada.png


Techpowerupin uutiskommenteista. Tämä oli kyllä aika karu pika-analyysi:

"If you compare the non-DLSS results between the 3090TI and 4090, its only a 62% increase in FPS, this is with the 4090 having 55% more CUDA cores, 40%~ more clock speed, and 90MB more L2 cache (96MB vs 6MB on the 3090TI). This does no bode well for the 4080 16GB results in comparison to the 3090TI in non DLSS or heavy RT performance."

Outo julkaisu kaikenkaikkiaan. Paukut on DLSS3.0 korissa ja AD102 piiri vaikuttaa omaavan parhaan perf/€ suhteen, joka on ennenkuulumatonta lippulaivamallille.
Olisi kiva nähdä 3090Ti 1% lows ja minimit niin saisi paremmin vertailtua. Sinällään ihan OK boosti jos 4090 absoluuttinen minimi fps on isompi mitä 3090Ti average fps.
 
Olisi kiva nähdä 3090Ti 1% lows ja minimit niin saisi paremmin vertailtua. Sinällään ihan OK boosti jos 4090 absoluuttinen minimi fps on isompi mitä 3090Ti average fps.

Tuo on toisaalta vain yksi nvidian vilauttama ajo, mutta odotin parempaa. Tuolla core & kello erolla on potentiaalia noin 117% boostiin ja tuon RT kuorman pitäisi olla lähellä unelmatapausta todella raskaan RT presetin takia, mutta ollaan 62% parannuksessa. Tuolla cache lisäyksellä olisin ajatellut, ettei muistikaista ala vielä kinnata.

Ennakkoketjussakin odoteltiin 2x suorituskykyä RT puolelle ja vähän vaatimattomapaa rasterointiin.
 
Tuosta edellisestä kuvasta paistoi silmään kun molempia kortteja ajettu natiivina niin kulutus aika lailla samat, 461W ja 454W.

Epäilyttää nyt joku kohta, koska samalla kulutuksella silti 4090 käynyt 20C viileämpänä kuin 3090Ti, +50C vs +70C.

Lisäksi uusin uutinen maailmalta kertoo että Nahkatakki eli nVidia valehdellut KAIKILLE että 4000 sarjan kortit olisi valmistettu uusimmalla TSMC 4nm prosessilla.

Näin ei näköjään ole vaan GPU:t valmistettu itseasiassa TSMC 5nm prosessilla.

NVIDIA also clarified what TSMC 4N really means, which is not to be confused with N4. This process is a die shrink of TSMC 5N process, but it is still a 5nm architecture. The only problem with this ‘clarification’ is that NVIDIA themselves provide wrong information on 4nm process, as shown below (slide from this week’s Editors Day).

 
Viimeksi muokattu:
Tuosta edellisestä kuvasta paistoi silmään kun molempia kortteja ajettu natiivina niin kulutus aika lailla samat, 461W ja 454W.

Epäilyttää nyt joku kohta, koska samalla kulutuksella silti 4090 käynyt 20C viileämpänä kuin 3090Ti, +50C vs +70C.

Lisäksi uusin uutinen maailmalta kertoo että Nahkatakki eli nVidia valehdellut KAIKILLE että 4000 sarjan kortit olisi valmistettu uusimmalla TSMC 4nm prosessilla.

Näin ei näköjään ole vaan GPU:t valmistettu itseasiassa TSMC 5nm prosessilla.

NVIDIA also clarified what TSMC 4N really means, which is not to be confused with N4. This process is a die shrink of TSMC 5N process, but it is still a 5nm architecture. The only problem with this ‘clarification’ is that NVIDIA themselves provide wrong information on 4nm process, as shown below (slide from this week’s Editors Day).


Mutta onko tässä nyt valehdeltu varsinaisesti, koska nuo nm:t prosessien nimissä on joka tapauksessa vain keksittyjä nimiä. Eihän niillä ole oikeiden nanometrien kanssa mitään tekemistä...
 
Kyllä ne on oikeita viivanleveyksiä (nm) joista puhutaan, tai joista pitäisi pelkästään puhua.

Toki joidenkin valmistajien tai asiakkaiden markkinointi puheista saa väärän käsityksen, mutta tarkemmassa tutkimuksessa nekin on fyysisesti valmistettu jollain mitattavalla tekniikalla.

4N ja N4 eri valmistus metodeja ja toinen on aito 4nm ja toinen on 5nm.

Intel noissa suurin vedättäjä, kehittelivät ainakin 5 vuotta 10nm prossuja ja kun muut meni (TSMC) ohi vuosien aikana niin nimesivät oman julkaistun tekniikan "7nm" prosessiksi koska kilpailijalla, AMD:llä oli "7nm" prosessorit.

Onhan noita, AMD Ryzenit kun tuli "7nm" tekniikalla, niin paljastui että vain tietyt osat olivat tehty 7nm ja muita osia prosessorista oli tehty vanhalla ja halvemmalla 12nm tekniikalla.
 
No jimmsiltä speksit ois
Mitat: 357,6 x 149,3x 70,1mm / 3.5 slot
Paino: 2,503kg
Ei paljon enää puutu mitoista että on samoja lukemia mitä synnytysosastolta lähtiessä kirjataan...

Tulee jätettyä nämä 4xxx kyllä väliin. Näköjään hyvä tapa päivittää aina parittoman numeron kohdalla. Onneksi nykyisen 3080 sai alkujaan "halvalla".

Tiedä sitten mitä AMD tarjoaa mutta aika päräyttävää tavaraa saa olla että ostohousuja vetelis.
 
2.5kg on kyllä sellainen massa että jos kortin tukijalka tms. sidonta pettää niin jää kaksi vaihtoehtoa.

Joko emon PCIe liitin särkyy, tai koska nykyisissä paremman pään emoissa on jo metallisin tukiraudoin liitin vahvistettu ja jos emon liitin sattuu kestämään niin murtuu näyttiksen PCIe (uros) liitin > näytönohjain paskana.

Ihan hyvin Jimmslle jo listattu kortteja, 14 eri mallia. Eri asia moniko malli on saatavilla ensi kuussa kun myyntiin tulevat.
 
Viimeksi muokattu:
Eiköhän noissa tule support bracketit mukana toimituksessa, joissaki oli jo nyt erikseen mainittu. Hyvällä jäykällä rungolla saa hyvin myös tuettua korttia. 3080 Strixi oli melkein luotisuora, vaikka siinä ei tullu mukana mitään tukea. Toki painoa oli vähemmän, mutta ei sekään mikään keijukainen ole.

EDIT: Näyttää Suomen Proshopille tulleen jo varastoon Gigabyten 4090, saldo näyttää +15kpl. Paremmilla jäähyillä näyttää tosiaan hinta olevan vielä kevyet 500€ enemmän :D
 
Viimeksi muokattu:
Kyllä ne on oikeita viivanleveyksiä (nm) joista puhutaan, tai joista pitäisi pelkästään puhua.

Toki joidenkin valmistajien tai asiakkaiden markkinointi puheista saa väärän käsityksen, mutta tarkemmassa tutkimuksessa nekin on fyysisesti valmistettu jollain mitattavalla tekniikalla.

4N ja N4 eri valmistus metodeja ja toinen on aito 4nm ja toinen on 5nm.

Intel noissa suurin vedättäjä, kehittelivät ainakin 5 vuotta 10nm prossuja ja kun muut meni (TSMC) ohi vuosien aikana niin nimesivät oman julkaistun tekniikan "7nm" prosessiksi koska kilpailijalla, AMD:llä oli "7nm" prosessorit.

Onhan noita, AMD Ryzenit kun tuli "7nm" tekniikalla, niin paljastui että vain tietyt osat olivat tehty 7nm ja muita osia prosessorista oli tehty vanhalla ja halvemmalla 12nm tekniikalla.

Eikös se ole ollut jo pitkään tiedossa, että nuo ei todellakaan ole mitään oikeita mittoja? Tainnut myös tämä ADA:n valmistus tekniikka ole pitkään olla tiedossa, että se on NVIDIA optimoitu "5nm" TSMC:n prosessi?

Edit: poistettu AMD ja Intel offtopic kommentit.
 
Eiköhän noissa tule support bracketit mukana toimituksessa, joissaki oli jo nyt erikseen mainittu. Hyvällä jäykällä rungolla saa hyvin myös tuettua korttia. 3080 Strixi oli melkein luotisuora, vaikka siinä ei tullu mukana mitään tukea. Toki painoa oli vähemmän, mutta ei sekään mikään keijukainen ole.

EDIT: Näyttää Suomen Proshopille tulleen jo varastoon Gigabyten 4090, saldo näyttää +15kpl. Paremmilla jäähyillä näyttää tosiaan hinta olevan vielä kevyet 500€ enemmän :D

Siellä oli tuffilla 2 hintaa. 1999 ja toinen joku 2390. Mikähän juttu.

 
Siellä oli tuffilla 2 hintaa. 1999 ja toinen joku 2390. Mikähän juttu.

Non-OC TUF oli joissain 30-sarjan korteissa kamppistuote jota myytiin Proshopissa ja Jimmsillä MSRP hintaan silloinkin kun hintataso oli taivaissa.

Ehkä kamppistouhusta kyse nytkin, toisaalta noi hinnathan voi hyvin olla Proshopillakin alustavat ja muuttua ennen julkaisua.
 
Taitaa käydä sama kuin viimeksi eli tuota normi TUFia tulee ehkä muutama hassu kappale jotka menevät saman tien ja uusia ei tule. Toisin sanoen jos oikeasti haluaa kortin niin on pakko ostaa OC. Täysin sama kortti muutaman hertsin isommilla tehdasasetuksilla. En usko että niitä on edes binnattu, tuo on vain markkinointikikka jolla saadaan hinnat alkaen -hinnat näyttämään alemmilta kuin ne oikeasti ovat.
 
Toinen on OC malli. Saat muutaman hertsin lisää 400 eurolla, ei hassumpaa
Jos viime launchista voi jotain päätellä, noiden kahden mallin suurin ero on siinä, että non-OC-mallia ei valmisteta juuri yhtään, eli saatavuus voi olla heikko.
 
Ehkä voisi tilailla 4090 TUF:n, jos semmoisen saa 2k€ hinnalla.
Mikäli toimituksissa menee taas 1kk tai pidempään, niin ehtiipähän näkemään RX7000 sarjan arvostelut ja tarvittaessa peruuttaa tilauksen.

On kyllä sairaat hinnat 4080 kortillakin. Tämä ASUS TUF RTX 3080 OC maksoi 2v sitten 775€.
 
Eikös se ole ollut jo pitkään tiedossa, että nuo ei todellakaan ole mitään oikeita mittoja? Tainnut myös tämä ADA:n valmistus tekniikka ole pitkään olla tiedossa, että se on NVIDIA optimoitu "5nm" TSMC:n prosessi?
Kaikki I/O tuotteet tehdään, oli sitten kyseessä muistipiiri, CPU, GPU tai vaikka äänipiiri tai kahvinkeittimen prosessori tietyllä alkuperäisellä viivanleveydellä ja noi nanometrit ovat todellisia mittoja, siis kun unohdetaan markkinahöpöt.

Viivanleveydethän tulee siitä että, oli sitten kyseessä 4nm tai vanha 32nm tekniikka niin ne tehdään ns. valotuksella. Ei sinne mitään nVidian, AMD:n (tai yhden piirinvalmistaja: TSMC) asenna mitään 70 miljardia transistoria, ne kaikki nykyään tehdään valottamalla piirilevyä. nVidiahan sekä AMD:hän ei valmista itse yhtään prosessoria, he ovat vain alihankkijoita niitä valmistaville yrityksille joilla edelleen valmistavat fyysistä tuotantoa kuten TSMC, Intel tai Samsung.

Noin ne hommat tehtiin jo reilu 20 vuotta sitten kun Nokian prosessoreiden tekniikan Yli-Insinööri selvitti asiaa palaverissa jossa olin työni takia (puhdastila koulutus ja reilu 50 henkilöä oli saanut tuolloin Nokialta saman koulutuksen kuin minä sain tuolloin).

Ei se miksikään siitä ole muuttunut. Ja joskus mainitsin asiasta vanhassa Murossakin, ja joku vuosi sitten täällä IO:ssakin että tiedän tasan tarkasti miksi kun laitetaan ylivolttia niin prosessori edelleen toimii ylikelloilla niillä tai niillä kellotaajuuksilla, eli tiedän jotain aiheesta.

En väitä että tietäisin mitään, kunhan vain mainitsin asiasta että on Suomessakin meitä tavan tallaajia (=työntekijöitä) jotka jotain tietää aiheesta miksi ylivoltituksella saadaan lisää kellotaajuutta eli fysiikkaan perustuvaa toimivuutta.
Mitä tulee viivanleveyteen niin tietoni tasan tarkkaan selittää mulle miksi viivanleveyden yhä pienentyessä ei ne kestä samanlaista jännitteen nostoa. UGH, olen puhunut. Jatkakaa.

Edit: a > ä
 
Viimeksi muokattu:
Se on otettu siitä DF:n previkan tiiseristä.
Ai. No sitten. Kahlasin itsekkin läpi tuon tiiserin ja löysin tuon framen. Aika tarkkaan on joku katsonut kun tuossa kohtauksessa kun Spideri hyppää tuosta ikkunasta niin yksi frame tuolla välissä on tuommoinen vähän hullunkurinen. Yritin kymmenkunta kertaa saada sitä silmiin normaali nopeudella mutta ei onnistunut vaikka tiesi mihin kohtaan katsoa.

Voin kyllä veikata että arvailussa tulee artifakteja ja DLSS3.1 korjailee asioita kuntoon ja 3.3 versiossa ollaan jo stabiiliudessa uudella tasolla. Vähän niin kuin DLSS2.0 oli OK muttei kovin hyvä mutta 2.3 on jo jotain ihan muuta.
 
Odotan mielenkiinnolla vertailuja 12gb 4080 vs vanhemmat kortit (esim. 12gb 3080) ilman dlss tai muita kikkailuja. Tuosta on kuitenkin karsittu aika tavalla noita laskentayksiköitä ja vaikka toki ovat uudempia ja core liikkuu paljon korkeammilla kelloilla niin olen skeptinen suorituskyvystä ennen kolmannen osapuolen testejä.

RT ja Dlss kulkevat melkein käsi kädessä (varsinkin kun on lisätty Max tiloja jotka lisäävät tolkuttomasti laskentatehon tarvetta), mutta enemmän kiinnostaa siis ilman noita kahta.
 
Mutta kuinka paljon huomaat ongelmat liikkeessä? Eli oikeasti pelatessa eikä yksittäisiä kuvia katsoessa.
Kyllä sellaset ihmiset huomaa noi helposti jotka tykkäävät pelata asetukset maksimissa ja ihastella tarkkuutta samalla kun pelaa. Itse en ole sellainen, mutta jos tuo kuva pitää paikkaansa, niin onhan tuo aika järkyttävää katseltavaa.
 
Aika oksennusta toi DLSS3 jälki on, kattokaa tota nyt:
6ab92de20687a9f077a1eca19d1f397a55fee4f12cc664f01470fd7494f7d372.png


Housut, nyrkki, suu... yhtä sotkua.

Ei jatkoon..
Jep, näkee ihan ilman hidastuksia tai pysäytyksiä, että DLSS3 kuvassa hahmon ympärillä on sellainen halo-efekti. Youtubesta 0.25 hidastus päälle, niin vielä paremmin näkee miten noita artefakteja generoituu hahmon ympärille. Onhan tuo paljon parempi, kuin televisioiden frame generation säädöt, mutta riittääkö laatu tosiaan ihan peleihin?
 
Sanon nyt vielä kerran, että Spidermanissa tosiaan myös DLSS2 on aika huono, ja hahmon ympärillä näkyy silläkin selkeää halo efektiä ja ääriviivojen häiriöitä. Silti useissa peleissä DLSS2 on parempi, kun pelin omat AA:t.

Eipä niistä CP2077 tai flight sim videoista ole löydetty (ainakaan vielä) mitään tuon tason häröjä. Ei kannata nyt tuon yhden pelin häiriöiden takia ihan kokonaan vielä teilata tekniikkaa, vaikka varauksella ja terveellä skeptismillä on hyvä toki suhtautua.
 
En kyllä ymmärrä yhtään RTX 4080 12GB:n nimeä ja hintaa. Muistiväyläkin vain 192-bittiä ja piiri on pienempi kuin Amperen vastaava. Watit silti maistuu.
 
En kyllä ymmärrä yhtään RTX 4080 12GB:n nimeä ja hintaa. Muistiväyläkin vain 192-bittiä ja piiri on pienempi kuin Amperen vastaava. Watit silti maistuu.
Tietäjien, eli faktojen kannalta se on oikeasti 4070 (leikattu piiri, alempi piirisarja, muistikaistat onnetonta yms.).

Nahkatakki mies vain nimesi sen 4080 kortin "alakortiksi". Nimi kun myy enemmän kuin pelkkä mallinumero tai faktat.

4090 = 4090 (AD102 piiri)
4080 16Gb = 4080 (AD103 piiri)
4080 12Gb = 4070 (AD104 piiri), isompi "4080" nimi kun myy enemmän asiasta tietämättömille... :/
 
Viimeksi muokattu:
Tietäjien, eli faktojen kannalta se on oikeasti 4070 (leikattu piiri, alempi piirisarja, muistikaistat onnetonta yms.).

Tietäjät tietää että 4080 12GB on ainut julkaistuista korteista jossa ei ole leikattu piiri.
 
Tietäjät tietää että 4080 12GB on ainut julkaistuista korteista jossa ei ole leikattu piiri.
Joten siitä AD104 piiristä saa sitten helposti leikattua 4070 10GB (160-bit muistiväylällä) kortin joulu/tammikuun julkaisuun :)
Edit. Ja ehkä myös 4060Ti 8GB (128-bit) kortin
 
Viimeksi muokattu:
Tietäjien, eli faktojen kannalta se on oikeasti 4070 (leikattu piiri, alempi piirisarja, muistikaistat onnetonta yms.).

Nahkatakki mies vain nimesi sen 4080 kortin "alakortiksi". Nimi kun myy enemmän kuin pelkkä mallinumero tai faktat.

4090 = 4090 (AD102 piiri)
4080 16Gb = 4080 (AD103 piiri)
4080 12Gb = 4070 (AD104 piiri), isompi "4080" nimi kun myy enemmän asiasta tietämättömille... :/
Hieman huvittaa kun huomioi minkä kokoinen GA104 on. AD104 on selvästi pienempi. En voi käsittää... RTX 4070 Ti:nä olisi juuri ja juuri mennyt, mutta ei hinnan puolesta. Onkohan tuon muistiohjain maksimissaan tuo 192-bit tuolla piirillä?

Jaa-a... Saa kyllä nähdä että tapahtuuko jotain uudelleen nimeämisiä kun AMD saa korttinsa ulos.
 
cyberpunk ada.png


Techpowerupin uutiskommenteista. Tämä oli kyllä aika karu pika-analyysi:

"If you compare the non-DLSS results between the 3090TI and 4090, its only a 62% increase in FPS, this is with the 4090 having 55% more CUDA cores, 40%~ more clock speed, and 90MB more L2 cache (96MB vs 6MB on the 3090TI). This does no bode well for the 4080 16GB results in comparison to the 3090TI in non DLSS or heavy RT performance."

Outo julkaisu kaikenkaikkiaan. Paukut on DLSS3.0 korissa ja AD102 piiri vaikuttaa omaavan parhaan perf/€ suhteen, joka on ennenkuulumatonta lippulaivamallille.
Lasketaanpa välillä oikea prosenttiparannus, ettei Techpowerupin uutisen jonkun kommentoijan väärin laskema arvo (62 %) leviä enempää.

Oikea non-DLSS -parannus, 4090 vs. 3090 Ti:
(59,9 / 35,8 -1) * 100 % = 67,3 %.


Silti melko pieni parannus suhteessa kelloihin ja laskentayksiköihin. Mahtaako vanha prossu jarruttaa menoa? Minkä verran DLSS keventää prossun kuormaa? Siitä voisi vähän päätellä, ottaako prossu vastaan non-DLSS -tuloksissa.


Edit. Computerbasen mukaan Cyberpunk 1080p + RT ultra skaalautuu todella hyvin prossua vaihtamalla sekä minimeissä että keskimääräisessä. Nopein oli tosin vain vanha 5950X. Sen 0,2 % oli 54,3 fps ja avg. 89,4 fps. En osaa sanoa kuinka paljon raskaammat Techpowerupin 1440p + RT ultra + psycho tarkalleen ovat prossulle. On kuitenkin ihan mahdollista, että ovat sen verran raskaammat, jotta käytetty prossu jarrutti enemmän 4090:n kuin 3090 Ti:n menoa (avg. fps).

Voihan sekin tietty olla, että 4090:n välimuisti + muistikaista otti vastaan. Ehkäpä tuleva 7950X/13900K sallii 4090:n esittää sen mainostetun jopa 100 % parannuksen@non-DLSS.
 

Liitteet

  • Screenshot_20220924-102341.png
    Screenshot_20220924-102341.png
    333,6 KB · Luettu: 148
Viimeksi muokattu:
Lasketaanpa välillä oikea prosenttiparannus, ettei Techpowerupin uutisen jonkun kommentoijan väärin laskema arvo (62 %) leviä enempää.

Oikea non-DLSS -parannus, 4090 vs. 3090 Ti:
(59,9 / 35,8 -1) * 100 % = 67,3 %.
Muistanko väärin vai ilmoittiko Nvidia nopeusparannuksen olevan 2-4x? Olettaen että 2x olisi ilman DLSS ja sitten DLSS 3.0 kanssa voidaan päästä tuonne 3-4x lukemiin? Vai koskiko tuo Nvidian ilmoittama 2-4x vain DLSS 3.0 kanssa?

edit: Tarkistin niin se olikin "Up to 2x faster" ilman DLSS:ää
 
Muistanko väärin vai ilmoittiko Nvidia nopeusparannuksen olevan 2-4x? Olettaen että 2x olisi ilman DLSS ja sitten DLSS 3.0 kanssa voidaan päästä tuonne 3-4x lukemiin? Vai koskiko tuo Nvidian ilmoittama 2-4x vain DLSS 3.0 kanssa?
Väittivät että 4090 on 2-4X nopeampi kuin 3090 Ti.
Screenshot 2022-09-24 at 10-16-51 GTC Sept 2022 Keynote with NVIDIA CEO Jensen Huang - YouTube.png

Myöhemmin näyttivät omissa graafeissaan, että parissa suositussa AAA -pelissä, jossa ei ole DLSS:ää, on suorituskykyhyppy kuitenkin vain 1,5X-1,7X tuntumassa.
geforce-rtx-40-series-gaming-performance.png
 
Viimeksi muokattu:

Uusimmat viestit

Statistiikka

Viestiketjuista
258 431
Viestejä
4 490 821
Jäsenet
74 157
Uusin jäsen
mursu-90

Hinta.fi

Back
Ylös Bottom