NVIDIA-spekulaatioketju (Blackwell ja tulevat sukupolvet)

Totuus lienee katsojan silmässä. Mun silmiin HUB ei todellakaan vaikuta objektiiviselta taholta. Tai ehkä se on heidän tarkoituskin, kun arvostelut tehdään hyvin kapeasta näkökulmasta eli max reso, max textuurit, max fps ja säteenseuranta on saatanasta, kun tehot ei riitä. Onko tämä sitten amd bias vai niiden oikea mielipide asiasta, en osaa sanoa. Katsotaan nyt mitä 40x0 ja rdna3 arvosteluissa sanovat, että tuleeko objektiivisempaa settiä vai mennäänkö arvosteluissa amd:n vahvuudet on paras juttu koskaan kulma edellä.

Nvidian korteilla pitää pelata low asetuksilla? Aika erikoiset perustelut...
 
Onko näissä muuten se display port 2.0 vai tuhnuttiko sekin vielä?
Itsekin olin just tulossa kysymään moisesta kun en nähnyt nahkiksen ainakaan mainitsevan että olisi DP2.0.

Koska ainakin uudessa ADA arkkitehtuuriin pohjautuvassa RTX6000 (48Gb) työasemakortissa on vain DP 1.4.
 
Totuus lienee katsojan silmässä. Mun silmiin HUB ei todellakaan vaikuta objektiiviselta taholta. Tai ehkä se on heidän tarkoituskin, kun arvostelut tehdään hyvin kapeasta näkökulmasta eli max reso, max textuurit, max fps ja säteenseuranta on saatanasta, kun tehot ei riitä. Onko tämä sitten amd bias vai niiden oikea mielipide asiasta, en osaa sanoa. Katsotaan nyt mitä 40x0 ja rdna3 arvosteluissa sanovat, että tuleeko objektiivisempaa settiä vai mennäänkö arvosteluissa amd:n vahvuudet on paras juttu koskaan kulma edellä.
Anteeksi mitä?:D Nyt oli kyllä melkoiset syyt AMD-biakselle. Onkohan se bias toisella puolella ruutua. Vai että maksimiasetukset testeissä ovat pahasta...
En tajua, nimenomaan high asetuksilla, kun säteenseuranta päälle ja dlss:lla lisää fps:aa. DLSS:n uusimmat versiot on melkoisen priimaa amperella.
Ja vertailukelpoisuus testeissä korttien välillä saavutetaan... kuinka? Mikäli osalla korteista käytössä on DLSS ja ties mikä ja toisilla ei, edes Nvidian kortit eivät olisi vertailukelpoisia keskenään.
 
En tajua, nimenomaan high asetuksilla, kun säteenseuranta päälle ja dlss:lla lisää fps:aa. DLSS:n uusimmat versiot on melkoisen priimaa amperella.

Eli sitten on objektiivinen vertailu kun verrataan Nvidia DLSS vs. AMD natiivi?
Onkohan sittenkään HUB se joka ei ole objektiivinen?

Olihan siellä säteenseuranta pelejä mukana vaikka viimeisimmässä 3070 vs. 6800 testissä.
 
Totuus lienee katsojan silmässä. Mun silmiin HUB ei todellakaan vaikuta objektiiviselta taholta. Tai ehkä se on heidän tarkoituskin, kun arvostelut tehdään hyvin kapeasta näkökulmasta eli max reso, max textuurit, max fps ja säteenseuranta on saatanasta, kun tehot ei riitä. Onko tämä sitten amd bias vai niiden oikea mielipide asiasta, en osaa sanoa. Katsotaan nyt mitä 40x0 ja rdna3 arvosteluissa sanovat, että tuleeko objektiivisempaa settiä vai mennäänkö arvosteluissa amd:n vahvuudet on paras juttu koskaan kulma edellä.

Se RT:n vähyys oli niillä kyllä kanavan polleista johtuva, kun kyselivät miten ne haluavat testattavan. Tosiaalta se taisi olla se ensimmäinen kanava, joka testasi DLSS 2.0:n ja kehuivat sitä silloin kovasti, tekivät sen AMD ajuri jutun ja ovat kyllä useammassa testissä todenneet, että tässä hintaluokassa nvidia on parempi. 3090:n ja 6900XT:n ne tehoista huolimatta tavallaan haukkuivat, kun totesivat, että koska 3080/6800XT ovat olemassa, niin näin paljoa extraa ei kannata maksaa tästä teholisäyksestä. Bias on enemmänkin perf/€ osastolla, kuin max fps.

Vastaavasti Digital Foundry sai Amperen ennakkotestiin ennen muita medioita ja jos ne nyt pamauttaa DLSS 3.0 testit ulos ennen muita medioita, niin pitäisikö siitä päätellä Nvidia biasta? No pikemminkin ko. kanava elää 3d tekniikkavertailuista (eikä rauta-arvosteluista), niin se on todennäköisempi syy miksi ne suostuu todella tiukasti rajattuihin ennakkotesteihin.
 
Se RT:n vähyys oli niillä kyllä kanavan polleista johtuva, kun kyselivät miten ne haluavat testattavan. Tosiaalta se taisi olla se ensimmäinen kanava, joka testasi DLSS 2.0:n ja kehuivat sitä silloin kovasti, tekivät sen AMD ajuri jutun ja ovat kyllä useammassa testissä todenneet, että tässä hintaluokassa nvidia on parempi. 3090:n ja 6900XT:n ne tehoista huolimatta tavallaan haukkuivat, kun totesivat, että koska 3080/6800XT ovat olemassa, niin näin paljoa extraa ei kannata maksaa tästä teholisäyksestä. Bias on enemmänkin perf/€ osastolla, kuin max fps.

Vastaavasti Digital Foundry sai Amperen ennakkotestiin ennen muita medioita ja jos ne nyt pamauttaa DLSS 3.0 testit ulos ennen muita medioita, niin pitäisikö siitä päätellä Nvidia biasta? No pikemminkin ko. kanava elää 3d tekniikkavertailuista (eikä rauta-arvosteluista), niin se on todennäköisempi syy miksi ne suostuu todella tiukasti rajattuihin ennakkotesteihin.

Odottelen ihan rauhassa lopulliset testit ada ja rdna3 myös ulos. Sit kun on molemmat arvostelut luettu monesta lähteestä ja sulateltu luettu niin voi vetää johtopäätöksiä suuntaan tai toiseen. Mä en usko, että dlss3 voi toimia kuin hyvin rajatuissa tapauksissa. dlss3 voi hyvinkin olla dlss1 kaltainen fiasko arvauksineen ja ei käyttökelpoinen. Ehkä just joku flight simulator on paras tapaus dlss3:lle, kun on paljon melko staattista sisältöä mitä voi arvailla kuvien väliin, mutta toimiiko peleissä missä on paljon arvaamattomasti animoituvaa ja liikkuvaa sisältöä niin tuskin.
 
Hardware unboxed on niin amd biased lähde kuin voi olla. Lähtisin jonkin muun saitin kautta katsomaan 3rdparty tuloksien keskiarvoja.
Njaa, en tiiä mitä he ovat sanoneet mikä on sinua loukannut. Itse en ole huomannut mitään suosimista kumpaakaan leiriä kohtaan ja vuosia olen kanavaa seurannut.
 
Itse odotan kieli pitkällä uutta DLSS:ää, nuo interpoloidut väliframet voi toimia tosi hyvin, jos liikettä on vähän. Sitten kun liikutaan paljon kerralla ja ruudun reunasta tulee uutta materiaalia (vaikka tekstiä), niin on mielenkiintoista nähdä, miten se siitä selviytyy. Esimerkkiskenaariona vaikka käännän pelissä päätä vasemmalle ja sieltä tulee kyltti, jossa tekstiä. Tekstiä edelleen sen takia, että se on AI:lle vaikeaa. Varsinkaan, jos sitä ei sillä kyseisellä tekstillä ole treenattu.
Jos toimii hyvin, niin voinen vihdoinkin pelata 4K-televisiostani täysillä herkuilla (pl. resoluutio). En tule ostamaan 4090:ia, mutta noita muita voin katsella.
 
Ehkä olen liian pessimistinen tuon dlss3:en suhteen. Nvidian työntekijöiden kommentteja twitterissä dlss3:en käyttämään teknologiaan liittyen. Menee yli mun hilseen. Tarvii tsekata onko gtc puheissa tuosta lisää ja laittaa pyörimään jos on

Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.


Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.


Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.
 
Eniten mua kiinnostaa miten tuo optical flow tuo artifakteja kuvaan, esimerkiksi video editointi maailmassa oleva optical flow videoiden hidastukseen tuottaa ihan järjettömästi artifakteja tietynlaisissa skenaarioissa.
 
Ehkä olen liian pessimistinen tuon dlss3:en suhteen. Yksi ex apple/google nykyään nvidia heebo kommentoi twitterissä dlss3:en käyttämää teknologiaa. Menee yli mun hilseen. Tarvii tsekata onko gtc puheissa tuosta lisää ja laittaa pyörimään jos on

Kuvasta lasketaan motion vectorit, niinkuin ainakin ennenkin (FSR 2.0 + XeSS tekee samoin). Mutta niitä käytetään ennustamaan seuraava kuva. Ehkä jotain muutakin tietoa, mutta tässä ennustetaan - ei interpoloida..

Eli ei oteta kahta kuvaa, lasketa niistä keskiarvo ja pistetä sitä väliin. Se aiheuttaisi lagia/latenssia, koska se seuraava kuva pitäisi olla valmiina, että voidaan laskea keskiarvo..Sitten se tulee ruudulle vasta keskiarvokuvan jälkeen ja siitä tosiaan tulisi viivettä. Ei tälläistä. Ennustetaan.

--

Uusi käsite tässä on optical flow ja siinä uutena hienona asiana se, että ne uudet framet tulevat edellisten perusteella. Tämä aiheuttaa ongelmia, jos uudessa framessa on materiaalia, jota ei ollut aiemmassa kuvassa. Esim. kävellään taaksepäin tai katsotaan oikealle. Sitten ruudun reunalta/reunoilta tulee materiaalia, jota ei ollut olemassa aiemmin ja sitä pitäisi ennustaa puolityhjästä. Tämä on erityisesti valon ja varjon kanssa vaikeaa. Katsotaan nyt, miten nämä haasteet on ratkaistu, mutta siellä on näitä mietitty meitä enemmän.
 
Viimeksi muokattu:
Eli ei oteta kahta kuvaa, lasketa niistä keskiarvo ja pistetä sitä väliin. Se aiheuttaisi lagia/latenssia, koska se seuraava kuva pitäisi olla valmiina, että voidaan laskea keskiarvo..Sitten se tulee ruudulle vasta keskiarvokuvan jälkeen ja siitä tosiaan tulisi viivettä. Ei tälläistä. Ennustetaan.

Eli vältetään normaali telkkari-motion-interpolaation tuomat järkyttävät latenssit koska uusin kuva on ennustus tilanteesta hieman ennen seuraavaa kuvaa, mutta ei silti muuta sitä ongelmaa että jos inputtia pollataan ja pelisimulaatiota päivitetään vain natiivinopeudella, ellei tuo nopeus ole tarpeeksi korkea, peli tuntuu lagiselta vaikka mittarissa olisi iso numero.

Eli kärjistäen: Jos peli pyörii natiivina 20fps, siitä normaali DLSS upscalella saadaan nostettua "oikea" päivitysnopeus 40fpsään niin sen jälkeen kun lisätään toiset 40fps ennustettuja frameja ja saadaan OMG 80fps!!! niin pelituntuma on silti edelleen sama kuin 40fps tilanteessa, vaikka sivustakatsoja voikin ihastella pehmeämpää ruudunpäivitystä ja isompaa numeroa mittarissa. Saa nähdä miten toimii käytännössä, mutta oma epäilys on että jos natiivi-päivitysnopeus ei ole riittävän korkea, DLSS3 ei tarjoa hyvää kokemusta.

Ja toisesta päästä tulee sitten se ongelma että tämän ennustetun kuvan generointi vie jonkin verran aikaa ja se todennäköisesti on kiinteä aika (resoluutiosta riippuvana) joka asettaa eräänlaisen capin siihen kuinka nopeasti peli voi pyöriä. Esimerkin perusteella ainakin jostain 40-50fps vauhdista (se cyperpunkki-esimerkki) saadaan tuplattua, mutta jos peli onkin nopeatempoista räiskintää ja mittarissa on natiivina vaikkapa 144fps, siitä tuskin saadaan 300fps sille hirmuiselle 360hz TN panelille ja vaikka saataisiin, edelleen inputteihin peli reagoi 144fps mukaan.
 
Tjaa a. Massiiviset tehonlisäykset olikin DLSS kristallipallo, joka arpoo miltä peli mahdollisesti näyttää seuraavalla framella :bored:

Eniten hiertää kuitenkin tuo uusien korttien hintataso.
 
On sen verran raskasta peliä tulossa (mm. Atomic Heart, Stalker, Plague Tale), jotta tuo DLSS3 on varmasti tarpeen. Jos se näyttää hyvältä ja suoriutuu hyvin, niin on kyllä tervetullut teknologia!
 
On sen verran raskasta peliä tulossa (mm. Atomic Heart, Stalker, Plague Tale), jotta tuo DLSS3 on varmasti tarpeen. Jos se näyttää hyvältä ja suoriutuu hyvin, niin on kyllä tervetullut teknologia!
Ei varmaan kuitenkaan niin raskaita että 2 tonnin näytiksellä tarviaisi oikeasti skaalaimia käytellä, mutta tähän ollaan tultu.
 
Miten DLSS 3.0 ja ASW toimivat yhteen VR:ssä?

Vois kuvitella, että dlss3:lla generoitaisiin kuvat ja asw:lle jäisi vain päänasennon kompensointi tehtäväksi. Tyyliin peliengine rendaa 60/72Hz, dlss3.0 antaa 120/144Hz ulos ja ASW säätää kuvaa päänasennon muutoksen verran ennen näyttämistä.
 
Ei varmaan kuitenkaan niin raskaita että 2 tonnin näytiksellä tarviaisi oikeasti skaalaimia käytellä, mutta tähän ollaan tultu.

Eiköhän se päätarkoitus ole yrittää saada pirkka-näydäreiden 4K-lukemat tasolle "playable" vaikka puolet siitä onkin ihan itse keksittyjä frameja. Jos Jonne Kasuaalipelaaja lähtee shoppaamaan uutta korttia kun vanhasta 1060 3GB aika jättää ja AMD myy korttia jonka arvostelumittarissa on 4K resolla 30fps ja NVIDIA myy samaan hintaan korttia jonka arvostelumittarissa Superpunk 3099 onkin 60fps, niin kummankohan Jonne Kasuaali ostaa?

Eikä tämä efekti tarvitse kuin pari Jonne Kasuaalille tärkeää peliä jossa tuki on ja muissa ollaan sitten tasoissa kilpailevan kortin kanssa niin valuet on heti kohdallaan. Jopa pientä lisähintaakin tuosta maksaisi.
 
Vähän kyseenalainen myös tuo oletetun 4070 mallin nimeäminen 4080 12GB:ksi. Kun pistetään 2 hinnaltaan täysin halo tuotetta (4080 16GB ja 4090) järjettömiin hintoihin niin päälle 1000€ kuulostaa jo kohtuulliselta, mutta silloin helposti unohtuu että tuo 4080 12Gb on todellisuudessa siis kaksinkertainen hinnalttaa verrattuna 3070 julkaisuun.

Tuossahan on klassinen hinnoittelu-kikka kyseessä, jota esim. starbucks käyttää kahvikokojen kanssa. Laitetaan 1 kallis jättikahvi, 1 vähän halvempi keskikokoinen, ja vähän halvempi selvästi pienin, jolloin suurin osa ihmisistä ostaa keskikokoisen. Nyt se pienin eli 4070* tulee olemaan niin paljon hitaampi mutta vain vähän halvempi kuin 4080, että moni valitsee tietenkin 4080. Paitsi että kahvivertaus ontuu tässä kohtaa, koska 4090 tulee olemaan reilusti 4080 tehokkaampi, eli moni päivittää 4090 asti, kun se ei ole enää paljoa kalliimpi. Bisnes-mielessä nerokasta Nvidia, pakko myöntää.

*4070 tarkoitan tästä eteenpäin 4080 12gb -versiota. Kieltäydyn käyttämästä tuosta 4080 12gb -nimitystä siihen asti kunnes 4070 launchaa. Ihan oikeasti Nvidia...

Ujosti haaveilin päivittäväni 4080, mutta ei perkule noissa hinnoissa ole enää mitään järkeä. 3070ti päivittämisestä tuli jo morkkis. Nyt on pakko skipata Nvidian porfolio. Lisää FPS kyllä 4k kaipaisi. Enter AMD. Oon jo luovuttanut kaiken munuaisista korviin, joten aika rajua perf / dollaria saa AMD tarjota, jotta päivitän.
 
Sanoisin että 700€ jälkeen ei voi sanoa massoille tarkoitetuksi tuotteeksi näyttistä.
Voi jättää ne 4k 240hz pelailut myöhemmäksi, ehkä se 4nm tsmc on liian kallis prosessi tässä vaiheessa.
 
Kaikki jäitä hattuun, luodaan ostaja-kartelli (vai mikä nyt parhaiten kuvastaa) ja odotetaan kunnes sekä Nvidia että AMD ovat saaneet vekottimensa testaajien tuomioitavaksi ja siihen vielä hintakilpailut lisäksi niin jos vaikka hiihtolomaksi sitten uutta piirtolaskuria koneeseen :) Jos olis vesiblokkejakin jo tarjolla ja niiden lämpötyynyjen paksuus selkee.

DLSS on hieno homma jos se Quality asetus riittää että fps alkaa nousta reilusti, jos tulee lisää puuro-asetuksia niin turha sitä on käyttää kuvaa sotkemaan. Vähän kuin SLI:n korvaaja ilman microstutteria.
 
Oliko se Apple vai Samsung joka ekana toi markkinoille sen tonnin maksavan puhelimen, kauhisteltiinhan ensin sitäkin että "ei helvetti, TONNI PUHELIMESTA?!!" Ja nykyään on sitten ihan normaalia että huippuluuri maksaa 1500-2000 rahaa...

Tässä aivan sama ilmiö kyseessä. Ihmiset pikkuhiljaa tottuvat siihen että huipputuotteet maksavat helvetisti ja keskihintakin nousee mutta kukaan ei kyseenalaista tätä, miksi ei?

Ostaako noita kukaan? Hinnoitella saa, mutta puhelimiestakaan en yli tonnia koskaan maksa.

Nyt on tullut aika lopetella peliharrastus. Kun pelikone maksaa auton verran, teen mieluummin jotain muuta,
 
Öööhhh siis täh, miten niin muka ei osta jos haluaa/tarvitsee ne tietyt ominaisuudet joita just se valmistaja tarjoaa? Applella ei tällä hetkellä ole esim Iphone 14 mallia joka maksais alle tonnin, jos uuden Omppupomppupuhelimen haluat niin alapa kaivaa kuvetta. Vaihtoehtoja ei ole jos just sen uuden ja hienon lelun haluat. Jos vanhempi malli kelpaa niin sitten eri asia.

Ja ne jotka näitä uusia näytönohjaimia tarvitsee niin kaks vaihtoehtoa.... Maksa ittes kipeäks julkasussa tai odota että hinnat järkevöityy.
 
Mistä tuo tieto peräisin?

Kuvaajassa kerrotaan että DLSS uutuudet käytössä "when applicable". Sekä MSFS että Warhammer on DLSS 3 listalla.

Juu niinpä onkin.

Sekin mahdollisuus tosiaan kannattaa ottaa huomioon, että kun 4090:n rasterointiteho Tera FLOPSeissakin on jo niin kova, että CPU voi tulla pullonkaulaksi jopa 4k resolla useammassa pelissä. Varsinkin open World pelit on aika prossuriippuvaisia, kun striimataan paljon assetteja lennossa. Varmaan jotkut synteettiset ja puhtaat GPU benchit antaa parempaa kuvaa itse GPU:n tehon noususta. Tai sitten pitäisi ajaa jotain 8k benchejä useissa peleissä.
 
Viimeksi muokattu:
Ostaako noita kukaan? Hinnoitella saa, mutta puhelimiestakaan en yli tonnia koskaan maksa.

Ostaa niitä jotkut. Ostetuimpien listoilla on käytännössä kohtuullisen halpaa puhelinta ja iphonea.

Mutta onhan toi puhelinvertaus ylipäänsä vähän omituinen. Puhelimia ostaa käytännössä jokainen, näyttiksiä vain pelaajat ja ne, jotka tarttee työhön, joten aika vaikea vertailla keskenään.
 
*4070 tarkoitan tästä eteenpäin 4080 12gb -versiota. Kieltäydyn käyttämästä tuosta 4080 12gb -nimitystä siihen asti kunnes 4070 launchaa. Ihan oikeasti Nvidia...

Ujosti haaveilin päivittäväni 4080, mutta ei perkule noissa hinnoissa ole enää mitään järkeä. 3070ti päivittämisestä tuli jo morkkis. Nyt on pakko skipata Nvidian porfolio. Lisää FPS kyllä 4k kaipaisi. Enter AMD. Oon jo luovuttanut kaiken munuaisista korviin, joten aika rajua perf / dollaria saa AMD tarjota, jotta päivitän.
Samansuuntaiset ajatukset. Itse haaveilin päivityksestä 3060Ti -> 4070, mutta kun tämän nyt julkaistun "4080:ksi brändätyn 4070:n" hinta on yli tonnin, niin alkaa houkuttelemaan sittenkin 3070 tai 3070Ti. Saatavuus kuitenkin vielä hyvä ja hinnat alkaen ~600 euroa. Tai jopa 3080 siitä 800 eurosta alkaen. Mutta pitää nyt odotella ne OIKEAT suorituskykytestit ennenkuin tekee mitään.
 
Jos ihmiset ei ostaisi näitä sika hintaisia näytönohjaimia, niin saataisiin hinnat tippumaan.
 
Odotellaan rauhassa... 2080ti pyörii edelleen koneessa ja ultrawide vaatis vähä lisää tehoa mutta ei niin paljoa että alkaisin maksaa 1300e näyttiksestä... Millonkas nämä kortit on testaajilla käsissä ja millon se nda loppuu että nähdään oikeita lukemia?
 
Ostaako noita kukaan? Hinnoitella saa, mutta puhelimiestakaan en yli tonnia koskaan maksa.

Nyt on tullut aika lopetella peliharrastus. Kun pelikone maksaa auton verran, teen mieluummin jotain muuta,

Eiköhän niitä löydy halvempiakin koneita. Vähän aikaa sitten oli esim. 6900XT myynnissä 700 EUR hintaan ja ei ollut vielä edes uusi sukupolvi myynnissä. Sitten 3060 saa jo nyt uutenakin alle 400. Hyvän pelikoneen saa edelleen taas noin tonnilla. Käytettyihin tulee kanssa kovaa hintapainetta taas, kun uudet sukupolvet oikeasti tulevat myyntiin.
 
Odotellaan rauhassa... 2080ti pyörii edelleen koneessa ja ultrawide vaatis vähä lisää tehoa mutta ei niin paljoa että alkaisin maksaa 1300e näyttiksestä... Millonkas nämä kortit on testaajilla käsissä ja millon se nda loppuu että nähdään oikeita lukemia?

Olikos se lokakuun 12 päivä. Kuulin jostain (olikohan Jayz, varmaksi en muista) kommentteja, että arvosteluja voisi odottaa 11pv tai 12pv tuosta 4090:sta.
 
Eli vältetään normaali telkkari-motion-interpolaation tuomat järkyttävät latenssit koska uusin kuva on ennustus tilanteesta hieman ennen seuraavaa kuvaa, mutta ei silti muuta sitä ongelmaa että jos inputtia pollataan ja pelisimulaatiota päivitetään vain natiivinopeudella, ellei tuo nopeus ole tarpeeksi korkea, peli tuntuu lagiselta vaikka mittarissa olisi iso numero.

Eli kärjistäen: Jos peli pyörii natiivina 20fps, siitä normaali DLSS upscalella saadaan nostettua "oikea" päivitysnopeus 40fpsään niin sen jälkeen kun lisätään toiset 40fps ennustettuja frameja ja saadaan OMG 80fps!!! niin pelituntuma on silti edelleen sama kuin 40fps tilanteessa, vaikka sivustakatsoja voikin ihastella pehmeämpää ruudunpäivitystä ja isompaa numeroa mittarissa. Saa nähdä miten toimii käytännössä, mutta oma epäilys on että jos natiivi-päivitysnopeus ei ole riittävän korkea, DLSS3 ei tarjoa hyvää kokemusta.

Ja toisesta päästä tulee sitten se ongelma että tämän ennustetun kuvan generointi vie jonkin verran aikaa ja se todennäköisesti on kiinteä aika (resoluutiosta riippuvana) joka asettaa eräänlaisen capin siihen kuinka nopeasti peli voi pyöriä. Esimerkin perusteella ainakin jostain 40-50fps vauhdista (se cyperpunkki-esimerkki) saadaan tuplattua, mutta jos peli onkin nopeatempoista räiskintää ja mittarissa on natiivina vaikkapa 144fps, siitä tuskin saadaan 300fps sille hirmuiselle 360hz TN panelille ja vaikka saataisiin, edelleen inputteihin peli reagoi 144fps mukaan.

Nämä menee mulla aika vahvasti yli sen mitä ymmärrän ja tiedän ymmärtäväni, mutta kyllä tuo minusta lisää myös "enginen" päivitysnopeutta. Kuvan laskeminen, ja muun enginen pyörittäminen on osin rinnakkaista osin peräkkäistä. Jos kuvaa lasketaan nopeammin niin sillä säästyneellä ajalla saadaan puhtaasti prossun pyörittämästä enginestä lisää ulos. Ei kai sitä kuvaa voi minusta mitenkään irroittaa muusta enginestä. Siellä on kaikkea liikkuvaa joka voi osua mihin tahansa ja sitä kaikkea pitää laskea, muutoin ensimmäisenä kuva ja ääni ei vastaa toisiaan.




Tämä on tosiaan ainoa Ampere vs. Ada suorituskykyvertailu mitä tuossa oli. Noista kolme vasemmanpuolimmaista ei käytä mitään DLSS versiota, ja Resident Evil ainoana hyödyntää säteenseurantaa. Tuosta jos katsoo että varmaan harvinaiseksi jäänyt 3090 Ti vastaa aika hyvin 4080 12GB.
1663744764894.png

Hardware unboxedin 3090 Ti vertailusta se oli noin 24% nopeampi kuin 3080 10 GB. (ehkä 1440p olisi ollut järkevämpi katsoa jos 3090 Ti saa liikaa etua suuremmasta muistimäärästä. Jaa, 16% suorituskykyisempi, sehän näyttää paljon huonommalta)
1663745315472.png

Esim. 3080 oli vastaavassa 4k 32% nopeampi kuin 2080 Ti. Ja niiden listahinnat oli ihan eri luokkaa.
 
Jos ihmiset ei ostaisi näitä sika hintaisia näytönohjaimia, niin saataisiin hinnat tippumaan.

Ja jos ihmiset ei söis lihaa, niin ei ois lihateollisuuttakaan, ja jos ne lopettas autolla ajamisen ja massiivisen kuluttamisen niin ehkä liikenteen ja rahdin katoamisen myötä ilmasto paranisi! En sano että olet väärässä, mutta niin ikävää kuin se onkin tämmöinen ajattelu on täysin turhaa, koska myös näiden teknologiafirmojen osakkaina/johtokunnassa istuu ihmisiä, ja heitä kiinnostaa se rahasäkki eikä moraaliset utopiahaaveet.

Maksoin 2080ti:stä >tonnin maksoin 3070:sta ~tonnin ja nyt silmäilen 4090 blokin kanssa, rahoja siihen on varattu jo pitkään koska GTX1080 oston jälkeen hintakehityksen suunta on ollut (ainakin mulle) aika selkeä, ja tämä on sen hinta että saa nopeinta (sen mitä haluaa).

Ei se kivaa ole, mut näin se menee.
 
Maksoin 2080ti:stä >tonnin maksoin 3070:sta ~tonnin ja nyt silmäilen 4090 blokin kanssa, rahoja siihen on varattu jo pitkään koska GTX1080 oston jälkeen hintakehityksen suunta on ollut (ainakin mulle) aika selkeä, ja tämä on sen hinta että saa nopeinta (sen mitä haluaa).

Ei se kivaa ole, mut näin se menee.

Miksi muuten ylipäätään vaihdoit 2080 ti:stä 3070:een, kun ne kai on aika samantehoisia?
 
Taas on hyvä hetki äänestää lompakollaan. Totuus on kuitenkin luultavasti se, että jokainen kortti menee mitä kerkeävät tuottaa noilla hinnoilla.
 
Taas on hyvä hetki äänestää lompakollaan. Totuus on kuitenkin luultavasti se, että jokainen kortti menee mitä kerkeävät tuottaa noilla hinnoilla.
On kyllä huikeaa jos menee. Euroopan ulkopuolella ehkä, mutta eurooppalaisten ostovoima tippuu tällä hetkellä lähes ennen näkemätöntä vauhtia samaan aikaan kun markkinoille tuodaan ennen näkemättömän kallista näytönohjainta.
 
Onhan tuo tehonkulutuskin aivan karmeaa, kun karvalakkimallilekin suositellaan jotain 700W poweria.
 
Pistäisi kyllä hymyilyttään, jos nVidian kermankuorintayritys epäonnistuisi ja myyntivolyymit puksuttelisivat täyttä vauhtia seinää päin... itse ainakin ajattelin pärjäillä 3060 ti:llä ensi kesään asti tai miksei pidemmällekin.
 

Statistiikka

Viestiketjuista
296 352
Viestejä
5 070 595
Jäsenet
81 067
Uusin jäsen
jamola76

Hinta.fi

Back
Ylös Bottom