NVIDIA-spekulaatioketju (Lovelace ja tulevat sukupolvet)

DLSS3 games

  • A Plague Tale: Requiem
  • Atomic Heart
  • Black Myth: Wukong
  • Bright Memory: Infinite
  • Chernobylite
  • Conqueror’s Blade
  • Cyberpunk 2077
  • Dakar Rally
  • Deliver Us Mars
  • Destroy All Humans! 2 – Reprobed
  • Dying Light 2 Stay Human
  • F1Ⓡ 22
  • F.I.S.T.: Forged In Shadow Torch
  • Frostbite Engine
  • HITMAN 3
  • Hogwarts Legacy
  • ICARUS
  • Jurassic World Evolution 2
  • Justice
  • Loopmancer
  • Marauders
  • Microsoft Flight Simulator
  • Midnight Ghost Hunt
  • Mount & Blade II: Bannerlord
  • Naraka: Bladepoint
  • NVIDIA Omniverse
  • NVIDIA Racer RTX
  • PERISH
  • Portal with RTX
  • Ripout
  • S.T.A.L.K.E.R. 2: Heart of Chornobyl
  • Scathe
  • Sword and Fairy 7
  • SYNCED
  • The Lord of the Rings: Gollum
  • The Witcher 3: Wild Hunt
  • THRONE AND LIBERTY
  • Tower of Fantasy
  • Unity
  • Unreal Engine 4 & 5
  • Warhammer 40,000: Darktide
 
4090:ssa voi olla se ongelma, että prossut rajoittaa tällä hetkellä liikaa. Raakaa tehoahan tuossa pitäisi olla ~kaksinkertaisesti 3090:een verrattuna. Toisaalta muistikaistaa ei ole kovin paljon enemmän, no tuon näkee sitten syksyn mittaan.
 
Eikös Intel ja AMD ole molemmat tuomassa uusia prossuja nyt markkinoille jolloin näille uusille pikselinpiirtäjille ois kaveri joka jaksaa niiden vauhdissa mukana?
 
Postaan saman tähän ketjuun kuin mitä laitoin uutisketjuun. Olisi hyvä, jos keskustelu päätyisi yhteen ketjuun kahden tilalta. Ehkä joku uusi 4090,4080 ketju olisi paikallaan?

Hauska miten täysin samasta speksista ja esityksestä voi vetää niin monenlaista erilaista johtopäätöstä. Digital foundryn kommentteja alla. Tsekkasin huumorilla niin hardware unboxed:lla ei ole mitään 4090 matskua vielä tuubissa. pcworld, io-tech jne. kuitenkin kerkesivät jotain tekemään. Ehkä se amd bias siellä näkyy HUB:in päässä. Ei HUB ole jaksanut twiittiäkään nvidiasta laittaa. Oletin löytäväni naljailua dlss3:sta, mutta ehkä rytisee myöhemmin kunhan amd kerkeää päivitellä hub:lle talking pointit.

We've been hands-on with the RTX 4090 for the last few days and we're hard at work on content focusing on the firm's latest AI-based frame generation technology - DLSS 3.

Perffi lienee kunnossa jo ennen kuin dlss laitetaan päälle,...
First impressions on the RTX 4090 itself though? It's easily one of the biggest gen-on-gen increases in performance we've seen, even based on limited testing. 4K gaming for higher refresh rate monitors and TVs is not a problem on most modern titles - and by extension, 8K at 60fps is now viable if you're one of the crazy few (like me) that actually has an 8K TV. Combine that increase in performance with the new DLSS 3 - with its AI-based frame generation - and suddenly the most intense workloads in PC gaming play out with unerring fluidity.


Kai tuo 4090 antaa suurinpiirtein tuplatehon versus 3090ti rtx on peleissä samalla virrankulutuksella(450W). DLSS3 sit päälle niissä harvoissa peleissä missä se tulee toimimaan ja saa tuosta vielä tuplattua fps:n. VR:aan kelpais. Vois rendailla vaikka 72Hz natiivina ja sit dlss3:lla 144Hz:iin. Vois saada reson kohdalleen niin tulis terävää kuvaa vr:aan,... VR:ssa enivei on se pään asennon muutoksen kompensointi jo loppuvaiheessa niin se pelaa kivasti dlss3:en kanssa yhteen.

 
19.05.:
Näyttää kovin heppoiselta.. Toisista huhuista olen katsonut, että 400-500W kulutustakin on veikkailtu ja ei tuommoinen rimpula riitä. Tai sitten siellä on uusi Vapor Champer ja siitä puskee läpi teollisuustason turbiinituuletin (siis äänen ja RPM:n puolesta).

--

Tulin vaan tänne spekuloimaan, kun tuleminen on selvästi lähellä.

Itse ennustan, että sieltä tulee 2-3 mallia, sinne tonnin tai kalliimpien hintaluokkaan. Ne vanhentavat samalla kaikki 3080 Ti:stä ylöspäin, ainakin MSRP:llään. 3080 alkaa myydä MSRP:llä ja jos se on luokkaa $699/750€, niin se on vieläkin ihan fiksu ostos. (Tai sitten saatavuus on täysin olematon ohjehinnalla, mutta miksi sitten julkaista??)

Lisäksi Nvidia on huomannut, että ihmiset ostaa kaikkea, niin sieltä tulee se 400-500W TDP kortti ja se on kiuas. Mutta niinkuin i9-12900KS:n kanssa -> jätetään tämä vaan kuluttajan ongelmaksi ja tehdään kortti, joka on hyvin suunnitellussa ympäristössä absoluuttisen paras. Onko se iso piiri vai jopa kahden GPU:n yhdistelmä - en osaa veikata, mutta sen kellot on ainakin tapissa ja mitään kevyttä peruskäyttöä ei haeta , vaan parhautta testeissä. Kaikki mallit on OC Premium -malleja.

Sitten ne muutkin mallit tulevat kunnon jäähyillä ja tällä perustellaan sitä, että hintaluokka on $999+. Voi olla, että Asus Dualeja ja MSI Ventuksia ei nähdä tuossa hintaluokassa enää tulevaisuudessa. Ne on siihen midrangeen, joka julkaistaan myöhemmin. Ja se on aikaisintaan 11/2022 kaupoissa.

Ihan puhtaasti omia ennustuksia, jotka nyt on kirjallisena tässä. Insight on siinä, että en usko, että jos nyt ostaa RTX 3000-sarjaa ohjehintaan, niin tekee mitenkään huonot kaupat ja niiden arvo laskee. Todennäköisesti niiden arvo pysyy täysin ennallaan vuodenvaihteeseen saakka. Lisäksi ennustan, että Nvidia kyllä osaa rahastaa ja kallein Lovelace-malli on kallein kuluttaja-Geforce ikinä.

Voin tietenkin olla väärässä, mutta nyt olen viime vuosina osunut yhä paremmin maaliin ennustuksillani. Ja minua kiinnostaa keskustelu hintatasosta ennen ja jälkeen julkaisun.. Itsehän veikkaan, että se on alle tonnin hintaluokassa sama kuin nykyään..

Noin 4kk sitten osuin ennustuksillani kovin oikeaan :)
Tulin tänne vain huomauttamaan asiasta :)

--

Hinnassa olin kyllä väärässä, ellei katsota nykyisiä hintoja.. ja olihan se halvin 4080-vedätys $899.
 
No siis rasterointitehoa nahkatakkimies lupasi 25% siinä alkupuolella videota. Ei kyllä muistikuvaa oliko sillä jotkut kortitkin siinä esimerkkinä vai puhuiko yleisesti (vai puhuiko ylikellottamisesta).

Missään graafissa ko. lukemaa ei toki ollut ja pidättäydyttiin 2x tehoissa dlss ja rtx päälle laittamalla.
 
Niinpä olikin. No ei noissa missään current gen peleissä ole kyllä dlss3:a käytössä. Toi 50% on kyllä aika varmasti lähellä worst casea.
Ei ole kyllä nvidian omissa kalvoissa mikään lähelläkään worst casea.

Tämä julkaisu muistuttaa kovasti 2000-sarjan julkaisua, jossa 2080ti oli kova ja kallis ja muut jätti toivomisen varaa hinta/teho luokasta.
 
Viimeksi muokattu:
DLSS3 sit päälle niissä harvoissa peleissä missä se tulee toimimaan ja saa tuosta vielä tuplattua fps:n. VR:aan kelpais. Vois rendailla vaikka 72Hz natiivina ja sit dlss3:lla 144Hz:iin. Vois saada reson kohdalleen niin tulis terävää kuvaa vr:aan,... VR:ssa enivei on se pään asennon muutoksen kompensointi jo loppuvaiheessa niin se pelaa kivasti dlss3:en kanssa yhteen.

Kyllähän kelpais jos saisi vihdoin Reverb G2-kypärästä täyden resoluution irti DLSS3:n avulla, huh. Gamers Nexus (jonka hiusten halkomista en useinkaan jaksa kuunnella) tuossa uusimmalla videollaan jutteli, että DLSS3 olisi nimenomaan vahva CPU-rajoitetuissa peleissä, kuten minkä puolesta tuo MSFS:n suorituskyvyn väitetty kasvu myös todistaisi. Kyse ei siis olisi siitä miten itse näin maallikkona helposti saattaa ajatella, että Adan hyödyt valuisi reisille jos CPU rajoittaa. Totuus lienee päinvastainen. Tekoälyn myötä suuntaus taitaa olla vahvasti sen suuntainen, että pelaamisessa GPU on tulevaisuudessa entistä tärkeämpi suhteessa prossuun.
 
Tsekkasin humorilla niin hardware unboxed:lla ei ole mitään 4090 matskua vielä tuubissa. pcworld, io-tech jne. kuitenkin kerkesivät jotain tekemään. Ehkä se amd bias siellä näkyy HUB:in päässä. Ei HUB ole jaksanut twiittiäkään nvidiasta laittaa. Oletin löytäväni naljailua dlss3:sta, mutta ehkä rytisee myöhemmin kunhan amd kerkeää päivitellä hub:lle talking pointit.
Tuo on kyllä todella kaukana totuudesta... Mistä ihmeestä päättelit että HUB on jollain tavalla AMD bias? Yleensä jokaisessa vertailussa suosittelevat Nvidian korttia vaikka se on huomattavasti kalliimpi kuin AMD vastaava...
 
Ihan hyvältä päivitykseltä vaikuttaa tehojen osalta mutta hinnat kyllä sellaiset varsinkin euroalueella, että eipä tarvitse 3080:sta päivitellä ennen 5xxx sarjaa. Vähän kyseenalainen myös tuo oletetun 4070 mallin nimeäminen 4080 12GB:ksi. Kun pistetään 2 hinnaltaan täysin halo tuotetta (4080 16GB ja 4090) järjettömiin hintoihin niin päälle 1000€ kuulostaa jo kohtuulliselta, mutta silloin helposti unohtuu että tuo 4080 12Gb on todellisuudessa siis kaksinkertainen hinnalttaa verrattuna 3070 julkaisuun. Noh joo onhan tässä käytykkin syitä läpi miksi hinta näin ja noin, mutta eipä ainakaan ole itselle vaikea miettiä laitanko ennakkotilaukseen vai en.
Tai sitten 4070 tulee jokin kattaus erilaisia, pikkuvikaisia piirejä joista leikattu keskimäärin samankaltaista suorituskykyä. Ehkä ne odottaa vielä että epäkelvot 4080,90 piirivarasto täyttyy?
 
Postaan saman tähän ketjuun kuin mitä laitoin uutisketjuun. Olisi hyvä, jos keskustelu päätyisi yhteen ketjuun kahden tilalta. Ehkä joku uusi 4090,4080 ketju olisi paikallaan?

Hauska miten täysin samasta speksista ja esityksestä voi vetää niin monenlaista erilaista johtopäätöstä. Digital foundryn kommentteja alla. Tsekkasin huumorilla niin hardware unboxed:lla ei ole mitään 4090 matskua vielä tuubissa. pcworld, io-tech jne. kuitenkin kerkesivät jotain tekemään. Ehkä se amd bias siellä näkyy HUB:in päässä. Ei HUB ole jaksanut twiittiäkään nvidiasta laittaa. Oletin löytäväni naljailua dlss3:sta, mutta ehkä rytisee myöhemmin kunhan amd kerkeää päivitellä hub:lle talking pointit.



Perffi lienee kunnossa jo ennen kuin dlss laitetaan päälle,...



Kai tuo 4090 antaa suurinpiirtein tuplatehon versus 3090ti rtx on peleissä samalla virrankulutuksella(450W). DLSS3 sit päälle niissä harvoissa peleissä missä se tulee toimimaan ja saa tuosta vielä tuplattua fps:n. VR:aan kelpais. Vois rendailla vaikka 72Hz natiivina ja sit dlss3:lla 144Hz:iin. Vois saada reson kohdalleen niin tulis terävää kuvaa vr:aan,... VR:ssa enivei on se pään asennon muutoksen kompensointi jo loppuvaiheessa niin se pelaa kivasti dlss3:en kanssa yhteen.


Siis jos oikein ymmärsin he keskittyvät enemmänkin DLSS 3.0:n kokeilemiseen ja esille tuomiseen? Eli jos nyt sitä HUB:ia haukutaan, niin pitäisi tällaiset Nvidian valitsemat testaajat rajallisine testeineen ottaa myös suuren suola-annoksen kera tai jättää suosiolla omaan arvoonsa.

"So, the key questions facing the new techologies are straightforward: what is the quality level of the interpolated frames and to what extent does input lag increase or decrease based on frame buffering in combination with whatever mitigations Reflex provides. It's important to understand the limitations as well as the strengths: for example, esports players bank on higher frame-rates to reduce lag significantly - applications here will likely be limited. However, at the same time, seeing the most taxing of triple-A content running smoothly on my LG OLED CX at its max 120Hz refresh rate has been quite an experience.

We'll be aiming to cover these topics and more in broad strokes our content coming later this week but for now at least, the trailer above should give you some idea of the quality level of DLSS 3 and some of the tests we've been running.
"


Suomeksi, yksikään testi ei ole luotettava mikäli laitevalmistajalla on siinä nappinsa pelissä, kuten näissä "ennakkoarvosteluissa." Vihreät lasit olisi hyvä ottaa päästä pois vaikka uusi tuotejulkaisu aina kiiman saakin päälle.
 
Hauska miten täysin samasta speksista ja esityksestä voi vetää niin monenlaista erilaista johtopäätöstä.
Mitä nää monenlaiset erilaiset johtopäätökset ovat olleet? Et maininnut muita kuin tuon Digital Foundry lyhyet tiiseritekstit, joissa nyt ei juuri kommentoida kuin suorituskykyä.
 
Tuo on kyllä todella kaukana totuudesta... Mistä ihmeestä päättelit että HUB on jollain tavalla AMD bias? Yleensä jokaisessa vertailussa suosittelevat Nvidian korttia vaikka se on huomattavasti kalliimpi kuin AMD vastaava...

Totuus lienee katsojan silmässä. Mun silmiin HUB ei todellakaan vaikuta objektiiviselta taholta. Tai ehkä se on heidän tarkoituskin, kun arvostelut tehdään hyvin kapeasta näkökulmasta eli max reso, max textuurit, max fps ja säteenseuranta on saatanasta, kun tehot ei riitä. Onko tämä sitten amd bias vai niiden oikea mielipide asiasta, en osaa sanoa. Katsotaan nyt mitä 40x0 ja rdna3 arvosteluissa sanovat, että tuleeko objektiivisempaa settiä vai mennäänkö arvosteluissa amd:n vahvuudet on paras juttu koskaan kulma edellä.
 
Totuus lienee katsojan silmässä. Mun silmiin HUB ei todellakaan vaikuta objektiiviselta taholta. Tai ehkä se on heidän tarkoituskin, kun arvostelut tehdään hyvin kapeasta näkökulmasta eli max reso, max textuurit, max fps ja säteenseuranta on saatanasta, kun tehot ei riitä. Onko tämä sitten amd bias vai niiden oikea mielipide asiasta, en osaa sanoa. Katsotaan nyt mitä 40x0 ja rdna3 arvosteluissa sanovat, että tuleeko objektiivisempaa settiä vai mennäänkö arvosteluissa amd:n vahvuudet on paras juttu koskaan kulma edellä.

Nvidian korteilla pitää pelata low asetuksilla? Aika erikoiset perustelut...
 
Nvidian korteilla pitää pelata low asetuksilla? Aika erikoiset perustelut...
En tajua, nimenomaan high asetuksilla, kun säteenseuranta päälle ja dlss:lla lisää fps:aa. DLSS:n uusimmat versiot on melkoisen priimaa amperella.
 
Onko näissä muuten se display port 2.0 vai tuhnuttiko sekin vielä?
Itsekin olin just tulossa kysymään moisesta kun en nähnyt nahkiksen ainakaan mainitsevan että olisi DP2.0.

Koska ainakin uudessa ADA arkkitehtuuriin pohjautuvassa RTX6000 (48Gb) työasemakortissa on vain DP 1.4.
 
Totuus lienee katsojan silmässä. Mun silmiin HUB ei todellakaan vaikuta objektiiviselta taholta. Tai ehkä se on heidän tarkoituskin, kun arvostelut tehdään hyvin kapeasta näkökulmasta eli max reso, max textuurit, max fps ja säteenseuranta on saatanasta, kun tehot ei riitä. Onko tämä sitten amd bias vai niiden oikea mielipide asiasta, en osaa sanoa. Katsotaan nyt mitä 40x0 ja rdna3 arvosteluissa sanovat, että tuleeko objektiivisempaa settiä vai mennäänkö arvosteluissa amd:n vahvuudet on paras juttu koskaan kulma edellä.
Anteeksi mitä?:D Nyt oli kyllä melkoiset syyt AMD-biakselle. Onkohan se bias toisella puolella ruutua. Vai että maksimiasetukset testeissä ovat pahasta...
En tajua, nimenomaan high asetuksilla, kun säteenseuranta päälle ja dlss:lla lisää fps:aa. DLSS:n uusimmat versiot on melkoisen priimaa amperella.
Ja vertailukelpoisuus testeissä korttien välillä saavutetaan... kuinka? Mikäli osalla korteista käytössä on DLSS ja ties mikä ja toisilla ei, edes Nvidian kortit eivät olisi vertailukelpoisia keskenään.
 
En tajua, nimenomaan high asetuksilla, kun säteenseuranta päälle ja dlss:lla lisää fps:aa. DLSS:n uusimmat versiot on melkoisen priimaa amperella.

Eli sitten on objektiivinen vertailu kun verrataan Nvidia DLSS vs. AMD natiivi?
Onkohan sittenkään HUB se joka ei ole objektiivinen?

Olihan siellä säteenseuranta pelejä mukana vaikka viimeisimmässä 3070 vs. 6800 testissä.
 
Totuus lienee katsojan silmässä. Mun silmiin HUB ei todellakaan vaikuta objektiiviselta taholta. Tai ehkä se on heidän tarkoituskin, kun arvostelut tehdään hyvin kapeasta näkökulmasta eli max reso, max textuurit, max fps ja säteenseuranta on saatanasta, kun tehot ei riitä. Onko tämä sitten amd bias vai niiden oikea mielipide asiasta, en osaa sanoa. Katsotaan nyt mitä 40x0 ja rdna3 arvosteluissa sanovat, että tuleeko objektiivisempaa settiä vai mennäänkö arvosteluissa amd:n vahvuudet on paras juttu koskaan kulma edellä.

Se RT:n vähyys oli niillä kyllä kanavan polleista johtuva, kun kyselivät miten ne haluavat testattavan. Tosiaalta se taisi olla se ensimmäinen kanava, joka testasi DLSS 2.0:n ja kehuivat sitä silloin kovasti, tekivät sen AMD ajuri jutun ja ovat kyllä useammassa testissä todenneet, että tässä hintaluokassa nvidia on parempi. 3090:n ja 6900XT:n ne tehoista huolimatta tavallaan haukkuivat, kun totesivat, että koska 3080/6800XT ovat olemassa, niin näin paljoa extraa ei kannata maksaa tästä teholisäyksestä. Bias on enemmänkin perf/€ osastolla, kuin max fps.

Vastaavasti Digital Foundry sai Amperen ennakkotestiin ennen muita medioita ja jos ne nyt pamauttaa DLSS 3.0 testit ulos ennen muita medioita, niin pitäisikö siitä päätellä Nvidia biasta? No pikemminkin ko. kanava elää 3d tekniikkavertailuista (eikä rauta-arvosteluista), niin se on todennäköisempi syy miksi ne suostuu todella tiukasti rajattuihin ennakkotesteihin.
 
Se RT:n vähyys oli niillä kyllä kanavan polleista johtuva, kun kyselivät miten ne haluavat testattavan. Tosiaalta se taisi olla se ensimmäinen kanava, joka testasi DLSS 2.0:n ja kehuivat sitä silloin kovasti, tekivät sen AMD ajuri jutun ja ovat kyllä useammassa testissä todenneet, että tässä hintaluokassa nvidia on parempi. 3090:n ja 6900XT:n ne tehoista huolimatta tavallaan haukkuivat, kun totesivat, että koska 3080/6800XT ovat olemassa, niin näin paljoa extraa ei kannata maksaa tästä teholisäyksestä. Bias on enemmänkin perf/€ osastolla, kuin max fps.

Vastaavasti Digital Foundry sai Amperen ennakkotestiin ennen muita medioita ja jos ne nyt pamauttaa DLSS 3.0 testit ulos ennen muita medioita, niin pitäisikö siitä päätellä Nvidia biasta? No pikemminkin ko. kanava elää 3d tekniikkavertailuista (eikä rauta-arvosteluista), niin se on todennäköisempi syy miksi ne suostuu todella tiukasti rajattuihin ennakkotesteihin.

Odottelen ihan rauhassa lopulliset testit ada ja rdna3 myös ulos. Sit kun on molemmat arvostelut luettu monesta lähteestä ja sulateltu luettu niin voi vetää johtopäätöksiä suuntaan tai toiseen. Mä en usko, että dlss3 voi toimia kuin hyvin rajatuissa tapauksissa. dlss3 voi hyvinkin olla dlss1 kaltainen fiasko arvauksineen ja ei käyttökelpoinen. Ehkä just joku flight simulator on paras tapaus dlss3:lle, kun on paljon melko staattista sisältöä mitä voi arvailla kuvien väliin, mutta toimiiko peleissä missä on paljon arvaamattomasti animoituvaa ja liikkuvaa sisältöä niin tuskin.
 
Hardware unboxed on niin amd biased lähde kuin voi olla. Lähtisin jonkin muun saitin kautta katsomaan 3rdparty tuloksien keskiarvoja.
Njaa, en tiiä mitä he ovat sanoneet mikä on sinua loukannut. Itse en ole huomannut mitään suosimista kumpaakaan leiriä kohtaan ja vuosia olen kanavaa seurannut.
 
Itse odotan kieli pitkällä uutta DLSS:ää, nuo interpoloidut väliframet voi toimia tosi hyvin, jos liikettä on vähän. Sitten kun liikutaan paljon kerralla ja ruudun reunasta tulee uutta materiaalia (vaikka tekstiä), niin on mielenkiintoista nähdä, miten se siitä selviytyy. Esimerkkiskenaariona vaikka käännän pelissä päätä vasemmalle ja sieltä tulee kyltti, jossa tekstiä. Tekstiä edelleen sen takia, että se on AI:lle vaikeaa. Varsinkaan, jos sitä ei sillä kyseisellä tekstillä ole treenattu.
Jos toimii hyvin, niin voinen vihdoinkin pelata 4K-televisiostani täysillä herkuilla (pl. resoluutio). En tule ostamaan 4090:ia, mutta noita muita voin katsella.
 
Ehkä olen liian pessimistinen tuon dlss3:en suhteen. Nvidian työntekijöiden kommentteja twitterissä dlss3:en käyttämään teknologiaan liittyen. Menee yli mun hilseen. Tarvii tsekata onko gtc puheissa tuosta lisää ja laittaa pyörimään jos on





 
Eniten mua kiinnostaa miten tuo optical flow tuo artifakteja kuvaan, esimerkiksi video editointi maailmassa oleva optical flow videoiden hidastukseen tuottaa ihan järjettömästi artifakteja tietynlaisissa skenaarioissa.
 
Ehkä olen liian pessimistinen tuon dlss3:en suhteen. Yksi ex apple/google nykyään nvidia heebo kommentoi twitterissä dlss3:en käyttämää teknologiaa. Menee yli mun hilseen. Tarvii tsekata onko gtc puheissa tuosta lisää ja laittaa pyörimään jos on

Kuvasta lasketaan motion vectorit, niinkuin ainakin ennenkin (FSR 2.0 + XeSS tekee samoin). Mutta niitä käytetään ennustamaan seuraava kuva. Ehkä jotain muutakin tietoa, mutta tässä ennustetaan - ei interpoloida..

Eli ei oteta kahta kuvaa, lasketa niistä keskiarvo ja pistetä sitä väliin. Se aiheuttaisi lagia/latenssia, koska se seuraava kuva pitäisi olla valmiina, että voidaan laskea keskiarvo..Sitten se tulee ruudulle vasta keskiarvokuvan jälkeen ja siitä tosiaan tulisi viivettä. Ei tälläistä. Ennustetaan.

--

Uusi käsite tässä on optical flow ja siinä uutena hienona asiana se, että ne uudet framet tulevat edellisten perusteella. Tämä aiheuttaa ongelmia, jos uudessa framessa on materiaalia, jota ei ollut aiemmassa kuvassa. Esim. kävellään taaksepäin tai katsotaan oikealle. Sitten ruudun reunalta/reunoilta tulee materiaalia, jota ei ollut olemassa aiemmin ja sitä pitäisi ennustaa puolityhjästä. Tämä on erityisesti valon ja varjon kanssa vaikeaa. Katsotaan nyt, miten nämä haasteet on ratkaistu, mutta siellä on näitä mietitty meitä enemmän.
 
Viimeksi muokattu:
Eli ei oteta kahta kuvaa, lasketa niistä keskiarvo ja pistetä sitä väliin. Se aiheuttaisi lagia/latenssia, koska se seuraava kuva pitäisi olla valmiina, että voidaan laskea keskiarvo..Sitten se tulee ruudulle vasta keskiarvokuvan jälkeen ja siitä tosiaan tulisi viivettä. Ei tälläistä. Ennustetaan.

Eli vältetään normaali telkkari-motion-interpolaation tuomat järkyttävät latenssit koska uusin kuva on ennustus tilanteesta hieman ennen seuraavaa kuvaa, mutta ei silti muuta sitä ongelmaa että jos inputtia pollataan ja pelisimulaatiota päivitetään vain natiivinopeudella, ellei tuo nopeus ole tarpeeksi korkea, peli tuntuu lagiselta vaikka mittarissa olisi iso numero.

Eli kärjistäen: Jos peli pyörii natiivina 20fps, siitä normaali DLSS upscalella saadaan nostettua "oikea" päivitysnopeus 40fpsään niin sen jälkeen kun lisätään toiset 40fps ennustettuja frameja ja saadaan OMG 80fps!!! niin pelituntuma on silti edelleen sama kuin 40fps tilanteessa, vaikka sivustakatsoja voikin ihastella pehmeämpää ruudunpäivitystä ja isompaa numeroa mittarissa. Saa nähdä miten toimii käytännössä, mutta oma epäilys on että jos natiivi-päivitysnopeus ei ole riittävän korkea, DLSS3 ei tarjoa hyvää kokemusta.

Ja toisesta päästä tulee sitten se ongelma että tämän ennustetun kuvan generointi vie jonkin verran aikaa ja se todennäköisesti on kiinteä aika (resoluutiosta riippuvana) joka asettaa eräänlaisen capin siihen kuinka nopeasti peli voi pyöriä. Esimerkin perusteella ainakin jostain 40-50fps vauhdista (se cyperpunkki-esimerkki) saadaan tuplattua, mutta jos peli onkin nopeatempoista räiskintää ja mittarissa on natiivina vaikkapa 144fps, siitä tuskin saadaan 300fps sille hirmuiselle 360hz TN panelille ja vaikka saataisiin, edelleen inputteihin peli reagoi 144fps mukaan.
 
Tjaa a. Massiiviset tehonlisäykset olikin DLSS kristallipallo, joka arpoo miltä peli mahdollisesti näyttää seuraavalla framella :bored:

Eniten hiertää kuitenkin tuo uusien korttien hintataso.
 
On sen verran raskasta peliä tulossa (mm. Atomic Heart, Stalker, Plague Tale), jotta tuo DLSS3 on varmasti tarpeen. Jos se näyttää hyvältä ja suoriutuu hyvin, niin on kyllä tervetullut teknologia!
 
On sen verran raskasta peliä tulossa (mm. Atomic Heart, Stalker, Plague Tale), jotta tuo DLSS3 on varmasti tarpeen. Jos se näyttää hyvältä ja suoriutuu hyvin, niin on kyllä tervetullut teknologia!
Ei varmaan kuitenkaan niin raskaita että 2 tonnin näytiksellä tarviaisi oikeasti skaalaimia käytellä, mutta tähän ollaan tultu.
 
Miten DLSS 3.0 ja ASW toimivat yhteen VR:ssä?

Vois kuvitella, että dlss3:lla generoitaisiin kuvat ja asw:lle jäisi vain päänasennon kompensointi tehtäväksi. Tyyliin peliengine rendaa 60/72Hz, dlss3.0 antaa 120/144Hz ulos ja ASW säätää kuvaa päänasennon muutoksen verran ennen näyttämistä.
 
Ei varmaan kuitenkaan niin raskaita että 2 tonnin näytiksellä tarviaisi oikeasti skaalaimia käytellä, mutta tähän ollaan tultu.

Eiköhän se päätarkoitus ole yrittää saada pirkka-näydäreiden 4K-lukemat tasolle "playable" vaikka puolet siitä onkin ihan itse keksittyjä frameja. Jos Jonne Kasuaalipelaaja lähtee shoppaamaan uutta korttia kun vanhasta 1060 3GB aika jättää ja AMD myy korttia jonka arvostelumittarissa on 4K resolla 30fps ja NVIDIA myy samaan hintaan korttia jonka arvostelumittarissa Superpunk 3099 onkin 60fps, niin kummankohan Jonne Kasuaali ostaa?

Eikä tämä efekti tarvitse kuin pari Jonne Kasuaalille tärkeää peliä jossa tuki on ja muissa ollaan sitten tasoissa kilpailevan kortin kanssa niin valuet on heti kohdallaan. Jopa pientä lisähintaakin tuosta maksaisi.
 
Vähän kyseenalainen myös tuo oletetun 4070 mallin nimeäminen 4080 12GB:ksi. Kun pistetään 2 hinnaltaan täysin halo tuotetta (4080 16GB ja 4090) järjettömiin hintoihin niin päälle 1000€ kuulostaa jo kohtuulliselta, mutta silloin helposti unohtuu että tuo 4080 12Gb on todellisuudessa siis kaksinkertainen hinnalttaa verrattuna 3070 julkaisuun.

Tuossahan on klassinen hinnoittelu-kikka kyseessä, jota esim. starbucks käyttää kahvikokojen kanssa. Laitetaan 1 kallis jättikahvi, 1 vähän halvempi keskikokoinen, ja vähän halvempi selvästi pienin, jolloin suurin osa ihmisistä ostaa keskikokoisen. Nyt se pienin eli 4070* tulee olemaan niin paljon hitaampi mutta vain vähän halvempi kuin 4080, että moni valitsee tietenkin 4080. Paitsi että kahvivertaus ontuu tässä kohtaa, koska 4090 tulee olemaan reilusti 4080 tehokkaampi, eli moni päivittää 4090 asti, kun se ei ole enää paljoa kalliimpi. Bisnes-mielessä nerokasta Nvidia, pakko myöntää.

*4070 tarkoitan tästä eteenpäin 4080 12gb -versiota. Kieltäydyn käyttämästä tuosta 4080 12gb -nimitystä siihen asti kunnes 4070 launchaa. Ihan oikeasti Nvidia...

Ujosti haaveilin päivittäväni 4080, mutta ei perkule noissa hinnoissa ole enää mitään järkeä. 3070ti päivittämisestä tuli jo morkkis. Nyt on pakko skipata Nvidian porfolio. Lisää FPS kyllä 4k kaipaisi. Enter AMD. Oon jo luovuttanut kaiken munuaisista korviin, joten aika rajua perf / dollaria saa AMD tarjota, jotta päivitän.
 
Sanoisin että 700€ jälkeen ei voi sanoa massoille tarkoitetuksi tuotteeksi näyttistä.
Voi jättää ne 4k 240hz pelailut myöhemmäksi, ehkä se 4nm tsmc on liian kallis prosessi tässä vaiheessa.
 
Kaikki jäitä hattuun, luodaan ostaja-kartelli (vai mikä nyt parhaiten kuvastaa) ja odotetaan kunnes sekä Nvidia että AMD ovat saaneet vekottimensa testaajien tuomioitavaksi ja siihen vielä hintakilpailut lisäksi niin jos vaikka hiihtolomaksi sitten uutta piirtolaskuria koneeseen :) Jos olis vesiblokkejakin jo tarjolla ja niiden lämpötyynyjen paksuus selkee.

DLSS on hieno homma jos se Quality asetus riittää että fps alkaa nousta reilusti, jos tulee lisää puuro-asetuksia niin turha sitä on käyttää kuvaa sotkemaan. Vähän kuin SLI:n korvaaja ilman microstutteria.
 
Oliko se Apple vai Samsung joka ekana toi markkinoille sen tonnin maksavan puhelimen, kauhisteltiinhan ensin sitäkin että "ei helvetti, TONNI PUHELIMESTA?!!" Ja nykyään on sitten ihan normaalia että huippuluuri maksaa 1500-2000 rahaa...

Tässä aivan sama ilmiö kyseessä. Ihmiset pikkuhiljaa tottuvat siihen että huipputuotteet maksavat helvetisti ja keskihintakin nousee mutta kukaan ei kyseenalaista tätä, miksi ei?

Ostaako noita kukaan? Hinnoitella saa, mutta puhelimiestakaan en yli tonnia koskaan maksa.

Nyt on tullut aika lopetella peliharrastus. Kun pelikone maksaa auton verran, teen mieluummin jotain muuta,
 
Öööhhh siis täh, miten niin muka ei osta jos haluaa/tarvitsee ne tietyt ominaisuudet joita just se valmistaja tarjoaa? Applella ei tällä hetkellä ole esim Iphone 14 mallia joka maksais alle tonnin, jos uuden Omppupomppupuhelimen haluat niin alapa kaivaa kuvetta. Vaihtoehtoja ei ole jos just sen uuden ja hienon lelun haluat. Jos vanhempi malli kelpaa niin sitten eri asia.

Ja ne jotka näitä uusia näytönohjaimia tarvitsee niin kaks vaihtoehtoa.... Maksa ittes kipeäks julkasussa tai odota että hinnat järkevöityy.
 
Mistä tuo tieto peräisin?

Kuvaajassa kerrotaan että DLSS uutuudet käytössä "when applicable". Sekä MSFS että Warhammer on DLSS 3 listalla.

Juu niinpä onkin.

Sekin mahdollisuus tosiaan kannattaa ottaa huomioon, että kun 4090:n rasterointiteho Tera FLOPSeissakin on jo niin kova, että CPU voi tulla pullonkaulaksi jopa 4k resolla useammassa pelissä. Varsinkin open World pelit on aika prossuriippuvaisia, kun striimataan paljon assetteja lennossa. Varmaan jotkut synteettiset ja puhtaat GPU benchit antaa parempaa kuvaa itse GPU:n tehon noususta. Tai sitten pitäisi ajaa jotain 8k benchejä useissa peleissä.
 
Viimeksi muokattu:
Ostaako noita kukaan? Hinnoitella saa, mutta puhelimiestakaan en yli tonnia koskaan maksa.

Ostaa niitä jotkut. Ostetuimpien listoilla on käytännössä kohtuullisen halpaa puhelinta ja iphonea.

Mutta onhan toi puhelinvertaus ylipäänsä vähän omituinen. Puhelimia ostaa käytännössä jokainen, näyttiksiä vain pelaajat ja ne, jotka tarttee työhön, joten aika vaikea vertailla keskenään.
 
*4070 tarkoitan tästä eteenpäin 4080 12gb -versiota. Kieltäydyn käyttämästä tuosta 4080 12gb -nimitystä siihen asti kunnes 4070 launchaa. Ihan oikeasti Nvidia...

Ujosti haaveilin päivittäväni 4080, mutta ei perkule noissa hinnoissa ole enää mitään järkeä. 3070ti päivittämisestä tuli jo morkkis. Nyt on pakko skipata Nvidian porfolio. Lisää FPS kyllä 4k kaipaisi. Enter AMD. Oon jo luovuttanut kaiken munuaisista korviin, joten aika rajua perf / dollaria saa AMD tarjota, jotta päivitän.
Samansuuntaiset ajatukset. Itse haaveilin päivityksestä 3060Ti -> 4070, mutta kun tämän nyt julkaistun "4080:ksi brändätyn 4070:n" hinta on yli tonnin, niin alkaa houkuttelemaan sittenkin 3070 tai 3070Ti. Saatavuus kuitenkin vielä hyvä ja hinnat alkaen ~600 euroa. Tai jopa 3080 siitä 800 eurosta alkaen. Mutta pitää nyt odotella ne OIKEAT suorituskykytestit ennenkuin tekee mitään.
 
Jos ihmiset ei ostaisi näitä sika hintaisia näytönohjaimia, niin saataisiin hinnat tippumaan.
 
Odotellaan rauhassa... 2080ti pyörii edelleen koneessa ja ultrawide vaatis vähä lisää tehoa mutta ei niin paljoa että alkaisin maksaa 1300e näyttiksestä... Millonkas nämä kortit on testaajilla käsissä ja millon se nda loppuu että nähdään oikeita lukemia?
 
Ostaako noita kukaan? Hinnoitella saa, mutta puhelimiestakaan en yli tonnia koskaan maksa.

Nyt on tullut aika lopetella peliharrastus. Kun pelikone maksaa auton verran, teen mieluummin jotain muuta,

Eiköhän niitä löydy halvempiakin koneita. Vähän aikaa sitten oli esim. 6900XT myynnissä 700 EUR hintaan ja ei ollut vielä edes uusi sukupolvi myynnissä. Sitten 3060 saa jo nyt uutenakin alle 400. Hyvän pelikoneen saa edelleen taas noin tonnilla. Käytettyihin tulee kanssa kovaa hintapainetta taas, kun uudet sukupolvet oikeasti tulevat myyntiin.
 
Odotellaan rauhassa... 2080ti pyörii edelleen koneessa ja ultrawide vaatis vähä lisää tehoa mutta ei niin paljoa että alkaisin maksaa 1300e näyttiksestä... Millonkas nämä kortit on testaajilla käsissä ja millon se nda loppuu että nähdään oikeita lukemia?

Olikos se lokakuun 12 päivä. Kuulin jostain (olikohan Jayz, varmaksi en muista) kommentteja, että arvosteluja voisi odottaa 11pv tai 12pv tuosta 4090:sta.
 

Uusimmat viestit

Statistiikka

Viestiketjuista
258 257
Viestejä
4 487 766
Jäsenet
74 190
Uusin jäsen
puririri

Hinta.fi

Back
Ylös Bottom