Säteenseuranta, RTX, DirectX - Uusi turha hype vai oikeasti toimiva?

Tuli viimein minullekin vastaan peli, jossa säteenseuranta on tuettuna ja se näyttää joltakin. Eli aloin pelaamaan vanhalla RTX 2070:llani Cyberpunkkia ja testailin eri RTX-asetuksia. Eihän niitä sulavasti saanut toimimaan 1440p:llä, mutta pääsipähän kokeilemaan ja hienoltahan tuo silmäkarkki näytti. Tämä oli kumminkin ensimmäinen peli omassa valikoimassa, jossa säteenseuranta oli sen jälkeen kun ko. kortin ostin joskus 2018-1019. Kun tuo eka peli tuli vastaan niin tuon ominaisuuden päälle laittaminen, teki siitä pelikelvottoman, koska ruudunpäivitys tippui niin paljon. Lieneeköhän tämän 4000-sukupolven kovimmat kortit nyt ensimmäisiä, joilla tuo säteenseuranta toimii varsin kivutta ja silloinkin on usein edessä valinta 1440p vs 4k resoluution välillä. Hieno teknologia teoriassa, mutta aika monta graffukorttia on myyty joilla sillä ei ole ollut mitään käyttöä. Nuo RTX 3050:t joilla viime sukupolvessa mainostettiin säteenseurantaa olivat kanssa melkoinen vitsi, ei ole varmaan sellaista peliä ja resoluutiota olemassakaan millä ko. kortilla kannattaisi säteenseuranta kytkeä päälle.

DLSS on sen sijaan tullut jo useamminkin vastaan teknologiana, joka on auttanut pitämään korttia pidempään. DLSS 1 versio oli aika huono, se taisi tulla Anthemissa vastaan ja kuvanlaadun droppi oli niin iso, että sitä ei oikeastaan viitsinyt pitää päällä vaikka FPS olisi kasvanutkin. Sitten on pikkuhiljaa tullut noita DLSS 2 implementaatioita ja ne on tullut laitettua lähes järjestään päälle aina balanced tai quality -asetuksilla. FPS on noussut ja pelaamisesta on tullut mukavampaa. Cyberpunkissa testasin sitten myös FSR-asetusta DLSS:n lisäksi ja se oli varsin karmiva. Kuvaan tuli jotain ihmeellistä rakeista häiriötä minne sattuu. Sanoisin, että tällä hetkellä DLSS on itselle se killeriominaisuus, joka pelaa vahvasti Nvidian pussiin. RTX näyttäytyy hienona potentiaalina ja pohdituttaa nyt ensimmäistä kertaa, että "joko se olisi tarpeeksi kypsä oikeasti käyttöön". Aika rajalla mennään kuitenkin edelleen. nykymonitorillani varmaan käyttäisin sitä defaulttina RTX 4080:n tai 4090:n kanssa. Muiden kanssa pohtisin tapaus kerrallaan, että onko se valtava hitti fps:ään karkin arvoinen. Eli melkoinen turhake on tähän asti ollut ja nyt itselle näyttää validilta, kun mennään Suomen hinnoilla 1550-2800 euron pelkkiin näyttiksiin.
 
Viimeksi muokattu:
Tuli viimein minullekin vastaan peli, jossa säteenseuranta on tuettuna ja se näyttää joltakin. Eli aloin pelaamaan vanhalla RTX 2070:llani Cyberpunkkia ja testailin eri RTX-asetuksia. Eihän niitä sulavasti saanut toimimaan 1440p:llä, mutta pääsipähän kokeilemaan ja hienoltahan tuo silmäkarkki näytti. Tämä oli kumminkin ensimmäinen peli omassa valikoimassa, jossa säteenseuranta oli sen jälkeen kun ko. kortin ostin joskus 2018-1019. Kun tuo eka peli tuli vastaan niin tuon ominaisuuden päälle laittaminen, teki siitä pelikelvottoman, koska ruudunpäivitys tippui niin paljon. Lieneeköhän tämän 4000-sukupolven kovimmat kortit nyt ensimmäisiä, joilla tuo säteenseuranta toimii varsin kivutta ja silloinkin on usein edessä valinta 1440p vs 4k resoluution välillä. Hieno teknologia teoriassa, mutta aika monta graffukorttia on myyty joilla sillä ei ole ollut mitään käyttöä. Nuo RTX 3050:t joilla viime sukupolvessa mainostettiin säteenseurantaa olivat kanssa melkoinen vitsi, ei ole varmaan sellaista peliä ja resoluutiota olemassakaan millä ko. kortilla kannattaisi säteenseuranta kytkeä päälle.

DLSS on sen sijaan tullut jo useamminkin vastaan teknologiana, joka on auttanut pitämään korttia pidempään. DLSS 1 versio oli aika huono, se taisi tulla Anthemissa vastaan ja kuvanlaadun droppi oli niin iso, että sitä ei oikeastaan viitsinyt pitää päällä vaikka FPS olisi kasvanutkin. Sitten on pikkuhiljaa tullut noita DLSS 2 implementaatioita ja ne on tullut laitettua lähes järjestään päälle aina balanced tai quality -asetuksilla. FPS on noussut ja pelaamisesta on tullut mukavampaa. Cyberpunkissa testasin sitten myös FSR-asetusta DLSS:n lisäksi ja se oli varsin karmiva. Kuvaan tuli jotain ihmeellistä rakeista häiriötä minne sattuu. Sanoisin, että tällä hetkellä DLSS on itselle se killeriominaisuus, joka pelaa vahvasti Nvidian pussiin. RTX näyttäytyy hienona potentiaalina ja pohdituttaa nyt ensimmäistä kertaa, että "joko se olisi tarpeeksi kypsä oikeasti käyttöön". Aika rajalla mennään kuitenkin edelleen. nykymonitorillani varmaan käyttäisin sitä defaulttina RTX 4080:n tai 4090:n kanssa. Muiden kanssa pohtisin tapaus kerrallaan, että onko se valtava hitti fps:ään karkin arvoinen. Eli melkoinen turhake on tähän asti ollut ja nyt itselle näyttää validilta, kun mennään Suomen hinnoilla 1550-2800 euron pelkkiin näyttiksiin.


Kyllä 3080 tai 3070 jo jaksaa aika hyvin pyöritellä säteen seurantaa, varsinkin DLSS kanssa. Toki 4k resolla alkaa olla jo haasteita osassa pelejä.
 
Näin jälkiviisaana voi todeta että Nvidia oli fiksu kun paketoi DLSS:n ja säteenseurannan samaan syyssyyn RTX-korttien kaa, totesivat jos 2000-sarjaa suunnitellessa että "ei tsiisus, tää säteenseuranta on niin intensiivistä että tähän on pakko keksiä joku järkevä yliskaalausteknologia samaan pakettiin". Nyt viimeaikojen uusimmat säteenseurantapelit on osoittautuneet super raskaiksi CPU:ille (Witcher 3 Enhanced, Spider-Man) joten DLSS 3 on tulossa siihenkin onneks hätiin.

Mä tässä just hommasin ekan RTX-kortin (2080 Super) ja sen kunniaksi pelasin Portal with RTX:n läpi. Se oli hyvin mielenkiintoinen kokemus ihan vaan senkin takia että mun piti pyörittää peliä 1080p DLSS Ultra Performance modella jotta sai yli 60fps eli peli renderöi sisäisesti 360p resoluutiolla! :rofl:

Myönnettäköön että kuvanlaatu oli kylla aika raffi mutta tossakin kokemuksessa näkee jo tulevaisuuden: rakennetaan koko pelin valaistus säteenseurantaan, painetaan vaan play nappulaa simulaatiossa ja antaa säteenseurannan valaista peli. En kyllä muista ikinä nähneeni tollaista valaistusta aikasemmissa peleissä jotka on valaistu rasterointitekniikoilla. Mokoma laskenta laittaa ison paineen näytönohjaimen suorituskykyyn mutta siihen tulee sitten hätiin kuvan älykäs yliskaalaus ja rekonstruktio.

Jos Control oli eka kunnon pelinavaus, Metro Exodus Enhanced toka (en tätä vielä pelannut), niin Portal RTX olis imo seuraava kunnon showcase mihin tällä säteenseurannalla kykenee. Jos jengiltä löytyy RTX-kortteja niin suosittelen rohkeasti kokeilemaan Portalia, kattoo vaikka DF:n videon aiheesta miten saada toi monsteri pyörimään myös vähän vanhemmilla RTX-korteilla.
 
Tässä punaisesta leiristä huutelen että kun oon viime aikoina pelannut RDR2:sta niin on herännyt kysymys että mihin sitä säteenseurantaa tarvitsee kun tuo peli rullaa erittäin nätisti ja hyvillä asetuksilla 3440 x 1440 -resolla ja on heijastusta ja nättiä varjoa jne. Kai se helpottaa ohjelmointia aika tavalla tms, mutta toivoa sopii että tuosta ei tule semmoinen grafiikkatemppu mikä yleistyy niin pahasti että pelit on pilalla ilman sitä.
 
Tässä punaisesta leiristä huutelen että kun oon viime aikoina pelannut RDR2:sta niin on herännyt kysymys että mihin sitä säteenseurantaa tarvitsee kun tuo peli rullaa erittäin nätisti ja hyvillä asetuksilla 3440 x 1440 -resolla ja on heijastusta ja nättiä varjoa jne. Kai se helpottaa ohjelmointia aika tavalla tms, mutta toivoa sopii että tuosta ei tule semmoinen grafiikkatemppu mikä yleistyy niin pahasti että pelit on pilalla ilman sitä.

RT mahdollistaa aidon näköisen valaistuksen tekemisen minimaalisella työllä ja se valaistus toimii heti kaikissa skenaariossa. Perinteisillä menetelmillä graafikot asettelee käsin kymmeniä valo probeja esim. yhteen huoneeseen ja käyttävät isoja tuntimäärä siihen, että valaistus näyttäisi suht luonnolliselle, eikä silti päästä samaan tasoon, mitä RT mahdollistaa.

Joten Kyllä. Siitä tulee juurikin semmoinen "temppu", että pelit on musta ruutu ilman sitä. Eli ei voi edes käynnistää ilman. Siihen toki menee vielä vuosia, että konsoleissakin on semmoista rautaa, että koko pelit rendataan RT:llä.

Toki välivaiheessakin saatetaan PC:llä nähdä pelejä, jotka on tehty RT valaistuksella ja saattavat vaatia RT rautaa, että edes käynnistyvät. Metro Exodus Enhanced edition on jo semmoinen, että ei voi ilman RT rautaa edes käynnistää.
 
Nojaa. RT efektien koodausta vähentävä työ on todennäköisesti historiaa kohtuullisen lyhyellä aikavälillä. AI todennäköisesti generoi meille noi skenet käytännössä valmiiksi ja graafikot lähinnä vastaavat kyllä ja ei eri vaihtoehtoihin. Kyse kun on aika pitkälle vain mallin opettamisesta (joka toki kestää hetken).

Tämän jälkeen tuota on aika vaikea pelikehityksessä perustella millään kustannussäästöllä. Saatetaan se toki tehdä RT pohjaisena jatkossa myös jos se on markkinoinnillisesti järkevää.
 
RT mahdollistaa aidon näköisen valaistuksen tekemisen minimaalisella työllä ja se valaistus toimii heti kaikissa skenaariossa. Perinteisillä menetelmillä graafikot asettelee käsin kymmeniä valo probeja esim. yhteen huoneeseen ja käyttävät isoja tuntimäärä siihen, että valaistus näyttäisi suht luonnolliselle, eikä silti päästä samaan tasoon, mitä RT mahdollistaa.

Itse kyllä uskon, että enginen työkalut ottaa aikatavalla koppia tuosta käsityöstä. Tyyliin graafikko tunaa kenttiä säteenseuranta päällä ja engine laskee siitä mahdollisimman lähelle menevän perinteisen valaistuksen, eikä sitä enää hierota käsin. RT päällä se vain näyttää nätimmälle ja käyttäytyy aidommin muuttuvissa olosuhteissa.

Lopulta tuostakin päästään eroon, mutta menee vielä aika monta vuotta, että konsolit, pelikannettavat ja markettipelikoneet jaksaa pyörittää pelejä säteenseuranta päällä. Integroiduista puhumattakaan.
 
HUB taisi mainita yhdellä videollaan (olisiko ollut 4090:n arvostelu?), että UE5:llä luotu Fortniten säteenseuranta oli heidän mielestään yksi vakuuttavimmista säteenseurantatoteutuksista, joita ovat nähneet. Tällä toteutuksella tehtynä myös suorituskykyerot Nvidian ja AMD:n välillä olivat olemattomat.

Kun tuo yleistyy niin voitaneen vihdoin sanoa säteenseurannan lyöneen läpi. Eli ei mene kuin kaksi-kolme näytönohjainsukupolvea enää, katsellaan sitten RTX 6070 ja AMD 9700 XT:n kanssa (optimistisesti ajateltuna):kahvi:
 
Itse kyllä uskon, että enginen työkalut ottaa aikatavalla koppia tuosta käsityöstä. Tyyliin graafikko tunaa kenttiä säteenseuranta päällä ja engine laskee siitä mahdollisimman lähelle menevän perinteisen valaistuksen, eikä sitä enää hierota käsin. RT päällä se vain näyttää nätimmälle ja käyttäytyy aidommin muuttuvissa olosuhteissa.

Lopulta tuostakin päästään eroon, mutta menee vielä aika monta vuotta, että konsolit, pelikannettavat ja markettipelikoneet jaksaa pyörittää pelejä säteenseuranta päällä. Integroiduista puhumattakaan.

Eiköhän tämmöset syteemit oli sollu jo ajat sitten käytössä, jos se noin vaan onnistuisi. Offline renderillä olisi voinut jo pitkään tehdä RT valaistuksen kenttiin, minkä pohjalta sen perinteisen valaistuksen laskemisen olisi voinut automaattisesti tehdä.
 
Eiköhän tämmöset syteemit oli sollu jo ajat sitten käytössä, jos se noin vaan onnistuisi. Offline renderillä olisi voinut jo pitkään tehdä RT valaistuksen kenttiin, minkä pohjalta sen perinteisen valaistuksen laskemisen olisi voinut automaattisesti tehdä.

Enginet kuitenkin kehittyy jatkuvasti ja työkalut käy kokoajan helppokäyttöisemmiksi. En yllättyisi jos vuoden, parin sisällä esiteltäisin enginen ai laajenusta, joka laskee säteenseurantaversion valaistuksen pohjalta optimi paikat light probeille.

Tai ilman RT rautaa onkin huomattavasti epätarkempi RT:n kaltainen valaistus käytössä, esim Cryengine aikanaan laski global illuminationin geometriasta generoiduilla voxeleilla, vaikka peliengine olikin muuten ns. perinteinen.

"How It Works
  • First we prepare voxel representation of the scene geometry (at run-time, on CPU, asynchronously and incrementally).
  • Every frame on GPU we trace thousands of rays through the voxels (and shadow maps) in order to gather occlusion and indirect lighting."

Tuohon enginen kehitykseen tulee uskottua, kun tuo ei RT rauta on vielä vuosia rinnalla ja käsin tehty valaistuksen hionta maksaa.
 
Tässä punaisesta leiristä huutelen että kun oon viime aikoina pelannut RDR2:sta niin on herännyt kysymys että mihin sitä säteenseurantaa tarvitsee kun tuo peli rullaa erittäin nätisti ja hyvillä asetuksilla 3440 x 1440 -resolla ja on heijastusta ja nättiä varjoa jne. Kai se helpottaa ohjelmointia aika tavalla tms, mutta toivoa sopii että tuosta ei tule semmoinen grafiikkatemppu mikä yleistyy niin pahasti että pelit on pilalla ilman sitä.

Säteenseuranta ei vaadi kikkoja ja säätämistä samalla tapaa kuin rasterointi. Säteenseuranta mallintaa valon toiminnan partikkeli kerrallaan. Helpottaa, nopeuttaa ja halventaa pelikehitystä. Sama syy kuin miksi elokuvat lasketaan säteenseurannalla. Lienee kuitenkin ihmistyövoima on se rajoittava tekijä peleissä eikä niinkään gpu:n nopeus. Triple a pelintekeminen on ns. kallista.

Ei tarvi esimerkiksi light probeja säätää aina kun pelimaailma muuttuu tai ei tarvi laskea offlinena hitaasti valaistusta tekstuureihin(staattinen maailma,kahvitauko valoja odottaessa) tai ei tarvi rajoittua planaarisiin heijastuksiin, kun enempi olis kallista jne jne.

Esimerkki tuusauksesta mitä ei tarvi tehdä säteenseurannalla



Unreal Engine 5 on hyvä esimerkki modernista dynaamisesta säteenseurantaenginestä. Todella pitkälle pääsevät pelkillä softasäteenseurantahärveleillä. Rautasäteenseuranta on "vain" laatuasetus, minkä voi ruksia päälle, jos niin haluaa/koneessa on ylimääräistä tehoa. Peliä tehdessä ei tarvi tuunata turhaan probejen/valojen leipomisen kanssa, valaistus, varjot yms. aina dynaamista. Kenttiä voi myös editoida useampi artisti samaan aikaan ja näkevät heti muidenkin tekemät muutokset. Ei tarvi tehdä kompromissia, kun softasäteenseuranta toimii kaikkialla ja siihen päälle lisälaatua niille, jotka sitä kaipaavat rautasäteenseurannalla.
 
Viimeksi muokattu:
Eiköhän tämmöset syteemit oli sollu jo ajat sitten käytössä, jos se noin vaan onnistuisi. Offline renderillä olisi voinut jo pitkään tehdä RT valaistuksen kenttiin, minkä pohjalta sen perinteisen valaistuksen laskemisen olisi voinut automaattisesti tehdä.

Tämä. Pitää muistaa että esim tietokoneanimaationelokuvissa on käytetty säteenseurantaa jo about vuosikymmen (Pixarin Monsters University vuodelta 2013 oli eka leffa joka nojas tekniikkaan täyspäiväisesti). Silti videopelimaailmassa nojattu traditionaaliseen "säädä käsin kunnes on hyvä" -menetelmään tähänkin päivään saakka.
 
Eiköhän tämmöset syteemit oli sollu jo ajat sitten käytössä, jos se noin vaan onnistuisi. Offline renderillä olisi voinut jo pitkään tehdä RT valaistuksen kenttiin, minkä pohjalta sen perinteisen valaistuksen laskemisen olisi voinut automaattisesti tehdä.
Näinhän nimenomaan on tehty staattisesti valaistujen pelien kanssa. Valot on offline laskettu tekstuureihin. Pitkä kahvitauko valaistusta odotellessa. Olisko quake ollut eka ja siitä etiäpäin,... Siihen päälle nykyään valoprobejen säätäminen, kun peleissä on dynaamisenpaa valoa.
 
Näinhän nimenomaan on tehty staattisesti valaistujen pelien kanssa. Valot on offline laskettu tekstuureihin. Pitkä kahvitauko valaistusta odotellessa. Olisko quake ollut eka ja siitä etiäpäin,... Siihen päälle nykyään valoprobejen säätäminen, kun peleissä on dynaamisenpaa valoa.

Niin tiedän kyllä, että suoraan textureihin on leivottu sisään valaistusta jo aikoja sitten, mutta ei sitä voi todiaan käyttää, jos on dynaaminen valaistus pelissä käytössä.

Tässä oli puhe systeemistä, missä probet automaattisesti menisi "oikein" RT:llä lasketun valaistuksen pohjalta. Jos tuommoisen saisi hyvin toimivana tehtyä, niin olen aika varma, että semmoinen olisi tehty jo kauan aikaa sitten. Sen verran työlästä hommaa se on se probejen kanssa vörkkääminen, että vaikea uskoa että olisi jäänyt tämmöinen "kikka" käyttämättä.
 
Onkohan tuo DLSS 3 vuoden parin päästä ns. hintansa arvoinen? Toistaiseksi arvostelut eivät ihan pelkkää ylistystä ole olleet, mutta ominaisuutta varmasti kehitetään jatkuvasti. Lähinnä puntaroin tässä käytetyn 3080 ja 4070ti välillä että kasvaako FPS ero nykyisestä korttien välillä DLSS 3 kehittyessä. Onhan noissa muutakin tietysti, toinen takuun loppupuolella, tehonkulutus jne.
 
Onkohan tuo DLSS 3 vuoden parin päästä ns. hintansa arvoinen? Toistaiseksi arvostelut eivät ihan pelkkää ylistystä ole olleet, mutta ominaisuutta varmasti kehitetään jatkuvasti. Lähinnä puntaroin tässä käytetyn 3080 ja 4070ti välillä että kasvaako FPS ero nykyisestä korttien välillä DLSS 3 kehittyessä. Onhan noissa muutakin tietysti, toinen takuun loppupuolella, tehonkulutus jne.
Ei varmaankaan kannata ostaa mitään sillä ajatuksella, että tulevaisuudessa jokin ominaisuus auttaa. Jos wanhat merkit pitävät paikkansa niin 1.5v päästä on 50x0 sarjaa myynnissä. Toki voi olla, että kun valmistusteknologiat ovat yhä kalliimpia niin venähtää kolmeen vuoteen päivitysväli. Toinen mahdollisuus on että tulee vain erittäin highend kortit 1.5v päästä ja mainstream 50x0 sarja tulisi myöhemmin tai eri prosessilla kuin erittäin highend. AMD, Nvidia, Intel kilpailu kuitenkin taitaa olla niin kovaa ettei kukaan voi helpolla jättää kortteja päivittämättä 2v välein tai kilpailijat menee vasemmalta ja oikealta ohi.
 
Viimeksi muokattu:
Onkohan tuo DLSS 3 vuoden parin päästä ns. hintansa arvoinen? Toistaiseksi arvostelut eivät ihan pelkkää ylistystä ole olleet, mutta ominaisuutta varmasti kehitetään jatkuvasti. Lähinnä puntaroin tässä käytetyn 3080 ja 4070ti välillä että kasvaako FPS ero nykyisestä korttien välillä DLSS 3 kehittyessä. Onhan noissa muutakin tietysti, toinen takuun loppupuolella, tehonkulutus jne.

Hmm, kysymystä kannattaa kattoa enemmän tältä kantilta: Mikä on todennäköisyys että CPU:si tulee olemaan pullonkaula? Mitä korkeampi todennäköisyys ajan kanssa, sitä suotavampaa olisi DLSS3:n käyttö koska 3 nimenomaan helpottaa CPU pullonkauloja koska generoi frameja joita CPU:n ei tarvii prosessoida.

Iso kysymysmerkki tässäiin tosin on se että noi CPU-vaatimukset säteenseurantapeleissä on noussut aika lailla. Controliin ja Cyberpunkkiin menee vielä 4-ydin/8-säikeiset prossut oikein mukavasti mutta sit esim Witcherissä ja Spider-Manissa tarvittais mielellään vähintään 6/12. Ei voi tietää miten tulevaisuudessa; oliko nää pelit poikkeuksia vai osoituksia tulevaisuudesta.

Jos sulta löytyy asiallinen CPU konepellin alta niin sit pitäis kaiken järjen mukaan pärjätä DLSS2:n voimin oikein mukavasti.
 
Onkohan tuo DLSS 3 vuoden parin päästä ns. hintansa arvoinen? Toistaiseksi arvostelut eivät ihan pelkkää ylistystä ole olleet, mutta ominaisuutta varmasti kehitetään jatkuvasti. Lähinnä puntaroin tässä käytetyn 3080 ja 4070ti välillä että kasvaako FPS ero nykyisestä korttien välillä DLSS 3 kehittyessä. Onhan noissa muutakin tietysti, toinen takuun loppupuolella, tehonkulutus jne.
On jo nyt omasta mielestäni hintansa arvoinen. Tässä hyvä esimerkki 4070 ti:llä ja aivan sama homma kaikissa muissakin DLSS3 peleissä. En graafisesti huomaa mitään eroa onko tuo frame generation päällä vai ei, mutta se tuo valtavan fps-boostin pelissä kun pelissä missä se on valittavissa. Prossuna 13700K.
DLSS2.png


DLSS3.png
 
DLSS3:sta testatessahan tulee olla kuvassa liikettä ja sitten otetaan tarkasteluun se generoitu frame, eikä oikea frame. Jos on paikoillaan oleva kuva tai ei generoitu frame, niin toki näyttää aidolta..
 
DLSS3:sta testatessahan tulee olla kuvassa liikettä ja sitten otetaan tarkasteluun se generoitu frame, eikä oikea frame. Jos on paikoillaan oleva kuva tai ei generoitu frame, niin toki näyttää aidolta..
Mitenkäs tuo muuten toimii että voiko generoidusta framesta ottaa edes screenshottia steamin screenshot funktiolla tai print screenillä vai nappako nuo aina sen todellisen framen framebufferista? Eli jos tuota generoitua haluaisi tarkastella niin pitäisi olla joku capture kortti joka nappaa koko videostreamin kiinni?
 
DLSS3:sta testatessahan tulee olla kuvassa liikettä ja sitten otetaan tarkasteluun se generoitu frame, eikä oikea frame. Jos on paikoillaan oleva kuva tai ei generoitu frame, niin toki näyttää aidolta..
Pointti nyt itsellä oli se, että itse en huomaa mitään eroa ja fps nousee roimasti, niin omasta mielestäni tämä on paras uudistus mitä pc-pelaamiseen on pitkään aikaan tullut.
Varmasti jos etsimällä lähtee etsimään virheitä niin jotain sieltä löytyisi, mutta jos niitä ei pelatessa huomaa kuin etsimällä, niin ei itseä haittaa yhtään.
 
DLSS3:sta testatessahan tulee olla kuvassa liikettä ja sitten otetaan tarkasteluun se generoitu frame, eikä oikea frame. Jos on paikoillaan oleva kuva tai ei generoitu frame, niin toki näyttää aidolta..

Ihan samalla tavalla ne ruudut päivittyy ja generoituu, vaikka on paikallaan. Vai meinaatko, että samaa kuvaa syötetään näytölle, niin kauana, että kamera liikahtaa...

Toki Frame generationin t (DLSS 3) mahdollise virheet eivät tule esiin, jos kamera on paikallaa, eikä kuvassa ole muutakaan liiekettä, koska silloin ennustetut framet ovat aika 100% varmuudella täysin "ehjiä".
DLSS 3 virheitä ja sitä häiritsevätkö ne omaa silmää kuinka, tulisi tutkia itse koittamalla. Videoistakin voi koittaa katsella, jos on 4k viedota, minkä saa suht isoksi venytettyä, kuvan laadun kärismättä. Still kuvat liikkeestä ja hidastetut videot korostavat DLSS 3 frame generationin tuottamia virheitä, eikä kerro totuutta siitä, mille se näyttää/tuntuu itse pelatessa.
 
On jo nyt omasta mielestäni hintansa arvoinen. Tässä hyvä esimerkki 4070 ti:llä ja aivan sama homma kaikissa muissakin DLSS3 peleissä. En graafisesti huomaa mitään eroa onko tuo frame generation päällä vai ei, mutta se tuo valtavan fps-boostin pelissä kun pelissä missä se on valittavissa. Prossuna 13700K.
DLSS2.png


DLSS3.png
Aika jännä. Alemmassa kuvassa puut näyttää sutulta. Mutta ylemmästä kuvastas puuttuu useampi puu kauempana.
Samoin kuvien kontrasti/gamma näyttää molemmissa ihan eriltä.

Tuskinpa kummallakaan menee pieleen mutta jos alkaa katsomaan piirtoetäisyyden rajamailta noita eroja niin monet kohdat näyttää erilaisilta.
Esim. vasemman yläkulman puut.
 
DLSS3:sta testatessahan tulee olla kuvassa liikettä ja sitten otetaan tarkasteluun se generoitu frame, eikä oikea frame. Jos on paikoillaan oleva kuva tai ei generoitu frame, niin toki näyttää aidolta..
Herää kysymys että mitä tällä metodilla oikein testataan? Nimittäin varsinaista visuaalisesta pelikokemuksesta tuommoinen tarkastelu ei paljoa kerro, sillä aika isotkin virheet feikkiframeissa jää täysin huomaamatta kun niitä näytetään ruudulla vaikkapa 10ms ja FG:n virheet eivät jää elämään ruudulle freimistä toiseen, koska ympäröivät framet ovat normaaleja.

Jos halutaan vaikkapa verrata yhtä FG tekniikkaa toiseen niin tommonen kuvankaappausten syynääminen varmaan ihan hedelmällistä. Sen sijaan videot on mielestäni huomattavasti parempi tapa havainnollistaa sitä miltä DLSS 3 varsinaisessa pelitilanteessa näyttää.
 
Viimeksi muokattu:
Aika jännä. Alemmassa kuvassa puut näyttää sutulta. Mutta ylemmästä kuvastas puuttuu useampi puu kauempana.
Samoin kuvien kontrasti/gamma näyttää molemmissa ihan eriltä.

Tuskinpa kummallakaan menee pieleen mutta jos alkaa katsomaan piirtoetäisyyden rajamailta noita eroja niin monet kohdat näyttää erilaisilta.
Esim. vasemman yläkulman puut.

Kuvia kun tarkistelee niin saattaa huomata että postajaa on kääntänyt hieman kameraa/ kuvakulmaa kuvien välissä. Sama määrä puita löytyy jne
 
dlss3:sta on tosi huono stilleistä muutenkaan arvostella. Ainakin digitalfoundryn materiaalien pohjalta aika isotkin virheet jäävät liikkeessä huomaamatta. Virheitä ympäröi täydelliset framet ja ihmisen kyky havaita ei ole täydellinen. Tai no, meitä on moneen junaan. Ehkä joku on paljon herkempi kuin joku muu,...

Liekö luvattu iso dlss3 päivitys on jo tullut vai vasta tulossa? En ole ainakana huomannut, että olisi ollut jossain vertailua uusi vs. wanha niin oletan ettei tuo päivitys ole saapunut.

 
Käyttäähän moni telkkareiden liikepehmennyksiäkin näkemättä mitään ongelmia. Itse en ole toistaiseksi nähnyt telkkaria, josta en bongaisi virheitä pehmennykset päällä. Frame generation vielä kokematta.
 
Käyttäähän moni telkkareiden liikepehmennyksiäkin näkemättä mitään ongelmia. Itse en ole toistaiseksi nähnyt telkkaria, josta en bongaisi virheitä pehmennykset päällä. Frame generation vielä kokematta.
DLSS3 on teknisesti aivan erilainen kuin telkkareiden liikepehmennykset. dlss3 saa pelienginestä tietoa mitä telkkareilla ei ole tyyliin pikseleiden liikevektorit, z-buffer jne. Lisätiedon ansiosta sisältöä ja liikettä voidaan ymmärtää paremmin kuin jos käytössä olisi vain yksittäisiä rgb kuvia.

Toinen juttu on, että etenkin elokuvien kanssa on totuttu 24fps nopeuteen. Moni inhoaa elokuvissa isompaa kuvanopeutta vaikka se isompi kuvanopeus olisi saavutettu käyttämällä kameraa joka kuvasi isommalla kuvanopeudella ilman interpolointia. Aikoinaan kun hobitti kuvattiin ja näytettiin osassa leffateattereista 48fps nopeudella niin se jakoi aika jyrkästi mielipiteitä.
 
Kuvia kun tarkistelee niin saattaa huomata että postajaa on kääntänyt hieman kameraa/ kuvakulmaa kuvien välissä. Sama määrä puita löytyy jne
Kyllä siinä kamera on aavistuksen kääntynyt ja kuvien välissä on vielä pari minuuttia kulunut aikaakin, joten aavistuksen on siinä sää voinut muuttua mikä on voinut vaikuttaa tuohon kuvan kirkkauteen. Tässä nyt pointtina oli se kuinka paljon se fps nousee, kun laittaa frame generationin päälle ja kuvilla oli tarkoitus vain osoittaa se fps:n nousu. Täällä oli ollut puhetta, että se auttaa lähinnä CPU-pullonkaulaan, niin siksi halusin tuon laittaa ja näyttää, että kyllä se fps nousee roimasti vaikka prossu ei olisikaan pullonkaula.
 
Kysymys kuuluukin, että miltä tuo frame raten nousu tuntuu? Input lagi kuitenkin kasvaa dlss3 tapauksessa, vaikka normaalisti frameraten kasvaessa se laskee. Eli onko noista extra frameista mittarissa mitään iloa siihen "tahmaiseen" hiirituntumaan, mikä tulee kun frame rate on liian alhainen? Pitäisi varmaan vaan päästä kokeilemaan.
 
Kysymys kuuluukin, että miltä tuo frame raten nousu tuntuu? Input lagi kuitenkin kasvaa dlss3 tapauksessa, vaikka normaalisti frameraten kasvaessa se laskee. Eli onko noista extra frameista mittarissa mitään iloa siihen "tahmaiseen" hiirituntumaan, mikä tulee kun frame rate on liian alhainen? Pitäisi varmaan vaan päästä kokeilemaan.
En ainakaan itse huomaa mitään eroa. Esim jos normaalisti fps on 60 ja se nousee frame generationilla vaikka 100 niin tuolla frame generationilla hiiri tuntuu paljon sulavammalta, kuten normaalistikin kun fps nousee. Nvidiallahan on tuo low latency ilmeisesti aina päällä kun frame generationin kytkee päälle, tiedä kuinka paljon sillä on vaikutusta.
 
Kysymys kuuluukin, että miltä tuo frame raten nousu tuntuu? Input lagi kuitenkin kasvaa dlss3 tapauksessa, vaikka normaalisti frameraten kasvaessa se laskee. Eli onko noista extra frameista mittarissa mitään iloa siihen "tahmaiseen" hiirituntumaan, mikä tulee kun frame rate on liian alhainen? Pitäisi varmaan vaan päästä kokeilemaan.

Jos sulla on 60fps pohjilla ja dlss3:lla fps 120 niin se lagi pysyy about samalla tasolla kuin se oli 60fps moodissa. Reflex auttaa siihen, että lagi on ylipäänsä alempi pelissä kuin jos reflexiä ei olisi implementoitu. Joku max 20ms voi tulla lisää lagia dlss3:en vuoksi. Riippuu pelin implementaatiosta ja tietenkin fps:sta mistä lähdetään dlss3:sta laittamaan päälle.

En mä ruuvaisi dlss3:sta kilpa pum pum pelissä päälle, mutta yksinpeleissä why not? Ruuvaisin ensin pelin dlss2 päällä tikkiin missä peli tuntuu hyvältä. Sen jälkeen kokeilee dlss3:sta fps:n tuplaukseen. Lisälagi versus perusruuvattu peli minimaalinen, mutta silmäkarkki eli sulavuus tuplaantuu?

Reflex vs. ei reflex pelissä. Reflex pakollinen toteutettava, jos pelissä on dlss3. Ei reflex pelit on kuonaa, ei voi pelata?
Digital Foundry shows that DLSS 3's combination with Nvidia Reflex is what makes the technology really shine. In Portal RTX, DLSS 3's input lag was cut nearly in half at 56ms — compared to native 4k rendering with Reflex enabled at 95ms (it was 129 ms with it off).

Ei DLSS3 lisää paljoakaan lagia versus perus fps. Lagissa on isoja pelikohtaisia eroja. Huonolla implementaatiolla lagi kasvaa enemmän.

This same behavior can be seen in Spider Man — with a 36ms input delay with Reflex on at native 4K (39ms with it off). DLSS 3 and Reflex fell in between at 38ms. And DLSS 2 in performance mode showed the lowest input delay: 23ms with Reflex on, and 24ms with it off.

Spiderman lagi versus lagi cp2077:ssa. cp2077:ssa enemmän lagia oli sitten dlss3 päällä tai ei. Pelikelvoton sekä reflex päällä että ilman reflexiä (24ms vs. 31ms)
In Cyberpunk 2077, the gains are different but still good for the DLSS 3/Nvidia Reflex combination. At native 4k with Reflex on, Digital Foundry saw a 62ms average (108ms with it off). With DLSS 3 and Reflex, this went down to 54ms. But input lag was lowest — 31ms with Reflex enabled and 42ms with it disabled — with DLSS 2 in performance mode.
 
Se oikea vertailukohtahan tässä on Reflex on DLSS 2 vs Reflex on DLSS 3. Turha sitä on verrata matalampaan fps:ään ilman DLSS:ää tai ilman Reflexiä.

CP2077: "With DLSS 3 and Reflex, this went down to 54ms. But input lag was lowest — 31ms with Reflex enabled and 42ms with it disabled — with DLSS 2 in performance mode" - 23 ms ero.
Spider Man: "DLSS 3 and Reflex fell in between at 38ms. And DLSS 2 in performance mode showed the lowest input delay: 23ms with Reflex on, and 24ms with it off. " - 15 ms ero.

Noilla luvuilla DLSS 3 jäisi ainakin itseltä suoraan pois päältä. Etenkin tuo 23 ms itsessään on jo todella helposti havaittavissa ja rasittava, jos hiirellä pitää kameraa liikutella.
 
Se oikea vertailukohtahan tässä on Reflex on DLSS 2 vs Reflex on DLSS 3. Turha sitä on verrata matalampaan fps:ään ilman DLSS:ää tai ilman Reflexiä.

CP2077: "With DLSS 3 and Reflex, this went down to 54ms. But input lag was lowest — 31ms with Reflex enabled and 42ms with it disabled — with DLSS 2 in performance mode" - 23 ms ero.
Spider Man: "DLSS 3 and Reflex fell in between at 38ms. And DLSS 2 in performance mode showed the lowest input delay: 23ms with Reflex on, and 24ms with it off. " - 15 ms ero.

Noilla luvuilla DLSS 3 jäisi ainakin itseltä suoraan pois päältä. Etenkin tuo 23 ms itsessään on jo todella helposti havaittavissa ja rasittava, jos hiirellä pitää kameraa liikutella.
Lähtökohtana itselleni on "natiivi + reflex" vs DLSS 3. Nyt ensimmäinen RTX sukupolvi, jota voisin käyttää. Tähän mennessä DLSS köyhän miehen tekeleitä, kun pitäisi saada stantardi eikä tyhjänpäiväinen extra paske omille korteille. Gsync aikasemmin oli syy ostaa nvidia, kunnes AMD sai freesync:in avustuksella VESA stantardin. RTX tyhjä karkkimarkki vielä ja parin sukupolven päästä varmasti enemmän iloa ja tehoja (uudet konsoli sukupolvet) + mahdollinen stantardi.

Computerbase kaavio

Screenshot 2023-02-15 104856.png
 
Viimeksi muokattu:
Kyllä siinä kamera on aavistuksen kääntynyt ja kuvien välissä on vielä pari minuuttia kulunut aikaakin, joten aavistuksen on siinä sää voinut muuttua mikä on voinut vaikuttaa tuohon kuvan kirkkauteen. Tässä nyt pointtina oli se kuinka paljon se fps nousee, kun laittaa frame generationin päälle ja kuvilla oli tarkoitus vain osoittaa se fps:n nousu. Täällä oli ollut puhetta, että se auttaa lähinnä CPU-pullonkaulaan, niin siksi halusin tuon laittaa ja näyttää, että kyllä se fps nousee roimasti vaikka prossu ei olisikaan pullonkaula.

Ei kai kukaan ole väittänyt, että Frame generation auttaa vain CPU rajoitteisissa tilanteissa. Sen kanssa CPU pullonkaula llä vaan ei ole väliä, kun ne extra ruudut luodaan nöäyttiksellä ilman minkäänlaista CPU:n mukana oloa.

FG tuplaa framet aikalailla tilanteessa kun tilanteessa.
 
Kysymys kuuluukin, että miltä tuo frame raten nousu tuntuu? Input lagi kuitenkin kasvaa dlss3 tapauksessa, vaikka normaalisti frameraten kasvaessa se laskee. Eli onko noista extra frameista mittarissa mitään iloa siihen "tahmaiseen" hiirituntumaan, mikä tulee kun frame rate on liian alhainen? Pitäisi varmaan vaan päästä kokeilemaan.

Ei niistä extra ruuduista mitään haittaakaan ole, jos vaihtoehto on vaikka 50FPS. Omasta mielestä ihmeen hyvälle tuntuu hiiri esim Witcher3:ssä kun DLSS3 päällä FPS jotain 90. Tuolloin pohja FPS sen 45, mutta ei se hiiri tunnu minun mielestä läheskään niin tahmaisella, kun oikeasti 45 FPS tilanteessa.
 
FG tuplaa framet aikalailla tilanteessa kun tilanteessa.
Ei lähellekään tuplaa GPU rajoitteisessa tilanteessa, koska FG prosessi itsesään maksaa GPU aikaa. CPU rajoitteisessa tilanteessa se voi parhaimmillaan tuplata fps:n koska ylimääräistä GPU aikaa on käytettävissä.

Esim. Cyberpunkissa 4K maxikarkit & DLSS Q näen GPU rajoitteisessa tilanteessa n. 50% korkeamman fps:n.
 
Ei niistä extra ruuduista mitään haittaakaan ole, jos vaihtoehto on vaikka 50FPS. Omasta mielestä ihmeen hyvälle tuntuu hiiri esim Witcher3:ssä kun DLSS3 päällä FPS jotain 90. Tuolloin pohja FPS sen 45, mutta ei se hiiri tunnu minun mielestä läheskään niin tahmaisella, kun oikeasti 45 FPS tilanteessa.
Voitko kertoa käyttämäsi asetukset ja kokoonpanon?
 
DLSS3 on teknisesti aivan erilainen kuin telkkareiden liikepehmennykset. dlss3 saa pelienginestä tietoa mitä telkkareilla ei ole tyyliin pikseleiden liikevektorit, z-buffer jne. Lisätiedon ansiosta sisältöä ja liikettä voidaan ymmärtää paremmin kuin jos käytössä olisi vain yksittäisiä rgb kuvia.

Toinen juttu on, että etenkin elokuvien kanssa on totuttu 24fps nopeuteen. Moni inhoaa elokuvissa isompaa kuvanopeutta vaikka se isompi kuvanopeus olisi saavutettu käyttämällä kameraa joka kuvasi isommalla kuvanopeudella ilman interpolointia. Aikoinaan kun hobitti kuvattiin ja näytettiin osassa leffateattereista 48fps nopeudella niin se jakoi aika jyrkästi mielipiteitä.
Se on teknisesti samaa sontaa. Fake frameja suolletaan ja annetaan kuva jostain kauniista
 
Ei niistä extra ruuduista mitään haittaakaan ole, jos vaihtoehto on vaikka 50FPS. Omasta mielestä ihmeen hyvälle tuntuu hiiri esim Witcher3:ssä kun DLSS3 päällä FPS jotain 90. Tuolloin pohja FPS sen 45, mutta ei se hiiri tunnu minun mielestä läheskään niin tahmaisella, kun oikeasti 45 FPS tilanteessa.

Voin ymmärtää, ettei moni huomaa eroa isommalla fps:llä, mutta tuossa tilanteessahan se hiiri nimenomaan tuntuu erityisen tahmaiselta. 45fps on parempi fiilis kuin FG:n luoma 90fps mutta ALLE 45fps fiilis. Tosin, molemmat tilanteet on kyllä semmoisia, etten itse kykenisi pelaamaan.
 
Kyllä tuo FG avaa uusia ovia tulevaisuudessa ja näen sen vain hyvänä asiana. Kunhan nopeasti jalkauttasivat hiiren, tai yleensäkkin inputin, erottamisen pelirenderöinnistä niin ei enää olisi mitään väliä "tuntumalle" vaikka todellinen fps olisi 30 ja FG generoisi siitä 3000fps.
 
Kyllä tuo FG avaa uusia ovia tulevaisuudessa ja näen sen vain hyvänä asiana. Kunhan nopeasti jalkauttasivat hiiren, tai yleensäkkin inputin, erottamisen pelirenderöinnistä niin ei enää olisi mitään väliä "tuntumalle" vaikka todellinen fps olisi 30 ja FG generoisi siitä 3000fps.

Totta, siinä vaiheessa saatan itsekin hypätä FG:n hypejunaan. Tosin, pelkona on tietty se, ettei näyttisten teho liiku enää paljoa eteenpäin siinä vaiheessa, vaan näyttis on aina pakko päivittää siksi, että pääsee mukaan uuteen dlss-juttuun.

En vaan usko, että tuo input irti renderöinnistä tulee kovinkaan nopeasti tapahtumaan. Kyllähän joku dev olisi jo moista hehkuttanut pelissään, jos olisi tulossa. Olisi kuitenkin aika tarpeellinen lisä jo tässä vaiheessa.
 
Se oikea vertailukohtahan tässä on Reflex on DLSS 2 vs Reflex on DLSS 3. Turha sitä on verrata matalampaan fps:ään ilman DLSS:ää tai ilman Reflexiä.

CP2077: "With DLSS 3 and Reflex, this went down to 54ms. But input lag was lowest — 31ms with Reflex enabled and 42ms with it disabled — with DLSS 2 in performance mode" - 23 ms ero.
Spider Man: "DLSS 3 and Reflex fell in between at 38ms. And DLSS 2 in performance mode showed the lowest input delay: 23ms with Reflex on, and 24ms with it off. " - 15 ms ero.

Noilla luvuilla DLSS 3 jäisi ainakin itseltä suoraan pois päältä. Etenkin tuo 23 ms itsessään on jo todella helposti havaittavissa ja rasittava, jos hiirellä pitää kameraa liikutella.
Homma menee monimutkaisemmaksi jos pitääkin verrata Reflex päällä + DLSS3 vs. vaikka punaisen leriin kortti. Silloin viive voi viive olla pienempi DLSS3:n kanssa.
 
Totta, siinä vaiheessa saatan itsekin hypätä FG:n hypejunaan. Tosin, pelkona on tietty se, ettei näyttisten teho liiku enää paljoa eteenpäin siinä vaiheessa, vaan näyttis on aina pakko päivittää siksi, että pääsee mukaan uuteen dlss-juttuun.

En vaan usko, että tuo input irti renderöinnistä tulee kovinkaan nopeasti tapahtumaan. Kyllähän joku dev olisi jo moista hehkuttanut pelissään, jos olisi tulossa. Olisi kuitenkin aika tarpeellinen lisä jo tässä vaiheessa.

VR peleissä input on jo irti renderöinnistä. VR:ssa framegenerointi on pakollinen juttu, kun tulee aika paha olo, jos maailma pysähtyy yhdenkin framen ajaksi. Vois kuvitella, että vr-puolen kikkoja voitaisiin yhdistää dlss4:een tms. Tuskin asiat etenevät nopeasti, kun dlss3 kykyisiä kortteja on myyty kourallinen versus muu markkina.

Tosin pumpum peleissäkin input on monimutkaisempi asia, kun ei serverin kanssa joka framessa jutella ja osa liikkeestä on simuloitua(ja lagista jota piilotetaan). Hyvin voisi kuvitella, että vr tyylinen kompensaatio input:lle voitaisiin tehdä. Pitäisi tosin jokainen frame vr tyyliin renderöidä hieman liian isoon puskuriin, että on varaa liikuttaa hiirtä/ohjainta.. Serveriliikenteen vuoksihan siellä on jo sitä ennustusta. Yksinpeleissä toki ei ole serverikomponenttia ja hidasta serverin kanssa juttelua.
 
Voin ymmärtää, ettei moni huomaa eroa isommalla fps:llä, mutta tuossa tilanteessahan se hiiri nimenomaan tuntuu erityisen tahmaiselta. 45fps on parempi fiilis kuin FG:n luoma 90fps mutta ALLE 45fps fiilis. Tosin, molemmat tilanteet on kyllä semmoisia, etten itse kykenisi pelaamaan.

Ei vaan pidä paikkaansa. Minulla on asiasta kuitenkin ihan empiiristä kokemusta, kuten jo kirjoitin. Natiivi 45 FPS Witcher3:ssä ei tunnu yhtään paremmalle kun DLSS3 Frame Genin tuplaama 90 FPS vaan asia on toisin päin. Ei se FG:n tuoma 90 FPS vastaa tietenkään natiivia 90 FPS tuntumaa, mutta on ihan selvästi parempi, kun natiivi 45 FPS tuntuma. Juuri äsken vielä testailin uuden päysin jälkeen ja tilanne on tuo.
 
Ei vaan pidä paikkaansa. Minulla on asiasta kuitenkin ihan empiiristä kokemusta, kuten jo kirjoitin. Natiivi 45 FPS Witcher3:ssä ei tunnu yhtään paremmalle kun DLSS3 Frame Genin tuplaama 90 FPS vaan asia on toisin päin. Ei se FG:n tuoma 90 FPS vastaa tietenkään natiivia 90 FPS tuntumaa, mutta on ihan selvästi parempi, kun natiivi 45 FPS tuntuma. Juuri äsken vielä testailin uuden päysin jälkeen ja tilanne on tuo.

Ei se input lag katoa kokonaan. 45fps:än input lag tekee sen että hiiren liikuttelu tuntuu hitaalta ja viiveiseltä. Jos se sinusta ei siltä tunnu, niin sitten ei tunnu, ihmiset on erilaisia ja hyvä niin. Sen sijaan FG tuoma sulavuus itse liikkuvaan kuvaan on varmasti tervetullut. Input lag on kuitenkin alhaisella FPS yksi vitsaus, ei vain se liian vähäinen määrä kuvia. Edit: Reflex varmasti vähentää input lagia, mutta ei varmasti 90 fps tasolle esim. 45-90 -skenaariossa. Edit: Korjaus ja lisäys.
 

Statistiikka

Viestiketjuista
261 539
Viestejä
4 539 646
Jäsenet
74 817
Uusin jäsen
pepponen

Hinta.fi

Back
Ylös Bottom