Skaalaustekniikat (Nvidia DLSS ja muut)

Liittynyt
07.04.2017
Viestejä
874
En löytänyt äkkiseltään lankaa, jossa olisi keskusteltu tai vertailtu eri skaalaustekniikoita. Nyt kun Nvidia toi 20-sarjassa tuon tekoälyllä parannellun skaalauksen, asia alkoi kiinnostaa laajemminkin. Nimittäin resoluutio on yksi suurimmista tehosyöpöistä ja jos näyttis sisältäisi kunnon skaalaimen, voisi ruudunpäivitysnopeutta nostaa helposti. Saisipa myös lisää elinaikaa vanhalle näyttikselle.

Minulla on 1070 ja se on hieman hidas UHD resolla. Mitä olen katsonut videoita 20-sarjan DLSS tuetuista peleistä, on sen toimivuus kovin vaihtelevaa. Joskus se tekee ihan hyvää jälkeä, mutta joskus näkyvissä on selkeitä artifakteja ja kuva on silti sumea. Olisi hienoa, jos algoritmissa olisi asetuksia, jotta käyttäjä voisi hienosäätää skaalainta oman makunsa mukaiseksi. Vähän niinkuin madVR:ssä on asetuksia joka lähtöön.

Josta päästäänkin vertailuun: madVR:n NGU skaalain on parasta mitä ei-reaaliaikaiselle videolle on tarjolla, mutta sitä ei voi käyttää peleihin. DLSS:n lupaus on samansuuntainen eli neuroverkko opetetaan laajalla kirjolla suuren resoluution referenssikuvia skaalaamaan alemman resoluution kuva laadukkaasti isommalle resoluutiolle. Paha vaan, ettei DLSS näytä vielä olevan ihan tilanteen tasalla, Nvidian suurista puheista huolimatta.

En voi suoraan verrata DLSS:ä skaalaamattomaan ja NGU:lla skaalattuun kuvaan, koska minulla on tosiaan vain 1070 käytössä. Mutta voin verrata UHD kuvaa FHD NGU skaalattuun videoon ja sen teinkin. Liikkeessä eroja on vaikea nähdä, mutta pysäytyskuvissa erot huomaa helposti: UHD kuvassa on paljon selkeämmät yksityiskohdat. Mutta myös skaalattu kuva on kuitenkin selkeä eikä sumuinen ja ääriviivat ovat sulavat, toki alemman lähderesoluution puitteissa. Minkään näköistä aliasointia ei ole nähtävissä.

Linkki vertailuvideoon: https://1drv.ms/v/s!AmQqiovTs16T-TXXScgT0Do1nKQ5

Video pitää ladata omalle koneelle, koska streamaus rajoittaa resoluution FullHD:ksi. Myös UHD näyttö tai TV on syytä olla käytössä, muuten erot eivät ole luotettavasti nähtävissä.

Käytetyt asetukset:
- 3D mark Firestrike testi
- UHD reso, ei antialiasointia
- FullHD reso, ei antialiasointia
- UHD versiolle ei ole tehty jälkikäsittelyssä mitään
- FHD versio on skaalattu NGU-AA skaalaimella UHD:ksi

Olisi mielenkiintoista nähdä vastaavasta testistä DLSS skaalattu versio (onko Firestrike tuettu?). Voisi vertailla sitä tuohon NGU:n tekemään versioon. Firestrike on siksi hyvä, että se on joka ajolla sama, jolloin eri resoluutiot saa nätisti kulkemaan rinnakkain. Jos pelaa jotain peliä itse, ei mitenkään saa kahta samanlaista otosta aikaiseksi. Toki joissain peleissä on sisäinen benchmark, joka voisi myös soveltua tähän. Vinkkejä DLSS tuetuista peleistä?
 
Mä olen lähinnä Shadow of the Tomb Raideria mättänyt DLSS:n kanssa ja siitä on vähän kahdenlaista kokemusta. 1440p DLSS ei näyttänyt hyvältä vs natiivireso, 4K DLSS taasen pärjää mielestäni oikein mainiosti natiiville. DLSS kanssa usein unohtuu, että se toimii myös samalla antialiasointitekniikkana ja mielestäni antaa paljon parempia tuloksia kuin monet AA tekniikat. Kuva on hyvin stabiili, ei ole esim. SMAA:n shimmeringia enkä huomaa FXAA tyyppistä suttuisuuttakaan. Myös liikkeessä kuva on mielestäni parempi kuin pelin omalla SMAA+TAA yhdistelmällä. SoTR:ssa on benchmark moodi, joka ajaa useamman alueen läpi.

DLSS myös tuntuisi kehittyvän ajan myötä paremmaksi. Sitä on haukuttu monen pelin kohdalla julkaisun yhteydessä, mutta muutama päivitys myöhemmin se näyttääkin hyvältä. Resolla vaikuttaisi myös olevan merkitystä:

Typically for 4K DLSS, we have around 3.5-5.5 million pixels from which to generate the final frame, while at 1920x1080 we only have around 1.0-1.5 million pixels. The less source data, the greater the challenge for DLSS to detect features in the input frame and predict the final frame.
Lähde: NVIDIA DLSS: Your Questions, Answered

Toivon kuitenkin edelleen, että Nvidia panostaisi myös perinteisempään skaalaukseen. Ei ole mitään järkeä siinä, että 1080p ei skaalaudu 1:1 4K näytölle.
 
Mä olen lähinnä Shadow of the Tomb Raideria mättänyt DLSS:n kanssa ja siitä on vähän kahdenlaista kokemusta. 1440p DLSS ei näyttänyt hyvältä vs natiivireso, 4K DLSS taasen pärjää mielestäni oikein mainiosti natiiville. DLSS kanssa usein unohtuu, että se toimii myös samalla antialiasointitekniikkana ja mielestäni antaa paljon parempia tuloksia kuin monet AA tekniikat. Kuva on hyvin stabiili, ei ole esim. SMAA:n shimmeringia enkä huomaa FXAA tyyppistä suttuisuuttakaan. Myös liikkeessä kuva on mielestäni parempi kuin pelin omalla SMAA+TAA yhdistelmällä. SoTR:ssa on benchmark moodi, joka ajaa useamman alueen läpi.

DLSS myös tuntuisi kehittyvän ajan myötä paremmaksi. Sitä on haukuttu monen pelin kohdalla julkaisun yhteydessä, mutta muutama päivitys myöhemmin se näyttääkin hyvältä. Resolla vaikuttaisi myös olevan merkitystä:


Lähde: NVIDIA DLSS: Your Questions, Answered

Toivon kuitenkin edelleen, että Nvidia panostaisi myös perinteisempään skaalaukseen. Ei ole mitään järkeä siinä, että 1080p ei skaalaudu 1:1 4K näytölle.
Tiedän, että tuota DLSS:ää voi tavallaan pitää myös antialiasointi tekniikkana. Mutta eikö siinä ole erikseen se tila, jossa peliä ajetaan näytön natiiviresolla ja DLSS:ä käytetään vain antialiasointiin eli käytännössä sillä supersamplataan? Vähän vastaava, kuin aiempi DSR, joka kuitenkin oli raskas. Tämä SS tila ei taida olla edelleenkään missään pelissä tuettu? Nythän jos peli renderöidään vaikka 1440p ja skaalataan 2160p, niin se ei koskaan ole niin tarkka kuin olisi natiivina, puhumattakaan supersamplauksesta. Voi tietysti olla, ettei 20-sarja pysty vielä renderöimään mitään tuettua peliä riittävän hyvin, jotta DLSS SS tila voisi tulla kyseeseen.

Jos SoTR:ssa on kerran benchmark, joka ajaa saman ajon joka kerta, niin saisitko otettua DLSS skaalatusta versiosta videokaappauksen? Pitäisi onnistua vaikka Nvidian omalla Geforce Experience softalla. Varmistaa vaan, että bittivirta on riittävä (eli yli 100 Mbit/s), kuvataajuus 60 ja resoluutio 2160p. Minulla ei vielä SoTR:ä ole, joten en saa kyllä otettua vielä 1080p ja 2160p versioitakaan itse, mutta olen tuon pelin aikonut hankkia jossain vaiheessa joka tapauksessa.

Tuota skaalauksen laadun paranemista onkin uumoiltu noissa aiemmissa arvosteluissa, mutta onko kukaan tehnyt päivitystä niihin videoihin? Pitääkin katsoa olisiko Digital Foundryllä jotain hyviä videoita aiheesta. Myös 1:4 skaalaus olisi tosiaan kiva eli yksi pikseli näytettäisiin neljänä. Tällöin voisi pelata erittäin raskaat pelit 1080p resolla vaikka näyttö onkin 2160p. Muistaakseni Panasonicin telkkareista löytyy kyseinen skaalaus eli jos siihen syöttää tavallista 1080p videota, se osaa skaalata sen tuolla tyylillä. Toki perinteinen skaalainkin niistä löytyy, mutta peleille tuo suora tila saattaisi olla toimiva.
 
Tiedän, että tuota DLSS:ää voi tavallaan pitää myös antialiasointi tekniikkana. Mutta eikö siinä ole erikseen se tila, jossa peliä ajetaan näytön natiiviresolla ja DLSS:ä käytetään vain antialiasointiin eli käytännössä sillä supersamplataan? Vähän vastaava, kuin aiempi DSR, joka kuitenkin oli raskas. Tämä SS tila ei taida olla edelleenkään missään pelissä tuettu? Nythän jos peli renderöidään vaikka 1440p ja skaalataan 2160p, niin se ei koskaan ole niin tarkka kuin olisi natiivina, puhumattakaan supersamplauksesta. Voi tietysti olla, ettei 20-sarja pysty vielä renderöimään mitään tuettua peliä riittävän hyvin, jotta DLSS SS tila voisi tulla kyseeseen.

Jos SoTR:ssa on kerran benchmark, joka ajaa saman ajon joka kerta, niin saisitko otettua DLSS skaalatusta versiosta videokaappauksen? Pitäisi onnistua vaikka Nvidian omalla Geforce Experience softalla. Varmistaa vaan, että bittivirta on riittävä (eli yli 100 Mbit/s), kuvataajuus 60 ja resoluutio 2160p. Minulla ei vielä SoTR:ä ole, joten en saa kyllä otettua vielä 1080p ja 2160p versioitakaan itse, mutta olen tuon pelin aikonut hankkia jossain vaiheessa joka tapauksessa.

Tuota skaalauksen laadun paranemista onkin uumoiltu noissa aiemmissa arvosteluissa, mutta onko kukaan tehnyt päivitystä niihin videoihin? Pitääkin katsoa olisiko Digital Foundryllä jotain hyviä videoita aiheesta. Myös 1:4 skaalaus olisi tosiaan kiva eli yksi pikseli näytettäisiin neljänä. Tällöin voisi pelata erittäin raskaat pelit 1080p resolla vaikka näyttö onkin 2160p. Muistaakseni Panasonicin telkkareista löytyy kyseinen skaalaus eli jos siihen syöttää tavallista 1080p videota, se osaa skaalata sen tuolla tyylillä. Toki perinteinen skaalainkin niistä löytyy, mutta peleille tuo suora tila saattaisi olla toimiva.

Se nimenomaan on Antialisointitekniikka, antialisointi tehdään vain tekoälyllä eli miltä sen kuvan "pitäisi" näyttää tietyllä resolla supersämplattynä. DLSS:ssä on siis kaksi vaihetta, "älykäs" ylösskaalaus ja "älykäs" SS -antialisointi. Tuo mainostettu DLSS 2X olisi taas se tila jossa tuota ensimmäistä vaihetta ei ole vaan renderöinti tehdään natiivi resolla ja siihen tehdään tuo toinen vaihe eli "älykäs" SS.

Sinällään ihan ajatuksen poikasena tuommoinen madVR:än tapainen ylösskaalaus voisi olla kokeilemisen arvoinen jossakin Stadian kaltaisessa game streaming palvelussa, jos se ei lisäisi mahdottomasti viivettä.
 
Tiedän, että tuota DLSS:ää voi tavallaan pitää myös antialiasointi tekniikkana. Mutta eikö siinä ole erikseen se tila, jossa peliä ajetaan näytön natiiviresolla ja DLSS:ä käytetään vain antialiasointiin eli käytännössä sillä supersamplataan?
Vähän vastaava, kuin aiempi DSR, joka kuitenkin oli raskas. Tämä SS tila ei taida olla edelleenkään missään pelissä tuettu? Nythän jos peli renderöidään vaikka 1440p ja skaalataan 2160p, niin se ei koskaan ole niin tarkka kuin olisi natiivina, puhumattakaan supersamplauksesta. Voi tietysti olla, ettei 20-sarja pysty vielä renderöimään mitään tuettua peliä riittävän hyvin, jotta DLSS SS tila voisi tulla kyseeseen.
DLSS 2X:ssä renderöidään natiiviresolla ja arvotaan miltä sen pitäisi näyttää 64xSSAA:lla, mutta NVIDIA ei ole antanut ottaa sitä käyttöön missään ja tuskin on hetkeen antamassa, kun totesivat että DLSS:ää saa käyttää vain suorituskyvyn parantamiseen ja sen myötä vain tietyillä resoilla tietyillä näyttiksillä. DLSS 2X siis heikentää suorituskykyä aina (yksi arvio sanoi ~10% vrt ei mitään AA:ta tai muuta). Supersamplaamisesta tässä ei ole kuitenkaan kyse millään tasolla.

DSR sen sijaan on juurikin SSAA-metodi, renderöidään korkeammalla resolla ja skaalataan tulos pienemmäksi

Se nimenomaan on Antialisointitekniikka, antialisointi tehdään vain tekoälyllä eli miltä sen kuvan "pitäisi" näyttää tietyllä resolla supersämplattynä. DLSS:ssä on siis kaksi vaihetta, "älykäs" ylösskaalaus ja "älykäs" SS -antialisointi. Tuo mainostettu DLSS 2X olisi taas se tila jossa tuota ensimmäistä vaihetta ei ole vaan renderöinti tehdään natiivi resolla ja siihen tehdään tuo toinen vaihe eli "älykäs" SS.
Ei. Se ei ole SSAA millään tasolla. Tekoäly vain arpoo miltä sen pitäisi näyttää 64xSSAA:lla, ihan eri asia.
 
Viimeksi muokattu:
DLSS 2X:ssä renderöidään natiiviresolla ja arvotaan miltä sen pitäisi näyttää 64xSSAA:lla, mutta NVIDIA ei ole antanut ottaa sitä käyttöön missään ja tuskin on hetkeen antamassa, kun totesivat että DLSS:ää saa käyttää vain suorituskyvyn parantamiseen ja sen myötä vain tietyillä resoilla tietyillä näyttiksillä. DLSS 2X siis heikentää suorituskykyä aina (yksi arvio sanoi ~10% vrt ei mitään AA:ta tai muuta). Supersamplaamisesta tässä ei ole kuitenkaan kyse millään tasolla.
DSR sen sijaan on juurikin SSAA-metodi, renderöidään korkeammalla resolla ja skaalataan tulos pienemmäksi

Mjoo, siis muistaakseni kaikki olisi halunneet käyttää sitä nimenomaan FPS:än kasvatukseen pienemmillä resoilla. Mutta miten se toimii ei sitä siihen voi käyttää. Tensorit kasvattaa aina tietyn ms verran viivettä ja tiettyyn FPS rajaan se pystyy, mutta jos FPS on jo valmiiksi korkea se voi itseasiassa laskea FPS:ää.

ps. otatkos tekstin muotoilut pois. Hankala lukea valkealla teemalla.
 
Aluksi pahoittelut termien sotkemisesta, sehän on tosiaan DLSS 2X eikä DLSS SS se tila jota tarkoitin. Näköjään kaikki kuitenkin ymmärsivät :)
Se nimenomaan on Antialisointitekniikka, antialisointi tehdään vain tekoälyllä eli miltä sen kuvan "pitäisi" näyttää tietyllä resolla supersämplattynä. DLSS:ssä on siis kaksi vaihetta, "älykäs" ylösskaalaus ja "älykäs" SS -antialisointi. Tuo mainostettu DLSS 2X olisi taas se tila jossa tuota ensimmäistä vaihetta ei ole vaan renderöinti tehdään natiivi resolla ja siihen tehdään tuo toinen vaihe eli "älykäs" SS.

Sinällään ihan ajatuksen poikasena tuommoinen madVR:än tapainen ylösskaalaus voisi olla kokeilemisen arvoinen jossakin Stadian kaltaisessa game streaming palvelussa, jos se ei lisäisi mahdottomasti viivettä.
En mene vannomaan, kun ei Nvidia ole jakanut niin yksityiskohtaista tietoa DLSS:tä, mutta väittäisin ettei siinä varsinaisesti ole erikseen skaalausta ja "supersämpläystä". Ainakin madVR:n NGU toimii siten, että kaikki tapahtuu kerralla eli sekä skaalaus, antialiasointi, ääriviivojen kavennus jne. tapahtuu kerralla. Tai no, jos oikein teknisesti ajatellaan, niin kai siellä "mustan laatikon" sisällä tapahtuu satoja (?) eri vaiheita, mutta kuitenkin. Joissain (aiemmissa) madVR:n skaalaimissa sen sijaan piti erikseen valita noita lisäominaisuuksia käyttöön, jotka sitten hidastivat suorituskykyä. NGU:n tapauksessa nämä ovat osa algoritmiä ja jopa kohinanvaimennus tulee "ilmaiseksi", käyttäjän niin halutessa.

Mitä tulee Stadiaan, niin kaipa madVR:n tyylistä ratkaisua voisi käyttää, mutta kyllähän se väkisin lisää viivettä. Mitä tehokkaampi GPU on sitä ajamassa, sen vähemmän viivettä.

DLSS 2X:ssä renderöidään natiiviresolla ja arvotaan miltä sen pitäisi näyttää 64xSSAA:lla, mutta NVIDIA ei ole antanut ottaa sitä käyttöön missään ja tuskin on hetkeen antamassa, kun totesivat että DLSS:ää saa käyttää vain suorituskyvyn parantamiseen ja sen myötä vain tietyillä resoilla tietyillä näyttiksillä. DLSS 2X siis heikentää suorituskykyä aina (yksi arvio sanoi ~10% vrt ei mitään AA:ta tai muuta). Supersamplaamisesta tässä ei ole kuitenkaan kyse millään tasolla.
DSR sen sijaan on juurikin SSAA-metodi, renderöidään korkeammalla resolla ja skaalataan tulos pienemmäksi


Ei. Se ei ole SSAA millään tasolla. Tekoäly vain arpoo miltä sen pitäisi näyttää 64xSSAA:lla, ihan eri asia.

Tuo suorituskyvyn parantaminen on vähän kiinni siitä miten asiaa katsoo. Eli jos vertaa DLSS 2X FPS:ää sellaiseen tilanteeseen, missä ei ole AA:ta käytössä, niin hidastaahan se. Mutta jos verrataan edes 8xSSAA versioon, niin DLSS 2X tarjonnee suorituskykyedun. Tiedä sitten kuinka hyvältä se oikeasti näyttäisi verrattuna vaikka 8xSSAA.

Sekin on jännä, miksi Nvidia ei salli tuon käyttämistä kuin niissä peleissä, jotka se on opettanut omalla supertietokoneellaan. Kyllähän NGU:kin ja vastaavat on opetettu rajallisella määrällä dataa ja silti ne toimivat aika hyvin kaikkeen. Toki parhaiten sellaiseen materiaaliin, jolla se on opetettu, mutta silti. Ehkä DLSS tulee joskus saataville kaikkeen, mutta vielä ei ole hiottu algortimiä tarpeeksi yleispäteväksi? Vai liittyykö se jotenkin siihen, että itse pelin renderöintipolkuun pitää lisätä joku palikka, joka pitää tehdä aina pelikohtaisesti?
 
Mjoo, siis muistaakseni kaikki olisi halunneet käyttää sitä nimenomaan FPS:än kasvatukseen pienemmillä resoilla. Mutta miten se toimii ei sitä siihen voi käyttää. Tensorit kasvattaa aina tietyn ms verran viivettä ja tiettyyn FPS rajaan se pystyy, mutta jos FPS on jo valmiiksi korkea se voi itseasiassa laskea FPS:ää.
Ei, DLSS X2 ei voi ikinä parantaa FPS:ää. Se heikentää suorituskykyä aina resoluutiosta riippumatta.
"Perus-DLSS" voi parantaa suorituskykyä verrattuna natiiviresoluutioon ilman DLSS:ää jos DLSS:n suorituskykyhävikki on pienempi kuin pienemmällä resolla renderöinnistä saatu suorituskykyetu.

ps. otatkos tekstin muotoilut pois. Hankala lukea valkealla teemalla.
Korjattu, xenhoron kopiopastabugi iski.
 
Tuo suorituskyvyn parantaminen on vähän kiinni siitä miten asiaa katsoo. Eli jos vertaa DLSS 2X FPS:ää sellaiseen tilanteeseen, missä ei ole AA:ta käytössä, niin hidastaahan se. Mutta jos verrataan edes 8xSSAA versioon, niin DLSS 2X tarjonnee suorituskykyedun. Tiedä sitten kuinka hyvältä se oikeasti näyttäisi verrattuna vaikka 8xSSAA.
Kyllä, DLSS 2X on varmasti nopeampi kuin vaikka 8xSSAA, mutta NVIDIA ei ainakaan toistaiseksi anna sitä käyttää
Sekin on jännä, miksi Nvidia ei salli tuon käyttämistä kuin niissä peleissä, jotka se on opettanut omalla supertietokoneellaan. Kyllähän NGU:kin ja vastaavat on opetettu rajallisella määrällä dataa ja silti ne toimivat aika hyvin kaikkeen. Toki parhaiten sellaiseen materiaaliin, jolla se on opetettu, mutta silti.
Ottaen huomioon kuinka surkeaa kuralaatua ne NVIDIAn omat setitkin on, en yhtään ihmettele etteivät halua muiden sooloilevan omia opetusdatojaan.
Ehkä DLSS tulee joskus saataville kaikkeen, mutta vielä ei ole hiottu algortimiä tarpeeksi yleispäteväksi? Vai liittyykö se jotenkin siihen, että itse pelin renderöintipolkuun pitää lisätä joku palikka, joka pitää tehdä aina pelikohtaisesti?
Se pitää aina opettaa sillä nimenomaisella pelillä mihin se tuki on tulossa, siihen ei ole kiertoteitä.
NVIDIA (tai muu taho) siis renderöi haluttua peliä 64xSSAA:lla tuottaakseen järkyttävän määrän opetusmateriaalia, tekoäly opettelee niiden pohjalta miltä pelin pitäisi näyttää "täydellisesti renderöitynä" (ts 64xSSAA:lla) mistä saatu data sitten toimitetaan ajurin/pelin mukana käyttäjälle. Pelissä sitten renderöidään valittua resoluutiota huonommalla resoluutiolla, hukataan kaikki pienet yksityiskohdat ja tekoäly lähtee sen jälkeen arpomaan että miltäs sen kuvan pitäisi näyttää natiiviresolla (64xAA:n kera) ja lopputuloksena on enemmän tai vähemmän suttua mistä puuttuu yksityiskohdat.
 
Ei, DLSS X2 ei voi ikinä parantaa FPS:ää. Se heikentää suorituskykyä aina resoluutiosta riippumatta.
"Perus-DLSS" voi parantaa suorituskykyä verrattuna natiiviresoluutioon ilman DLSS:ää jos DLSS:n suorituskykyhävikki on pienempi kuin pienemmällä resolla renderöinnistä saatu suorituskykyetu.


Korjattu, xenhoron kopiopastabugi iski.

Niin siis tarkoitinkin tavallista DLSS:ää. DLSS x2:sta ei ole käytetty vielä missään, eikä se tosiaan voi koskaan parantaa FPS:ää, kun siinä se natiivisti renderöity kuva vielä "SuperSamplataan" tensoreilla. Jotka tosiaan vaatii aina sen oman aikansa millisekuntteina.

Aluksi pahoittelut termien sotkemisesta, sehän on tosiaan DLSS 2X eikä DLSS SS se tila jota tarkoitin. Näköjään kaikki kuitenkin ymmärsivät :)

En mene vannomaan, kun ei Nvidia ole jakanut niin yksityiskohtaista tietoa DLSS:tä, mutta väittäisin ettei siinä varsinaisesti ole erikseen skaalausta ja "supersämpläystä". Ainakin madVR:n NGU toimii siten, että kaikki tapahtuu kerralla eli sekä skaalaus, antialiasointi, ääriviivojen kavennus jne. tapahtuu kerralla. Tai no, jos oikein teknisesti ajatellaan, niin kai siellä "mustan laatikon" sisällä tapahtuu satoja (?) eri vaiheita, mutta kuitenkin. Joissain (aiemmissa) madVR:n skaalaimissa sen sijaan piti erikseen valita noita lisäominaisuuksia käyttöön, jotka sitten hidastivat suorituskykyä. NGU:n tapauksessa nämä ovat osa algoritmiä ja jopa kohinanvaimennus tulee "ilmaiseksi", käyttäjän niin halutessa.

Mitä tulee Stadiaan, niin kaipa madVR:n tyylistä ratkaisua voisi käyttää, mutta kyllähän se väkisin lisää viivettä. Mitä tehokkaampi GPU on sitä ajamassa, sen vähemmän viivettä.



Tuo suorituskyvyn parantaminen on vähän kiinni siitä miten asiaa katsoo. Eli jos vertaa DLSS 2X FPS:ää sellaiseen tilanteeseen, missä ei ole AA:ta käytössä, niin hidastaahan se. Mutta jos verrataan edes 8xSSAA versioon, niin DLSS 2X tarjonnee suorituskykyedun. Tiedä sitten kuinka hyvältä se oikeasti näyttäisi verrattuna vaikka 8xSSAA.

Sekin on jännä, miksi Nvidia ei salli tuon käyttämistä kuin niissä peleissä, jotka se on opettanut omalla supertietokoneellaan. Kyllähän NGU:kin ja vastaavat on opetettu rajallisella määrällä dataa ja silti ne toimivat aika hyvin kaikkeen. Toki parhaiten sellaiseen materiaaliin, jolla se on opetettu, mutta silti. Ehkä DLSS tulee joskus saataville kaikkeen, mutta vielä ei ole hiottu algortimiä tarpeeksi yleispäteväksi? Vai liittyykö se jotenkin siihen, että itse pelin renderöintipolkuun pitää lisätä joku palikka, joka pitää tehdä aina pelikohtaisesti?

Kaotika tuossa jo vastasikin suurelta osin. Eli ei siellä ei tosiaan ole mitään perinteistä SS:ää, eli kuvaa ei koskaan renderöidä suuremmalla resolla kuin se targettireso on(ei tavallisessa eikä x2:ssa). Nvidia on kyllä kertonut jotain DLSS toiminnasta:
Q: How does DLSS work?

A: The DLSS team first extracts many aliased frames from the target game, and then for each one we generate a matching “perfect frame” using either super-sampling or accumulation rendering. These paired frames are fed to NVIDIA’s supercomputer. The supercomputer trains the DLSS model to recognize aliased inputs and generate high quality anti-aliased images that match the “perfect frame” as closely as possible. We then repeat the process, but this time we train the model to generate additional pixels rather than applying AA. This has the effect of increasing the resolution of the input. Combining both techniques enables the GPU to render the full monitor resolution at higher frame rates.
 
saatu data sitten toimitetaan ajurin/pelin mukana käyttäjälle.

Mä olen käsittänyt, että Nvidian ajurien mukana tuleva NGX Updater hoitaa noiden päivittämisen erikseen ajurista tai pelistä. Mä olen käsittänyt, että tuo toimii mahdollisesti niin, että pelin käynnistyksen yhteydessä se kävisi hakemassa DLSS päivitystä. Ainakin SoTR:n aloittaessa tuo NGX Updater on pyrkinyt palomuurini mukaan nettiin.
 
Mä olen käsittänyt, että Nvidian ajurien mukana tuleva NGX Updater hoitaa noiden päivittämisen erikseen ajurista tai pelistä. Mä olen käsittänyt, että tuo toimii mahdollisesti niin, että pelin käynnistyksen yhteydessä se kävisi hakemassa DLSS päivitystä. Ainakin SoTR:n aloittaessa tuo NGX Updater on pyrkinyt palomuurini mukaan nettiin.
Voi olla että sinne on sellainen piilotettu nykyään, alussa ei käsittääkseni ollut ja ainakin osa myöhemmin tehdyistä muutoksista on vaatinut pätsiä myös peliin (ainakin Metro ja muistaakseni myös BFV)
 
Karua mielestäni oli se että monissa testeissä päästiin dlss:ää parempiin tuloksiin ihan vain pudottamalla pelistä resoluutioskaalainta 80% ja fps gainit olivat vielä kovempia.
 
Karua mielestäni oli se että monissa testeissä päästiin dlss:ää parempiin tuloksiin ihan vain pudottamalla pelistä resoluutioskaalainta 80% ja fps gainit olivat vielä kovempia.
Tämän puolen olinkin unohtanut. Tuo tosiaan yllätti minutkin, että mitä se DLSS oikein tekee, jos perus resoluutioskaalauksella päästään samaan lopputulokseen. Mutta ehkäpä DLSS on kehittynyt jo sen jälkeen? Ainakin se testi minkä itse näin oli suunnilleen 2080Ti:n julkaisun aikoihin tehty eli DLSS oli ihan uusi juttu. Sitäkin taidetaan kuitenkin päivittää aktiivisesti.
Kaotika tuossa jo vastasikin suurelta osin. Eli ei siellä ei tosiaan ole mitään perinteistä SS:ää, eli kuvaa ei koskaan renderöidä suuremmalla resolla kuin se targettireso on(ei tavallisessa eikä x2:ssa). Nvidia on kyllä kertonut jotain DLSS toiminnasta:
Joo, tiedän ettei ole perinteistä SS:ää käytössä. Mutta sitähän se yrittää jäljitellä. Tuo Nvidian selitys on sellaista korkean tason tarinaa, josta ei kyllä selviä tekninen toteutus mitenkään. Selviää siitä joo se, että peliä rendataan 64xUHD resolla ja näillä kuvilla/videoilla opetataan neuroverkkoa. Mutta mitä tuo neuroverkko tarkalleen tekee? Kuten todettua, sen tuottama lopputulos ei oikein vastaa puheita. Sisältääkö algoritmi hahmontunnistusta (vissiin ei), reunojen tunnistusta (vissiin ei), yrittääkö se päästä mahdollisimman lähelle perustotuutta (siis sitä 64xSSAA:ta (vissiin joo)) ja niin edelleen.

Tuota hahmontunnistusta käytetään ainakin Samsungin 8k töllössä eli neuroverkko korvaa paloja kuvasta tietokannasta löytyvillä korkean resoluution lähdekuvilla. Tämä sitten vähän muuttaa koko kuvaa, mutta se on luonnollisesti hyvin tarkka. Haittapuolena tosiaan välillä algoritmin pahat virhearviot. Reunojen tunnistus taas seuraa hahmon muotoa tarkasti ja poistaa aliasoinnin, mutta tekstuureita se ei juuri pysty parantamaan. Tämän lopputuloksena kuva on ääriviivoiltaan tarkka, mutta tekstuurit näyttää pahimmillaan maalatuilta (tämä on se miten NGU AA toimii). Ja sitten tuo viimeinen mainitsemani kohta on se, että yritetäänkö kuvaa vaikka terävöittää erikseen, jolloin se saattaa äkkiseltään näyttää tarkemmalta, mutta vie itse asiassa kauemmas perustotuudesta.
 
No tuo dlss on mielestäni aika päätön tekniikka kun enemmän työtä tekemällä päästään huonompaan tulokseen kuin jättämällä se työ tekemättä ja antaa monitorin näyttää tuotettu kuva "anti-aliasoituna" eli hieman blurrattuna joka tulee sivutuotteena.
 
Tämän puolen olinkin unohtanut. Tuo tosiaan yllätti minutkin, että mitä se DLSS oikein tekee, jos perus resoluutioskaalauksella päästään samaan lopputulokseen. Mutta ehkäpä DLSS on kehittynyt jo sen jälkeen? Ainakin se testi minkä itse näin oli suunnilleen 2080Ti:n julkaisun aikoihin tehty eli DLSS oli ihan uusi juttu. Sitäkin taidetaan kuitenkin päivittää aktiivisesti.

Joo, tiedän ettei ole perinteistä SS:ää käytössä. Mutta sitähän se yrittää jäljitellä. Tuo Nvidian selitys on sellaista korkean tason tarinaa, josta ei kyllä selviä tekninen toteutus mitenkään. Selviää siitä joo se, että peliä rendataan 64xUHD resolla ja näillä kuvilla/videoilla opetataan neuroverkkoa. Mutta mitä tuo neuroverkko tarkalleen tekee? Kuten todettua, sen tuottama lopputulos ei oikein vastaa puheita. Sisältääkö algoritmi hahmontunnistusta (vissiin ei), reunojen tunnistusta (vissiin ei), yrittääkö se päästä mahdollisimman lähelle perustotuutta (siis sitä 64xSSAA:ta (vissiin joo)) ja niin edelleen.

Tuota hahmontunnistusta käytetään ainakin Samsungin 8k töllössä eli neuroverkko korvaa paloja kuvasta tietokannasta löytyvillä korkean resoluution lähdekuvilla. Tämä sitten vähän muuttaa koko kuvaa, mutta se on luonnollisesti hyvin tarkka. Haittapuolena tosiaan välillä algoritmin pahat virhearviot. Reunojen tunnistus taas seuraa hahmon muotoa tarkasti ja poistaa aliasoinnin, mutta tekstuureita se ei juuri pysty parantamaan. Tämän lopputuloksena kuva on ääriviivoiltaan tarkka, mutta tekstuurit näyttää pahimmillaan maalatuilta (tämä on se miten NGU AA toimii). Ja sitten tuo viimeinen mainitsemani kohta on se, että yritetäänkö kuvaa vaikka terävöittää erikseen, jolloin se saattaa äkkiseltään näyttää tarkemmalta, mutta vie itse asiassa kauemmas perustotuudesta.

Noo jos jaksat katsoa Nvidian tunnin mittasen GDC esityksen aiheesta, niin se voi selventää vähäsen:
Truly Next-Gen: Adding Deep Learning to Games & Graphics (Presented by NVIDIA)

Jos alkuhöpinät ei kiinnosta, BFV:n DLSS integrointipuhe alkaa 42:45 kohdalta(Hieman rallienglantia).

EDIT: Jos olet nvidian developer ohjelmassa voit ladata nuo esitykset täältä. Ennen nuo oli vapaata riistaa, nvidia laittanut ne nykyään loggauksen taakse.
 
Viimeksi muokattu:
No tuo dlss on mielestäni aika päätön tekniikka kun enemmän työtä tekemällä päästään huonompaan tulokseen kuin jättämällä se työ tekemättä ja antaa monitorin näyttää tuotettu kuva "anti-aliasoituna" eli hieman blurrattuna joka tulee sivutuotteena.
Tombraiderissa 4K muutama kymmenen Fps lisää on aika maukas, eipä tarvinnut pahemmin karsia asetuksia.
Eikä tuossa ktllö blurria huomaa.
Jos Blurria haluaa niin FXAA päälle ;)
 
Oletko koittanut ihan pelkästään 20% downscalella? ;)

Noi Downscalet näyttää tökeröltä DLSS verrattuna.
Ei toi kuva häpee DLSS päällä natiivia 4K.ta näyttää lähes samalta mutta Fps pirusti lisää.

Jostain Still kuvista voi nähdä noita eroja parhaiten mutta Tomb raiderissa DLSS ei pahemmin blurria ole kun peliä olen pelannut.
Kyllä tuossa vaakakupissa useampi kymppi Fps lisää painaa niin paljon ettei tuota ilman DLSS tee mieli pelata.
Toki pärjää ilman DLSS mutta joutuu hieman karsimaan sitten muista asetuksista joka osaltaan heikentää graaffisesti kuvanlaatua, mutta koska vaihtoehtona DLSS ja korkeammat asetukset ja Fps niin valitsen ennemmin sen.

On niitä jotka pelaa näitä pelejä ja sitten on näitä jotka katselee ja vertailee pysäytys kuvia/screenshotteja.
Kuulun ensimmäiseen ryhmään ja pelikin on jo tullut pelailtua joten odotan innolla lisää DLSS pelejä tai vaihtoehtoisesti niin kovaa rautaa markkinoille että DLSS ei olisi enää tarvetta.

 
Viimeksi muokattu:
Joo ne näyttää, mielestäni tökerömpää jos scenestä puuttuu objekteja tai jotain ihme häröilyä niissä. :rolleyes:
 
Noi Downscalet näyttää tökeröltä DLSS verrattuna.
En Tomb Raiderista tiedä mutta kaikissa muissa DLSS-tapauksissa downscale on ollut parempi tai vähintään yhtä hyvä kuvanlaadultaan ja nopeudeltaan (toki makuasioita haluaako mieluummin enemmän hukattuja yksityiskohtia ja enemmän blurria paremmalla reunojenpehmennyksellä, vai enemmän yksityiskohtia, vähemmän blurria mutta huonompi AA (tosin jos pelissä on hyvä AA tuo viimeinen miinus voi tippua pois))
 

Digital Foundry on paneutunut uudella videollaan Controlin DLSS-toteutukseen ja kuinka nvidian tekoälyskaalaus on parantunut sitten alkupäivien.
 
Digital Foundry on paneutunut uudella videollaan Controlin DLSS-toteutukseen ja kuinka nvidian tekoälyskaalaus on parantunut sitten alkupäivien.
En videota katsonut vielä, mutta eikös NVIDIA juuri sanonut ettei Controllissa käytetä tekoälyyn DLSS:ää vaan uutta kuvanparannusalgoritmia joka toistaa tekoälyn tulokset suurinpiirtein mutta on pirusti kevyempi?
Leveraging this AI research, we developed a new image processing algorithm that approximated our AI research model and fit within our performance budget. This image processing approach to DLSS is integrated into Control, and it delivers up to 75% faster frame rates.
Jossain muistaakseni ehdittiin jo soitella kirkonkellojakin jo toteamalla että jos RIS tappoi DLSS:n, naulasi NVIDIAn oma Sharpen-filtteri arkun kiinni, kun kumpikin antaa raa'an skaalauksen kera vähintään yhtä hyviä ellei parempia tuloksia?
 
En videota katsonut vielä, mutta eikös NVIDIA juuri sanonut ettei Controllissa käytetä tekoälyyn DLSS:ää vaan uutta kuvanparannusalgoritmia joka toistaa tekoälyn tulokset suurinpiirtein mutta on pirusti kevyempi?

Jossain muistaakseni ehdittiin jo soitella kirkonkellojakin jo toteamalla että jos RIS tappoi DLSS:n, naulasi NVIDIAn oma Sharpen-filtteri arkun kiinni, kun kumpikin antaa raa'an skaalauksen kera vähintään yhtä hyviä ellei parempia tuloksia?
Kaikki selviää videolta.
 
Lähinnä viittasin tuohon viestiisi, jossa puhut tekoälyskaalauksesta yhteydessä peliin joka ei käytä tekoälyä skaalaukseen?
Ominaisuus on pelissä nimellä DLSS, mutta toteutustapa poikkeaa totutusta. Videolla kohdassa 16:58 eteenpäin spekuloidaan käytännön toteutustapaa ja viitataan nvidian blogi-kirjoitukseen aiheesta.

ninjaedit: ..ja siis kyllä skaalauksessa käytetään tekoälyä luomaan puuttuvaa dataa suoraan stetsonista. Kysymys kuuluukin, käytetäänkö tässä tensor-ytimiä mihinkään ja toimisiko toteutus yhtä hyvin myös muilla arkkitehtuureilla.
 
Ominaisuus on pelissä nimellä DLSS, mutta toteutustapa poikkeaa totutusta. Videolla kohdassa 16:58 eteenpäin spekuloidaan käytännön toteutustapaa ja viitataan nvidian blogi-kirjoitukseen aiheesta.

ninjaedit: ..ja siis kyllä skaalauksessa käytetään tekoälyä luomaan suoraan stetsonista puuttuvaa dataa. Kysymys kuuluukin, käytetäänkö tässä tensor-ytimiä mihinkään ja toimisiko toteutus yhtä hyvin myös muilla arkkitehtuureilla.
Itse käsitin tuon NVIDIAn blogipostauksen niin, että tekoälyä ei käytetä, vaan loivat käsin algoritmin joka tuottaa about samat tulokset kuin mihin tekoäly päätyisi
 
Itse käsitin tuon NVIDIAn blogipostauksen niin, että tekoälyä ei käytetä, vaan loivat käsin algoritmin joka tuottaa about samat tulokset kuin mihin tekoäly päätyisi
Jaa juu, videolla on hieman ympäripyöreämmät sanavalinnat, kun taas blogi-kirjoituksessa asia on ilmaistu harvinaisen selvästi myös omasta mielestäni.
Varsinaisen tekoälymallin pohjalta on käsin askarreltu algoritmi, joka arvailee parhaansa mukaan asioita alkuperäisen tekoälymallin mukaisesti. Tätä algoritmia käytetään pelissä, koska alkuperäinen tekoälymalli ei mahdu vielä tässä vaiheessa asetettuun suorituskykybudjettiin. Tarkoitus kuitenkin rypistää malli toimimaan myös turingien tensoreilla tulevaisuudessa.
 
Njoo, vähän tuosta videosta kalskahtaa korvaan tuo renderöintireson säätöjutskat. Ei se perinteinen DLSS vaan voi oikein taipua tuohon mitä Bataglia toivoisi. Jokaiselle input resolle pitäisi tehdä oma DNN mallinsa, hieman hankala varmaan ylösskaalata käyttämällä eri input resoa ja eriresolle tarkoitettua DNN mallia...
 
Njoo, vähän tuosta videosta kalskahtaa korvaan tuo renderöintireson säätöjutskat. Ei se perinteinen DLSS vaan voi oikein taipua tuohon mitä Bataglia toivoisi. Jokaiselle input resolle pitäisi tehdä oma DNN mallinsa, hieman hankala varmaan ylösskaalata käyttämällä eri input resoa ja eriresolle tarkoitettua DNN mallia...
Niin ne tehdäänkin joka resolle erikseen, sen vuoksi DLSS-tuki on aina rajattu tiettyihin resoluutioyhdistelmiin per peli ja joissain tapauksissa jopa per näytönohjain (koska NVIDIAn tämänhetkisen kannan mukaan DLSS saa olla päällä vain jos siitä on suorituskykyetua)
 
Njoo, vähän tuosta videosta kalskahtaa korvaan tuo renderöintireson säätöjutskat. Ei se perinteinen DLSS vaan voi oikein taipua tuohon mitä Bataglia toivoisi. Jokaiselle input resolle pitäisi tehdä oma DNN mallinsa, hieman hankala varmaan ylösskaalata käyttämällä eri input resoa ja eriresolle tarkoitettua DNN mallia...
DLSS:n tapauksessa input resoluutiolla on tosiaan väliä, mutta ihan välttämätöntä se ei olisi. Jos otetaan taas tekoälypohjainen madVR* esimerkiksi, niin sekin on opetettu muistaakseni 1080p->2160p skaalaukseen, mutta toimii se silti mistä tahansa resoluutiosta mihin tahansa kaksinkertaiseen resoluutioon. Siinä on tosiaan tuo kaksinkertaisuuden (löytyy tosin myös nelinkertaistava toimintatila, joka on kevyempi kuin kahdesti tuplaus) rajoitus eli jos haluaa skaalata vaikka 1440p->2160p, niin pitää skaalata ensin liian isoksi ja sitten pienentää lopputulosta jollain perinteisellä skaalausalgoritmillä. Lopputulos on silti parempi, kuin perinteinen skaalaus, mutta suorituskykyä se vaatii. Sitä en tiedä olisiko se mahdollista koodata käyttämään Tensor ytimiä ja riittäiskö niissä laskentateho.

Mitä tulee Kaotikin mainitsemaan Nvidian rajoitukseen, että DLSS saa olla päällä vain, jos se parantaa suorituskykyä, niin se on vähän erikoinen kanta. Nimittäin DLSS 2x piti olla mahdollinen tila myös, missä siis olisi voinut renderöidä pelin natiiviresolla ja käyttää DLSS:ää anti-aliasointiin. Mutta tuo nykyinen rajoitus tekee koko tilasta mahdottoman, koska tietenkin anti-aliasointi vie suorituskykyä. Ehkä tämän tilan kuvanlaatu osoittautui testeissä odotettua huonommaksi ja se kuopattiin vähin äänin?

*) Linkki vie madVR Envyn press releaseen, mutta softapohjainen Windows toteutus on vastaava. Siitä ei vaan löydy virallista press releaseä
 
Mitä tulee Kaotikin mainitsemaan Nvidian rajoitukseen, että DLSS saa olla päällä vain, jos se parantaa suorituskykyä, niin se on vähän erikoinen kanta. Nimittäin DLSS 2x piti olla mahdollinen tila myös, missä siis olisi voinut renderöidä pelin natiiviresolla ja käyttää DLSS:ää anti-aliasointiin. Mutta tuo nykyinen rajoitus tekee koko tilasta mahdottoman, koska tietenkin anti-aliasointi vie suorituskykyä. Ehkä tämän tilan kuvanlaatu osoittautui testeissä odotettua huonommaksi ja se kuopattiin vähin äänin?
En tiedä onko lopullisesti kuopattu, mutta ei ole tosiaan DLSS2X:ää näkynyt vielä missään ja niin kauan kuin NVIDIA pitää tuosta kannasta kiinni ei tule näkymäänkään
 
Kuten videolta selviää, Controlissa voi sentään muuttaa ini:stä sisäisen renderointitarkkuuden 1:1 ulkoisen kanssa, jolloin tuo DLSS-nimen alla toimiva skaalausalgoritmi toimii pelkkänä antialiasointitekniikkana, ikäänkuin DLSS2X.
Tietenkään tämä ei ole virallisesti tuettu, koska pelin asetusvalikoista tätä ei voi suoraan tehdä (ainakaan toistaiseksi).

edit: Toki vaikka pelissä käytetään skaalausalgoritmista nimitystä DLSS ja 1:1 renderointitarkkuudella tämän takia looginen nimitys olisi ehkä tässä tapauksessa DLSS2X, niin käytännössähän kyse on tavallaan kuitenkin erilaisesta TAA-toteutuksesta, vaikka pelistä löytyy erikseen myös perinteinen TAA.
 
Viimeksi muokattu:
Kuten videolta selviää, Controlissa voi sentään muuttaa ini:stä sisäisen renderointitarkkuuden 1:1 ulkoisen kanssa, jolloin tuo DLSS-nimen alla toimiva skaalausalgoritmi toimii pelkkänä antialiasointitekniikkana, ikäänkuin DLSS2X.
Tietenkään tämä ei ole virallisesti tuettu, koska pelin asetusvalikoista tätä ei voi suoraan tehdä (ainakaan toistaiseksi).

edit: Toki vaikka pelissä käytetään skaalausalgoritmista nimitystä DLSS ja 1:1 renderointitarkkuudella tämän takia looginen nimitys olisi ehkä tässä tapauksessa DLSS2X, niin käytännössähän kyse on tavallaan kuitenkin erilaisesta TAA-toteutuksesta, vaikka pelistä löytyy erikseen myös perinteinen TAA.
Ei toi Controllin DLSS ole edes DLSS siinä mielessä miten NVIDIA sen termin määritteli
 
Nvidia koittaa taas sekottaa pakkaa pitämällä epäonnistuneen tekniikan nimen alla jotain aivan muuta.
No juu, tämmöisessä tapauksessa pitäisi kai nimi olla ennemmin tyyliin DLDSS (Deep Learning Derived Super Sampling). :P
 
Tuossa videollahan myös mietittiin, että ajetaanko tuota Controlin DLSS:ää edes Tensor ytimillä vai shader ytimillä? Jos jälkimmäisellä, niin periaatteessa tuo DLDSS variantti DLSS:stä voisi toimia myös Pascalilla. Olisihan se ihan kiva lisä muiden vaihtoehtojen joukkoon näin GTX 1070 ja 4K näytön omistajana.
 
Tuossa videollahan myös mietittiin, että ajetaanko tuota Controlin DLSS:ää edes Tensor ytimillä vai shader ytimillä? Jos jälkimmäisellä, niin periaatteessa tuo DLDSS variantti DLSS:stä voisi toimia myös Pascalilla. Olisihan se ihan kiva lisä muiden vaihtoehtojen joukkoon näin GTX 1070 ja 4K näytön omistajana.

Teoriassa näin. Mutta jos tuossa hyödynnetään Turingin muita featureita(fp16, fp+int), ei sitä olisi välttämättä mitään hyötyä tuoda Pascaleille.
 

Uusimmat viestit

Statistiikka

Viestiketjuista
258 624
Viestejä
4 493 975
Jäsenet
74 265
Uusin jäsen
Oranta

Hinta.fi

Back
Ylös Bottom