nVIDIA DLSS v2.0

Voi sitä verrata suorituskyvyllisesti samankaltaiseen resoon AMD-korteilla. "Näillä pyörii samallailla, kumpi näyttää paremmalta?"
Kuten jos ei tässä niin jossain toisessa threadissa jo on käyty aika kattavasti läpi, tuo vaatisi häviöttömän videon natiiviresolla mitä kellään ei käytännössä ole varaa hostata isolle yleisölle. Tai sitten pitäisi olla kattavasti videoita rajulla zoomilla mitkä korostavat niitä hyötyjä ja haittoja kustakin tekniikasta.
Eli parempi unohtaa kaiken sortin kuvanlaatuun vaikuttavat kikkailut ihan täysin testeistä, ellei ole erikseen nimenomaan tarkoitus testata sitä kikkailua yleisen suorituskyvyn sijasta.
 
Aika mielenkiintoinen päivitys. VRAMin suhteen jopa downgrade. :hmm:

Joo, kuten alkuun mainitsinkin että järjellä ei homman kanssa ollut hirveästi tekemistä. Varmaankin vaan rautahammasta kolotti ja vanhan kun myi niin välirahaa piti laittaa joku 50-70e, saipahan ainakin lisää takuuaikaa jossei muuta. RT tai DLSS ei ostohetkellä kiinnostanut pätkääkään.
 
Miten sulla ottaa niin luonnon päälle tämä DLSS, onhan se upee ja RT on myös?

Yksi syy se kuinka nvidia RTX julkaisussa lupasi ummet ja lammet. Edelleenkään ei taida olla sitä määrää RT ja DLSS pelejä mitä luvattiin.

Muista sitten kans haukkua RT kunhan AMD saa oman toteutuksen kuluttajille, vaikka voihan se ollakin upee sitten kun pääsee itekki RT-päällä pelaan. ;)

Varmasti muistan jos se on samanlainen tuhnu kuin nykyinen RTX. Joku 3-4 kertaa lisää RT suorituskykyä niin alkaa kelvata.
 
Laita vaan lisää sharpeningiä (ja tarvittaessa muista kuvanpaskomisefektejä), kunnes et nää kuin artefakteja ja kuva on ”optimaalinen”. Ei se väärin ole jos tykkää tälläisistä kuvista: File:Yonge-Dundas Square - 2010 (HDR).jpg - Wikimedia Commons

overSharpened.jpg

(Aivan ihanan tarkka. Varmasti tarkempi kuin natiivi omin vaseliinisilmin havaittu kuva)

Erot tarkkuudessa johtuu lähes ainoastaan ton sharpness efektin voimakkuudesta.

Edit: ja mun toiveeni sharpness slideristähän on sunkin edun mukaista! Voit vetää sitä oikealle juuri niin pitkälle kun silmät kestää ilman verenvuotoa ja saat ainakin 100% ”tarkemman” kuvan kuin natiivi.

Toki sharpness slider olisi kiva ja itsekkin vähän sitä voisin ottaa pois. En ole siitä edes mitään puhunut/kommentoinut. Karvalakki bilinear upsampling on vaan ihan skeidaa. On tuo sen verran monen pelin kanssa tullut todettua, että turha sitä on puolustella.

Alkuperäisen DLSS:n puute olikin juuri se, että kuva olis lähes yhtä sumea kun bilineaarisessa upsamplingissä ja sen lisäksi vielä artefakteja. Nyt 2.0 versiossa kuvan terävyys on jo kiitettävällä tasolla, mutta tulee jonkin verran artefakteja.

Tuosta jos jo huhuttu 3.0 parantaa, nin aika kovaa settiä on tulossa. Sitten 3.0:n pitäisi toimia kaikissa TAA:ta tukevissa peleissä ja devaajien työmäärää sen käyttöönotossa on entisestään pienennetty.
 
Ei ole mitään syytä miksei DLSS koko ajan kehittyisi. Jo Controlin käyttämän 1.9 ja uuden 2.0:n välillä on selkeä parannus. DLSS:ää hyväksikäyttävät näytönohjaimet hyötyvät tästä tekniikasta melkoisesti.
 
Ei ole mitään syytä miksei DLSS koko ajan kehittyisi. Jo Controlin käyttämän 1.9 ja uuden 2.0:n välillä on selkeä parannus. DLSS:ää hyväksikäyttävät näytönohjaimet hyötyvät tästä tekniikasta melkoisesti.
2.0 ei ole mikään kehitysversio 1.9:n pohjalta vaan täysin erillinen projekti.
 
Kuten jos ei tässä niin jossain toisessa threadissa jo on käyty aika kattavasti läpi, tuo vaatisi häviöttömän videon natiiviresolla mitä kellään ei käytännössä ole varaa hostata isolle yleisölle. Tai sitten pitäisi olla kattavasti videoita rajulla zoomilla mitkä korostavat niitä hyötyjä ja haittoja kustakin tekniikasta.
Eli parempi unohtaa kaiken sortin kuvanlaatuun vaikuttavat kikkailut ihan täysin testeistä, ellei ole erikseen nimenomaan tarkoitus testata sitä kikkailua yleisen suorituskyvyn sijasta.

Kuvista näkee ihan hyvin.
 
Kuvat paljastavat kyllä monta ongelmakohtaa helposti, mutta esimerkiksi miten eri tekniikat aiheuttaa shimmeröintiä liikkeessä ei näy kuvissa.

Se on muutes unehtunut mainita että jollain videolla FidelityFX vaikutti aiheuttavan hiukan ärsyttävää välkkymistä sen jampan selässä olevassa tankissa olevien ruuvien tai mitä lieneekään ympärillä jota Doesn't Look So Sharp tekniikka ei tehnyt. Olkoon tämä nyt DLSS puolustus vuorostaan.
 
Kuten jos ei tässä niin jossain toisessa threadissa jo on käyty aika kattavasti läpi, tuo vaatisi häviöttömän videon natiiviresolla mitä kellään ei käytännössä ole varaa hostata isolle yleisölle. Tai sitten pitäisi olla kattavasti videoita rajulla zoomilla mitkä korostavat niitä hyötyjä ja haittoja kustakin tekniikasta.
Eli parempi unohtaa kaiken sortin kuvanlaatuun vaikuttavat kikkailut ihan täysin testeistä, ellei ole erikseen nimenomaan tarkoitus testata sitä kikkailua yleisen suorituskyvyn sijasta.
En näe mitään pakkoa pistää mitään videota, jokainen voi sitten kokeilla itse, onko kuvanlaadussa ongelmia. Jos on pakko, niin pistää muutamankymmenen screenshottia linkkien taakse, niin ei räjähdä kaistankäyttö käsiin..
Suorituskykyboosti on kuitenkin heikommalla näyttiksellä senverran raju, että muita karkkeja saa iskeä sitten päälle lisää, joka puolestaan suurimman osan mielestä vaikuttaa korvaavan mahdolliset kuvanlaatuvirheet.

Tuo on erinomainen tekniikka mm läppäreissä, joissa on yleensä fyysisesti pieni näyttö (Vaikka tarkkuus voikin olla esim jopa 4k ja mopo näyttis, koska TDP on pahasti rajoitettu.)

Itseasiassa olisi hyvinkin mielenkiintoista nähda testi, juurikin tehtynä s.e. jollain rtx2070:lla ja 2080:lla asetettaisiin FPS raja (esim 60) ja sitten testattaisiin pelejä, miten saa karkkiasetukset olla TLSS ja ilman TLSS, jotta paäästään tuohon tavoitteeseen.. Ihan niinkuin juttuvinkkinä...
 
Viimeksi muokattu:
Tähän kuvanlaatu hommaan, pystyykös sitten edes nvidia ja amd kortteja vertailemaan keskenään? Onko molemmisssa täysin samat kuvanlaatu asetukset ja pystyykö edes täysin samoiksi saamaan, ajuri tasolla ainakaan.
 
Kyllä ne DLSS-testit tulee testeihin mukaan vääjämättä, kun on kuluttajan kannalta relevantti ominaisuus näytönohjaimen päivitystä mietittäessä. :tup:
Erillisinä DLSS-testeinä kyllä, mutta jos niitä sotketaan yleisiin suorituskykytesteihin mennään niin perse edellä puuhun ettei ole taidettu ennen tällä alalla mennä.

Tähän kuvanlaatu hommaan, pystyykös sitten edes nvidia ja amd kortteja vertailemaan keskenään? Onko molemmisssa täysin samat kuvanlaatu asetukset ja pystyykö edes täysin samoiksi saamaan, ajuri tasolla ainakaan.
Erot ovat pääosin luokkaa "olemattomia". Vähän erilaisella preferenssillä ovat piirtäneet ainakin aiemmin, mutta ne pienet eivät vaikuta suorituskykyyn, kumpikin tekee "yhtä oikein" nykypäivänä yleisesti.

DLSS:n käytössä arvosteluissa on monta isoa ongelmaa. Isoimpana tietenkin se, että se vaikuttaa sekä suorituskykyyn että kuvanlaatuun, ja koska samaa tekniikkaa ei voi käyttää kaikilla valmistajilla, se asettaisi kortit eriarvoiseen asemaan.
Kuvanlaatu on subjektiivinen asia, eikä lukija voi luottaa arvostelijoiden olevan samaa mieltä kuin hän itse on, johan se on nähty monesti kuinka eri arvostelijoidenkin välillä on isoja eroja sen suhteen, saati sitten lukematonpäisen yleisön kesken.
Tämän vuoksi kuvanlaatuun vaikuttavat asiat, joita voidaan käyttää vain yhdellä valmistajalla, pitää jättää pois käytöstä arvosteluissa ellei ole tarkoitus arvostella ko. ominaisuutta eikä suorituskykyä yleisesti.
Vähän niin kuin RT-peleissä jätetään RT pois päältä arvosteluissa, koska se asettaisi näytönohjaimet epätasa-arvoiseen asemaan, joko tulokset olisivat N/A kaikille paitsi RT:tä tukeville vaikka peli kyllä pyörii ilman RT:täkin, tai sitten RT-kortit ottaisivat hirvittävän selkäsaunan jos muiden annettaisiin pyöritellä ilman RT:tä samaa peliä.
Näiden ja muiden vastaavankaltaisten asioiden vuoksi suorituskykyarvosteluissa näille ei ole mitään asiaa, itse ominaisuutta arvostelevissa artikkeleissa asia erikseen.
 
Tähän kuvanlaatu hommaan, pystyykös sitten edes nvidia ja amd kortteja vertailemaan keskenään? Onko molemmisssa täysin samat kuvanlaatu asetukset ja pystyykö edes täysin samoiksi saamaan, ajuri tasolla ainakaan.

Suoraan toki ei pysty vertailemaan ellei molemmissa käytössä täysin samat kuvanlaatuasetukset. Loput on sitten enemmän tai vähemmän omasta silmästä kiinni ja hyvinkin tunteita herättävää settiä.
 
Tämän vuoksi kuvanlaatuun vaikuttavat asiat, joita voidaan käyttää vain yhdellä valmistajalla, pitää jättää pois käytöstä arvosteluissa ellei ole tarkoitus arvostella ko. ominaisuutta eikä suorituskykyä yleisesti.

Kaikenlaisia toiveita saa esittää. DLSS:n hyödyt ovat niin ilmeiset että on varsin todennäköistä että arvosteluissa se tulee huomioiduksi jatkossa. Toki reilua että se käy myös tuloksista ilmi.
 
Kaikenlaisia toiveita saa esittää. DLSS:n hyödyt ovat niin ilmeiset että on varsin todennäköistä että arvosteluissa se tulee huomioiduksi jatkossa. Toki reilua että se käy myös tuloksista ilmi.
Niin myös sen haitat, miksi se siis olisi todennäköistä? Onhan jok'ikisellä skaalaustekniikalla ja muulla omat hyötynsä ja haittansa, tällä hetkellä tarjolla olevista (poislukien pelien sisäänrakennetut setit) tosin vain yksi on sidottu valmistajaan, toinen on ihan avointa lähdekoodia AMD:lta (mitä en toivo yhtään enempää niihin arvosteluihin, paitsi kun on tarkoitus arvostella ko. ominaisuutta eikä yleistä suorituskykyä).
 
Guru3d:n Death Stranding -testissä on ihan asiallisesti käsitelty DLSS mielestäni. Artikkelissa itsessään kyllä aivan järkyttävä määrä kirjoitusvirheitä.

 
Guru3d:n Death Stranding -testissä on ihan asiallisesti käsitelty DLSS mielestäni. Artikkelissa itsessään kyllä aivan järkyttävä määrä kirjoitusvirheitä.

Kyllä, tuolla tavalla kun se on erillään varsinaisista suorituskykytesteistä se on tietenkin ihan ok pistää mukaan.
 
Niin myös sen haitat, miksi se siis olisi todennäköistä?

Ehkä koska jo aikoja sitten ainakin joku saitti ilmoitti ottavansa DLSS-tulokset mukaan arvosteluihin. En tosin tiedä onko tätä tapahtunut vielä, mutta ihan hyvä jos johonkin saittiin tulee DLSS-tuloksia myös mukaan, kuitenkin noita perustestejä tulee ihan riittävästi.
 
Erillisinä DLSS-testeinä kyllä, mutta jos niitä sotketaan yleisiin suorituskykytesteihin mennään niin perse edellä puuhun ettei ole taidettu ennen tällä alalla mennä.


Erot ovat pääosin luokkaa "olemattomia". Vähän erilaisella preferenssillä ovat piirtäneet ainakin aiemmin, mutta ne pienet eivät vaikuta suorituskykyyn, kumpikin tekee "yhtä oikein" nykypäivänä yleisesti.

DLSS:n käytössä arvosteluissa on monta isoa ongelmaa. Isoimpana tietenkin se, että se vaikuttaa sekä suorituskykyyn että kuvanlaatuun, ja koska samaa tekniikkaa ei voi käyttää kaikilla valmistajilla, se asettaisi kortit eriarvoiseen asemaan.
Kuvanlaatu on subjektiivinen asia, eikä lukija voi luottaa arvostelijoiden olevan samaa mieltä kuin hän itse on, johan se on nähty monesti kuinka eri arvostelijoidenkin välillä on isoja eroja sen suhteen, saati sitten lukematonpäisen yleisön kesken.
Tämän vuoksi kuvanlaatuun vaikuttavat asiat, joita voidaan käyttää vain yhdellä valmistajalla, pitää jättää pois käytöstä arvosteluissa ellei ole tarkoitus arvostella ko. ominaisuutta eikä suorituskykyä yleisesti.
Vähän niin kuin RT-peleissä jätetään RT pois päältä arvosteluissa, koska se asettaisi näytönohjaimet epätasa-arvoiseen asemaan, joko tulokset olisivat N/A kaikille paitsi RT:tä tukeville vaikka peli kyllä pyörii ilman RT:täkin, tai sitten RT-kortit ottaisivat hirvittävän selkäsaunan jos muiden annettaisiin pyöritellä ilman RT:tä samaa peliä.
Näiden ja muiden vastaavankaltaisten asioiden vuoksi suorituskykyarvosteluissa näille ei ole mitään asiaa, itse ominaisuutta arvostelevissa artikkeleissa asia erikseen.
Kortit ovat eriarvoisia, ei se testaaminen niitä aseta, vaan korttien ominaisuuudet. Jos kortissa on joku ominaisuus, joka antaa lisää suorituskykyä, niin kyllä sitä on syytä käyttää myös testeissä, vaikka sitä ei kaikissa korteissa olekaan.
 
Kortit ovat eriarvoisia, ei se testaaminen niitä aseta, vaan korttien ominaisuuudet. Jos kortissa on joku ominaisuus, joka antaa lisää suorituskykyä, niin kyllä sitä on syytä käyttää myös testeissä, vaikka sitä ei kaikissa korteissa olekaan.
Eli sinun mielestäsi olisi ok että sinne tulisi vaikka kortteja joissa skaalataan tuuhea 240p-kuva bilineaarisesti 4K:ksi muiden joukossa 4K-resoluution testeissä?
Joko sillä kuvanlaadulla on tai ei ole merkitystä, DLSS:n kuvanlaatu ei vastaa natiivia vaikka onkin paljon lähempänä kuin alkuaikoina, joten jos se sallittaisiin, pitäisi kaikki muutkin skaalausmetodit tuota yllä olevaa kärjistävää esimerkkiä myöden sallia testeissä.
 
Eli sinun mielestäsi olisi ok että sinne tulisi vaikka kortteja joissa skaalataan tuuhea 240p-kuva bilineaarisesti 4K:ksi muiden joukossa 4K-resoluution testeissä?
Joko sillä kuvanlaadulla on tai ei ole merkitystä, DLSS:n kuvanlaatu ei vastaa natiivia vaikka onkin paljon lähempänä kuin alkuaikoina, joten jos se sallittaisiin, pitäisi kaikki muutkin skaalausmetodit tuota yllä olevaa kärjistävää esimerkkiä myöden sallia testeissä.
Jos kuvanlaadussa on testaajan mielestä eroja, niin kuvapari näyttää tilanteen.
Luulisin, että 240p -> 4k vääntö näkyisi kun taas nuo nykyiset dlss:t ovat hyvin vähäisillä, ellei miltei olemattomilla artifakteilla.
Jos esim 60 tietämissä seilaava FPS saadaan nousemaan s.e. pysyy etupäässä yli 60, eikä ole kuin 60hz näyttö, niin tuo on esim silloin erinomainen ominaisuus. Se repeily sentään näkyy ihan oikeasti.
Testaaminen nyt vain vaikeutuu kokoajan. Nuo menevät samaan läjään turbo moodien / lämpöjen ym asioiden mukaan säätyvien kellojen kanssa.
 
Eli sinun mielestäsi olisi ok että sinne tulisi vaikka kortteja joissa skaalataan tuuhea 240p-kuva bilineaarisesti 4K:ksi muiden joukossa 4K-resoluution testeissä?
Joko sillä kuvanlaadulla on tai ei ole merkitystä, DLSS:n kuvanlaatu ei vastaa natiivia vaikka onkin paljon lähempänä kuin alkuaikoina, joten jos se sallittaisiin, pitäisi kaikki muutkin skaalausmetodit tuota yllä olevaa kärjistävää esimerkkiä myöden sallia testeissä.
Joko FPS:llä on tai ei ole merkitystä, natiivin FPS ei vastaa DLSS-moodin FPS:ää, joten jos se natiivi hyväksytään alemmasta FPS:stä huolimatta vertailukohdaksi, niin sitten pitää vissiin hyväksyä se, että äärimmillään 1fps on yhtä hyvä kuin 60fps, koska mistä sitä tietää kuinka huonoksi natiivin FPS voi joissain tilanteissa romahtaa samaan aikaan DLSS-moodi porskuttaa ihan hyvin?
 
Joko FPS:llä on tai ei ole merkitystä, natiivin FPS ei vastaa DLSS-moodin FPS:ää, joten jos se natiivi hyväksytään alemmasta FPS:stä huolimatta vertailukohdaksi, niin sitten pitää vissiin hyväksyä se, että äärimmillään 1fps on yhtä hyvä kuin 60fps, koska mistä sitä tietää kuinka huonoksi natiivin FPS voi joissain tilanteissa romahtaa samaan aikaan DLSS-moodi porskuttaa ihan hyvin?
FPS on mitattava suure, ei makuasia. Kuvanlaatu sen sijaan on makuasia, ei mitattava suure (poikkeaman referenssistä voi mitata, mutta sekään ei vastaa siihen onko se parempi vai huonompi kuin joku muu referenssistä poikkeava)

Jos kuvanlaadussa on testaajan mielestä eroja, niin kuvapari näyttää tilanteen.
Luulisin, että 240p -> 4k vääntö näkyisi kun taas nuo nykyiset dlss:t ovat hyvin vähäisillä, ellei miltei olemattomilla artifakteilla.
Jos esim 60 tietämissä seilaava FPS saadaan nousemaan s.e. pysyy etupäässä yli 60, eikä ole kuin 60hz näyttö, niin tuo on esim silloin erinomainen ominaisuus. Se repeily sentään näkyy ihan oikeasti.
Testaaminen nyt vain vaikeutuu kokoajan. Nuo menevät samaan läjään turbo moodien / lämpöjen ym asioiden mukaan säätyvien kellojen kanssa.
Kuva ei kerro vielä kuin osan muutoksista, liikkeessä on myös eroja eri skaalaus ja muiden vastaavien kikkojen kanssa.
Katsoja ei myöskään tiedä onko arvostelijan maku sama kuin oma ja arvostelijoiden keskenkin on jo lukuisia erilaisia mielipiteitä, saati sitten lukijoiden parissa. Esimerkki oli tarkoituksella kärjistävä.
Ei ole olemassa mitään perusteita, miksi ns. tieteellisellä metodilla tehtäviin suorituskykytesteihin pitäisi sotkea mitään, mikä asettaa kortit lähtökohtaisesti eri asemaan, vielä vähemmän silloin kun se vaikuttaa kuvanlaatuun millään tapaa.
 
FPS on mitattava suure, ei makuasia. Kuvanlaatu sen sijaan on makuasia, ei mitattava suure (poikkeaman referenssistä voi mitata, mutta sekään ei vastaa siihen onko se parempi vai huonompi kuin joku muu referenssistä poikkeava)


Kuva ei kerro vielä kuin osan muutoksista, liikkeessä on myös eroja eri skaalaus ja muiden vastaavien kikkojen kanssa.
Katsoja ei myöskään tiedä onko arvostelijan maku sama kuin oma ja arvostelijoiden keskenkin on jo lukuisia erilaisia mielipiteitä, saati sitten lukijoiden parissa. Esimerkki oli tarkoituksella kärjistävä.
Ei ole olemassa mitään perusteita, miksi ns. tieteellisellä metodilla tehtäviin suorituskykytesteihin pitäisi sotkea mitään, mikä asettaa kortit lähtökohtaisesti eri asemaan, vielä vähemmän silloin kun se vaikuttaa kuvanlaatuun millään tapaa.

Nyt mun on tähän sanottava, että sulla on kyllä turhan ruusuinen kuva perinteisen average fps -mittaustavan "tieteellisyydestä". Mitattava suure on kyllä eksakti, siltä osin metodi on täsmällinen. Mutta sen osuvuudesta kvantifioitavan tekijän ("pelikokemus") mallintamisessa voidaan olla montaa mieltä.

Näytönohjaimien testimetodit ovat tosiasiassa taantuneet viime vuosina ihan liikaa takaisin tähän one-number-to-rule-them-all -systeemiin. Pienenä bonuksena sentään "minimi-fps" on nyt useimmiten mukana ja suht usein se perustuu joko 1% tai 0,1% persentiiliin, mutta paljon parempaa on jo nähty, joten en voi kuin päivitellä joko testaajien ja/tai lukijoiden laiskuutta. Esim. Tech Reportin mittaus- ja esitystapa, jossa kaikkien näyttisten testiajot näytetään frame time -graafeina, ja sitten järjestettynä persentiilikuvaajaksi, on informaatioarvoltaan aivan totaalisesti eri luokkaa kuin iänikuinen average/min fps. Ja sitten vielä bonuksena pahimpien jökkimisten time spent beyond x ms -taulukot. Ja tästä kaikesta lukijat on kiittäneet siten, että koko saitti on kuivunut muumioksi. Vähän sama juttu kuin HardOCP, joka sekin teki erittäin informatiivisia artikkeleita fiksuilla ja omaperäisillä metodeilla. Ja ei vaan kelpaa lukijoille.

Pelkästään se, että jokin "on aina ollut näin", ei tee siitä hyvää. Eikä se, että "näitä juttuja lukijat haluaa". Jos halutaan oikeasti soveltaa tieteellistä metodia pelikokemuksen mittaamiseen, niin average fps on surkea yritys ja average/min vain vähän surkeaa parempi. Ja nyt ollaan väistämättä uuden murroksen äärellä, koska DLSS, checkerboard rendering, erilaiset upscaling-metodit, sharpening filterit, variable rate shading ja koko liuta muita "non-brute-force" -tekniikoita ovat tulleet jäädäkseen. Näitä on pakko jollakin lailla myös verrata toisiinsa, ja silloin average fps jää automaattisesti vajaaksi metodiksi. Ja hyvä niin, koska se on aika paska suure kuvaamaan sitä, mikä on oleellista.
 
Nyt mun on tähän sanottava, että sulla on kyllä turhan ruusuinen kuva perinteisen average fps -mittaustavan "tieteellisyydestä". Mitattava suure on kyllä eksakti, siltä osin metodi on täsmällinen. Mutta sen osuvuudesta kvantifioitavan tekijän ("pelikokemus") mallintamisessa voidaan olla montaa mieltä.

Näytönohjaimien testimetodit ovat tosiasiassa taantuneet viime vuosina ihan liikaa takaisin tähän one-number-to-rule-them-all -systeemiin. Pienenä bonuksena sentään "minimi-fps" on nyt useimmiten mukana ja suht usein se perustuu joko 1% tai 0,1% persentiiliin, mutta paljon parempaa on jo nähty, joten en voi kuin päivitellä joko testaajien ja/tai lukijoiden laiskuutta. Esim. Tech Reportin mittaus- ja esitystapa, jossa kaikkien näyttisten testiajot näytetään frame time -graafeina, ja sitten järjestettynä persentiilikuvaajaksi, on informaatioarvoltaan aivan totaalisesti eri luokkaa kuin iänikuinen average/min fps. Ja sitten vielä bonuksena pahimpien jökkimisten time spent beyond x ms -taulukot. Ja tästä kaikesta lukijat on kiittäneet siten, että koko saitti on kuivunut muumioksi. Vähän sama juttu kuin HardOCP, joka sekin teki erittäin informatiivisia artikkeleita fiksuilla ja omaperäisillä metodeilla. Ja ei vaan kelpaa lukijoille.

Pelkästään se, että jokin "on aina ollut näin", ei tee siitä hyvää. Eikä se, että "näitä juttuja lukijat haluaa". Jos halutaan oikeasti soveltaa tieteellistä metodia pelikokemuksen mittaamiseen, niin average fps on surkea yritys ja average/min vain vähän surkeaa parempi. Ja nyt ollaan väistämättä uuden murroksen äärellä, koska DLSS, checkerboard rendering, erilaiset upscaling-metodit, sharpening filterit, variable rate shading ja koko liuta muita "non-brute-force" -tekniikoita ovat tulleet jäädäkseen. Näitä on pakko jollakin lailla myös verrata toisiinsa, ja silloin average fps jää automaattisesti vajaaksi metodiksi. Ja hyvä niin, koska se on aika paska suure kuvaamaan sitä, mikä on oleellista.
Tarkoitin tässä sillä ns. tieteellisellä metodilla samoja olosuhteita kaikille testattaville tuotteille (kone, käyttis, testiohjelmat ja asetukset, vain testattava tuote ja sen vaatimat ajurit vaihtuvat) ja sen takaamaa toistettavuutta. Pelikokemus on subjektiivinen asia, sitäkään ei voida siis pistää millekään tietylle pisteytykselle, paitsi tietenkin jokaisen pelaajan omalla subjektiivisella skaalalla, eli ei testikäytössä.

FPS on useimmille helpommin ymmärrettävä käsite, kuin frametime-graafi, vaikka jälkimmäinen informatiivisempi onkin. Se on todettu parhaaksi kompromissiksi isolle yleisölle, minkä johdolla markkinat kulkevat.
Mitä itse taantumiseen tulee, pois lukien [H] joka lopetti ihan muuhun kuin lukijoiden puutteeseen, on ennemminkin menty selvästi eteenpäin, kun yhä suurempi osa sivustoista huomioi ne frametimet vaikka taulukossa FPS lukeekin, ilmoittamalla juuri esimerkiksi 0.1/1% persentiilejä.
edit: ja techreportin "tuho" ei ollut ne graafit, vaan Scott Wassonin lähtö AMD:lle, minkä jälkeen informatiiviset graafit eivät enää riittäneet vetämään kylliksi väkeä sisään, Kampmanin lähtö ei auttanut ja sivuston re-design oli täydellinen floppi
 
FPS on mitattava suure, ei makuasia. Kuvanlaatu sen sijaan on makuasia, ei mitattava suure (poikkeaman referenssistä voi mitata, mutta sekään ei vastaa siihen onko se parempi vai huonompi kuin joku muu referenssistä poikkeava)

Ei ole olemassa mitään perusteita, miksi ns. tieteellisellä metodilla tehtäviin suorituskykytesteihin pitäisi sotkea mitään, mikä asettaa kortit lähtökohtaisesti eri asemaan, vielä vähemmän silloin kun se vaikuttaa kuvanlaatuun millään tapaa.

Tästä syystä varmaan jokainen itsensä vakavasti ottava testisaitti/youtube (pitkä)tukka laittaakin ne mitattavat suureet vastakkain SAMOILLA asetuksilla, jota testin jokainen näyttis tukee, aivan kuten ennenkin. Ja jos näkee tarpeelliseksi niin sen perään lisää testit vaikkapa 4k DLSS testit KERTOEN kaikki käytetyt asetukset ja lisäten halunsa mukaan screenshotit, videot, .gif animaatiot. Ei ole vaikeaa.

En näe tässä nyt mitään ongelmaa, jos/kun asia toteutetaan ym. tavalla. Ja DLSS tilalla ja lisäksi voidaan ihan hyvin käyttää mitä tahansa ja kenen tahansa valmistajan tai muun osapuolen teknologiaa.
 
Viimeksi muokattu:
Jos näyttiksen valmistaja markkinoi näyttiksessä olevan jotain skaalausjuttua kuten DLSS ni ehdottomasti testiin mukaan, mutta omana palkkinaan + sanallinen arvio ja ehkä pari kuvankaappausta toimivuudesta mukaan. Kyl DLSS on tainnu kuitenkin jo sen verran hypeä kerätä ja nVidia siihen panostaa. Ei siihen muita skaalaustapoja tartte mukaan tuoda, pl. tietysti AMD:n vastaava toteutus.
 
FPS on mitattava suure, ei makuasia. Kuvanlaatu sen sijaan on makuasia, ei mitattava suure (poikkeaman referenssistä voi mitata, mutta sekään ei vastaa siihen onko se parempi vai huonompi kuin joku muu referenssistä poikkeava)
Kyllä kuvanlaatuakin voi mitata esim. vertaamalla referenssikuvaan ja laskemalla SNR:iä + muita eroavaisuuksia.

FPS:nkin tapauksessa on subjektiivista, että mikä on riittävästi, jonka jälkeen enempi ei ole enää merkittävästi parempi.
 
Kyllä kuvanlaatuakin voi mitata esim. vertaamalla referenssikuvaan ja laskemalla SNR:iä + muita eroavaisuuksia.

FPS:nkin tapauksessa on subjektiivista, että mikä on riittävästi, jonka jälkeen enempi ei ole enää merkittävästi parempi.
Tuo on hyvä systeemi, jossa voi sillä sliderillä valita kuvasta, kumpi tila on näkyvissä. Jos siinä ei huomaa eroa, niin silloin on selvästikin hyvä.
 
Meillä on useita vakiintuneita kuluttajaelektroniikan haaroja, joissa subjektiivista käyttäjäkokemusta arvioidaan, vertaillaan ja tietyssä määrin kvantifioidaankin. ATK:n puolella esimerkiksi näytöt, joiden kuvanlaadun vertaaminen ei eroa periaatteellisella tasolla vaikkapa näytönohjaimen kuvanlaadun arvioinnista. Televisioiden osalta kuvanlaatu on kriteeri numero yksi, ja sitäkin saadaan sekä mitattua että vertailtua aika hyvin. Jopa äänenlaadun arviointiin on saatu mitattavaa ja vertailtavaa dataa vaikka kuinka, vaikka subjektivistit koittavat jarruttaa kynsin ja hampain.

Ihan turha näytönohjainten vertailussakaan on pitää kiinni dogmeista. Kehittämisen varaa metodeissa on vaikka kuinka paljon.
 
Tuo on hyvä systeemi, jossa voi sillä sliderillä valita kuvasta, kumpi tila on näkyvissä. Jos siinä ei huomaa eroa, niin silloin on selvästikin hyvä.
TAA ja DLSS tuottavat myös temporaalisia artefakteja joita et voi fiksusti esittää vaihtokuvalla.

Kuvanlaatu sen sijaan on makuasia, ei mitattava suure (poikkeaman referenssistä voi mitata, mutta sekään ei vastaa siihen onko se parempi vai huonompi kuin joku muu referenssistä poikkeava)
Terävöitysartefakteja on helppo mitata ja esittää. Overshoot/undershoot prosentteina, että halon leveys pikseleinä.
 
TAA ja DLSS tuottavat myös temporaalisia artefakteja joita et voi fiksusti esittää vaihtokuvalla.

Pistää sitten esim pari animoitua giffiä vierekkäin.

Oletko varma, että ko ongelmat eivät liity ihan kuvan pakkaukseen ennemminkin noissa videoarvosteluissa?
 
Pistää sitten esim pari animoitua giffiä vierekkäin.

Oletko varma, että ko ongelmat eivät liity ihan kuvan pakkaukseen ennemminkin noissa videoarvosteluissa?
Olen varma. Tuo johtuu siitä että noi tekniikat rekonstruoi kuvan kahden ruudun perusteella ja tämän takia nopeasti liikkuessa voi tulla erilaisia haamukuvia. Etenkin DLSS tuottaa välillä melko omituisia efektejä nopeasti liikkuvien pienten kohteiden perään. Giffit osasuurennoksista voisi olla suht toimiva ratkaisu.
 
Huomautan tässä välissä taas, että myös vilisevät sahalaidat ovat mitä suurimmassa määrin temporaalisia artefakteja, joita TAA ja DLSS oleellisesti vähentävät. AA:n laatua ei pitäisi koskaan arvioida still-kuvista IMHO.
 
Onko muuten tuosta DirectML toteutuksesta minkä verran tietoa, eli tuleeko AMD:n korteille / uusille konsoleille vastaavaa mahdollisuutta kuin DLSS, ja onko tuo sitten standardi jota pelikehittäjät tulee mahdollisesti käyttämään?

Aika paljon nyt näytönohjainta ostavana painaa kupissa tuo DLSS, niin saa 500-600€ hintaluokan näytönohjaimella oletettavasti 144hz/1440p kombosta aika paljon enemmän irti, kuin ilman DLSS kaltaista upscalea (etenkin sitten RTX on).
 
Onko muuten tuosta DirectML toteutuksesta minkä verran tietoa, eli tuleeko AMD:n korteille / uusille konsoleille vastaavaa mahdollisuutta kuin DLSS, ja onko tuo sitten standardi jota pelikehittäjät tulee mahdollisesti käyttämään?

Aika paljon nyt näytönohjainta ostavana painaa kupissa tuo DLSS, niin saa 500-600€ hintaluokan näytönohjaimella oletettavasti 144hz/1440p kombosta aika paljon enemmän irti, kuin ilman DLSS kaltaista upscalea (etenkin sitten RTX on).
Ei ole mitään tietoa siitä että moista oltaisiin tekemässä.

Henkilökohtaisesti en ihan hoksaa, että miksi nvidia ei tuota julkaissut open sourcena tai direct ml toteutuksena. Niillä on kuitenkin dramaattisesti nopeampi tekoälykiihdytys tällä hetkellä ja ilman vendor lockia monissa arvosteluissa tuota vertailtaisiin tasavertaisena esim. 4k reson ohella. Kyseisessä verailussa nvidia veisi isolla marginaalilla tehokkaiden tensor ytimiensä takia. Nykymuodossaan toi jää arvosteluissa kuriositeetiksi, sillä ei kukaan ala 4k reson testejä ajamaan DLSS päällä jos vain toisella valmistajalla sen saa päälle ja kaikkien mielestä se vaikuttaa kuvanlaatuun.
 
Ei ole mitään tietoa siitä että moista oltaisiin tekemässä.
DirectML:llä pyörivää tekoälyskaalausta on demottu jo ajat sitten (vuosi tai pari suurin piirtein), oli siitä videokin olemassa jossain muttei tietenkään tähän hätään löydy
 
DirectML:llä pyörivää tekoälyskaalausta on demottu jo ajat sitten (vuosi tai pari suurin piirtein), oli siitä videokin olemassa jossain muttei tietenkään tähän hätään löydy
Pelkkä skaalaus on ihan eri asia kuin DLSS.

ML skaalaukseen löytyy valmiit toteutukset jotka voi varmaan päivässä portata direct ML:n päälle.
 
Pelkkä skaalaus on ihan eri asia kuin DLSS.

ML skaalaukseen löytyy valmiit toteutukset jotka voi varmaan päivässä portata direct ML:n päälle.
Tekoälyskaalaus se DLSS:kin on (nyt taas, välissä ollut vaihe oli vähän muuta kun vain CUDA-ytimillä ajettiin koodia minkä oli tarkoitus simuloida tulosta mihin tekoäly päätyisi), ei mitään sen kummempaa. Ja ihan pelikäyttöön tarkoitettu se mitä demottiin jollain autopelillä (Forza koska MS?). Tietenkään mitään vertailuja noiden välillä ei ole kun toista ei ole julkaistu ainakaan toistaiseksi.
 
Tekoälyskaalaus se DLSS:kin on, ei mitään sen kummempaa. Ja ihan pelikäyttöön tarkoitettu se mitä demottiin jollain autopelillä (Forza koska MS?). Tietenkään mitään vertailuja noiden välillä ei ole kun toista ei ole julkaistu ainakaan toistaiseksi.
DLSS on myös antialisointitekniikka. Sille myös syötetään n. kolminkertainen määrä dataa kuin mitä perus skaalausalgortimille syötettäisiin.
 
DLSS on myös antialisointitekniikka. Sille myös syötetään n. kolminkertainen määrä dataa kuin mitä perus skaalausalgortimille syötettäisiin.
Antialiasiointi tulee osana sitä skaalausta, ei mitenkään erikseen, myös sillä MS:n demoamalla.
 
Turha sille DLSS:lle on antaa sen enempää määrittelyitä. Sen toiminta on vaihdellut versiosta toiseen, eikä ole olemassa mitään virallista speksiä siitä, että mitä se tekee ja miten se sen tekee.

DLSS on Nvidian tarkemmin määrittelemätön taika-algoritmi jonka sisältö ja lopputulos vaihtelee. Lopputuloksena on tällä hetkellä erilainen miksi temporaalista ja spatiaalista reunanpehmennystä, upskaalausta ja mitälie sharpening-efektiä. Missään ei ole speksiä siitä, että mitä se tarkalleen on ja Nvidia on pidättänyt oikeuden vaihtaa toimintaa miten lystää.

Kauhean tarkka määrittely täällä threadissä on ihan turhaa, kun ylihuomenna voi tulla uusi ajuriversio ja kaikki voi muuttua.
 
Antialiasiointi tulee osana sitä skaalausta, ei mitenkään erikseen, myös sillä MS:n demoamalla.
Laitas linkkiä. Ainakin tässä DLSS2.0:ssa antialisointi on paljon parempaa kuin mitä millään skaalauksella voi saada aikaiseksi. Se osaa tunnistaa alle pikselin levyiset kappaleet ja sekä yhdistää että antialisoida ne. Noi on asioita mitä ei skaalausalgo osaa/kykene tekemään.

Edelleen, DLSS(2.0) EI ensisijaisesti ole skaalausalgoritmi. Sen skaalauslaatu on ihan roskistasoa, siinä missä antialisointi on parasta mitä temporaalisilla menetelmillä on tähän mennessä saavutettu.
 
Laitas linkkiä. Ainakin tässä DLSS2.0:ssa antialisointi on paljon parempaa kuin mitä millään skaalauksella voi saada aikaiseksi. Se osaa tunnistaa alle pikselin levyiset kappaleet ja sekä yhdistää että antialisoida ne. Noi on asioita mitä ei skaalausalgo osaa/kykene tekemään.

Edelleen, DLSS(2.0) EI ole skaalausalgoritmi.
Ei skaalausalgoritmi vaan tekoälyskaalaus. Ei se tarkoita vain mitään naiivia suoraa skaalausta, vaan myös erikoisempia kuten se DLSS mikä käyttää useamman framen dataa sun muita loitsuja.
Sitä linkkiä tarkoittamaani videoon on vaikea löytää, eikä sinänsä ihme koska se oli kuvattu jossain messuilla pidetyssä esityksessä yleisöstä eikä julkaistu mitenkään virallisena videona jakoon, päivittelen kyllä tähän viestiin tai uutena replynä jos/kun saan sen kaivettua netin syövereistä esiin

edit:
Ja heti kun sanoin tuon löysin sen ihan täältä foorumilta omasta postauksestani. Oli myös ihan virallinen Siggraph-video, toisin kuin muistin. Kohta on n. ajassa 14.35

 
Ei skaalausalgoritmi vaan tekoälyskaalaus. Ei se tarkoita vain mitään naiivia suoraa skaalausta, vaan myös erikoisempia kuten se DLSS mikä käyttää useamman framen dataa sun muita loitsuja.
Ihan nimensäkin puolesta kyseessä on ensisijaisesti antialisointitekniikka (koneoppimis ylinäytteistys). Sen laatu vaan sattuu olemaan niin hyvä (vrt. TAA) että sitä voidaan käyttää skaalauksen yhteydessä ilman että fanipojat edes huomaa eroa kuvanlaadussa.
 
Ihan nimensäkin puolesta kyseessä on ensisijaisesti antialisointitekniikka (koneoppimis ylinäytteistys). Sen laatu vaan sattuu olemaan niin hyvä (vrt. TAA) että sitä voidaan käyttää skaalauksen yhteydessä ilman että fanipojat edes huomaa eroa kuvanlaadussa.
Sillä nimellä ei ole mitään tekemistä todellisuuden kanssa tai mitä se teknologia tekee/käyttää. DLSS:ssä ei ole supersamplingia missään muualla kuin nimessä.
Ja se on nimenomaan skaalautekniikka, ei antialaisiointitekniikka, ihan NVIDIAnkin mielestä.
With Deep Learning Super Sampling (DLSS), NVIDIA set out to redefine real-time rendering through AI-based super resolution - rendering fewer pixels and then using AI to construct sharp, higher resolution images.
 
DLSS:ssä ei ole supersamplingia missään muualla kuin nimessä.
Postaa toki linkki lähdekoodiin. Kyllä siinä on temporaalis-spatiaalista supersamplausta ainakin jonkun paperin mukaan.

edit:
TAA:ssa ja DLSS:ssä molemmissa jokainen pikseli samplataan jokaisella ruudulla hieman eri paikassa kuin edellisellä. Sitten näistä algoritmisesti tai jollain ML kikkareella askarrellaan temporaalisesti stabiilihko kuva. Tämä on teknisesti supersamplausta.

lisäksi edelleen väittäisin, että DLSS(2.0) toimii kahdessa osassa, joista ensimmäisessä rakennetaan antialisoitu matalan resoluution kuva ja vasta sitten se skaalataan haluttuun resoluutioon. Jos se skaalaus tapahtuisi samassa osassa antialisoinnin kanssa, niin DLSS osaisi luoda pienempiä yksityiskohtia (esim kapeampia sähkölinjoja) kuin pohjaresoluution pikselikoko. Se ei siihen kykene, joten vaikka se skaalaus tapahtuisi samanaikaisesti antialisoinnin kanssa, niin esimerkkejä ei ole olemassa joissa tämän voisi mitenkään lopputuloksesta havaita. Lisäksi noi terävöitysartefaktit (over/undershoot) on vaikea luoda jos ML verkkoa opetetaan vain matkimaan tarkemman resoluution kuvaa, sillä niitä ei ole lainkaan siinä 'ground truth' kuvamateriaalissa.
 
Viimeksi muokattu:
Postaa toki linkki lähdekoodiin. Kyllä siinä on temporaalis-spatiaalista supersamplausta ainakin jonkun paperin mukaan.

edit:
TAA:ssa ja DLSS:ssä molemmissa jokainen pikseli samplataan jokaisella ruudulla hieman eri paikassa kuin edellisellä. Sitten näistä algoritmisesti tai jollain ML kikkareella askarrellaan temporaalisesti stabiilihko kuva. Tämä on teknisesti supersamplausta.

lisäksi edelleen väittäisin, että DLSS(2.0) toimii kahdessa osassa, joista ensimmäisessä rakennetaan antialisoitu matalan resoluution kuva ja vasta sitten se skaalataan haluttuun resoluutioon. Jos se skaalaus tapahtuisi samassa osassa antialisoinnin kanssa, niin DLSS osaisi luoda pienempiä yksityiskohtia (esim kapeampia sähkölinjoja) kuin pohjaresoluution pikselikoko. Se ei siihen kykene, joten vaikka se skaalaus tapahtuisi samanaikaisesti antialisoinnin kanssa, niin esimerkkejä ei ole olemassa joissa tämän voisi mitenkään lopputuloksesta havaita. Lisäksi noi terävöitysartefaktit (over/undershoot) on vaikea luoda jos ML verkkoa opetetaan vain matkimaan tarkemman resoluution kuvaa, sillä niitä ei ole lainkaan siinä 'ground truth' kuvamateriaalissa.
Joo, olet oikeassa että 2.0:ssa on teknisesti pieni pätkä myös supersamplausta TAA:n tapaan, mutta yleensä tässä yhteydessä tarkoitetaan supersamplingilla sitä perinteisempää ylinäytteistystä eli pohjimmiltaan lopullista korkeammalla resoluutiolla renderöintiä
 

Statistiikka

Viestiketjuista
258 252
Viestejä
4 491 053
Jäsenet
74 171
Uusin jäsen
äänihaitta

Hinta.fi

Back
Ylös Bottom