Keskustelua yliskaalaustekniikoista Nvidia Dlss&Nis, Amd Fsr, Intel Xess.

Hankala keskustella pitkästä videosta.Ehkä ruutukaapausta ja kommentit niin voi syntyä keskustelua? Ainakin artikkelin graafeista syntyy kuva, että lagi ei ole ongelma, kun reflex+dlss3 lagi on pienempi kuin natiivissa lagi. Oliko HUB:lla amd lagia peleissä mitattu?

Jos kyse on jostain 30fps - 60fps interpoloinnista niin siinä lagi varmasti on ongelma ja tuohon tuskin on dlss3:sta tarkoitettu. Parempi olisi pudottaa asetuksia niin, että saa ainakin 60fps tai mieluummin 120fps ja sit dlss3:lla tuplata 120fps tai 240fps:aan.

Jos kyse oli kilpapeleistä niin niissä dlss tai 4k tuskin on juttu. DLSS3 on juttu sit kun cpu ei pysy enää mukana ja kuitenkin haluaisi fps:aa ylöspäin.

Kunhan noita 40x0 kortteja on porukalla enempi niin olisi kiva tehdä polli kortin omistajille, että onko dlss3 paska, toisinaan jees tai ehkä aina jees.
Video jaettu timestampilla suoraan tuohon osioon ja cb2077 graafeihin. Muttajoo, kuten niistä näkee niin tuo on pelikohtaista onko parempi/huonompi latenssi kuin natiivilla. Ja nimenomaan cpu bottleneck tilanteissa tuo latenssi menee huonommaksi kuin natiivisti.

1665692635000.png


Vähän turhakkeeltahan tuo tuntuu. Alemman luokan korteilla (eli tulevat 4060, 4070?) tuolla ei tee oikeastaan mitään kun pitäisi olla järkevä fps alkuunkin jotta tuota kannattaa käyttää. Kilpailullisiin peleihin ei sovellu. Ja jos pelissä saa jo sen +100 fps niin mitä teet sen tuplaamisella. Ennemmin natiivi ilman mahdollisia artifakteja sun muita ongelmia. Palataan asiaan varmaan joskus DLSS4 aikana ellei tuota tapeta jo sitä ennen.
 
Video jaettu timestampilla suoraan tuohon osioon ja cb2077 graafeihin. Muttajoo, kuten niistä näkee niin tuo on pelikohtaista onko parempi/huonompi latenssi kuin natiivilla. Ja nimenomaan cpu bottleneck tilanteissa tuo latenssi menee huonommaksi kuin natiivisti.

1665692635000.png


Vähän turhakkeeltahan tuo tuntuu. Alemman luokan korteilla (eli tulevat 4060, 4070?) tuolla ei tee oikeastaan mitään kun pitäisi olla järkevä fps alkuunkin jotta tuota kannattaa käyttää. Kilpailullisiin peleihin ei sovellu. Ja jos pelissä saa jo sen +100 fps niin mitä teet sen tuplaamisella. Ennemmin natiivi ilman mahdollisia artifakteja sun muita ongelmia. Palataan asiaan varmaan joskus DLSS4 aikana ellei tuota tapeta jo sitä ennen.

Sun linkkaamassa graafissa tulee 10ms takkiin lagissa dlss3 päällä. Saa olla melko ninja, että ton 10ms huomaa :) Olis kiva nähdä amd latenssit, kun amd:lla on oma teknologia ja reflex ei toimi amd:lla.

Alemman hintaluokan korteilla voi konffata pelin asetuksia niin, että saa halutun fps:an(latenssi 1000ms/fps+10ms) ja sitten tuplaa fps:n dlss3:lla. Jos haluaa pelata vaikka natiivi about 60fps lagilla niin säätää asetukset 60fps ja sitten dlss3:lla tuplaa 120fps. Monella voi olla 120Hz tai jopa 240Hz näyttö mille olisi kiva keksiä käyttöä?

DLSS3 tarpeellisuus lienee katsojan silmässä. Digital foundrysta saa ehkä enempi tasapainossa olevan näkymyksen kuin HUB:sta. Asetukset kannattaa säätää niin, että jää varaa cpu:lle oli sitten dlss3 käytössä tai ei. CPU tapissa tekee tuhoa pelikokemukselle pelasi niin tai näin,

Mun mielipide on, että dlss3 teknologia on niille käyttäjille, jotka haluavat nostaa yksinpelin 60fps-120fps tai 120fps-240fps. Latenssi ei parane, mutta kuva on smoothimpi. Lagi ei imho. ole ongelma, kun reflex sitä lagia poistaa aika rankalla kädellä versus aika ei ennen reflexiä? Ellei sitten halua argumentoida, että vain reflex päälläolevat pelit ovat pelattavia,... 10ms lisää lagia ei tapa yksinpelikokemusta.

Toinen keissi on flightsimulator missä fps:aa ei saa mitenkään ylös, kun cpu pullonkaula on armoton. Siellä dlss3 voi olla ainoa keino saada isompi fps.

Jos HUB:ia uskoo ampere julkaisusta niin dlss2 on ihan paska, jotku ehkä ajattelee edelleen niin ja kolmannet käyttävät onnellisena. Ei se oli niin poisluettua etteikö dlss3 parannu ja löydä yleisönsä kuten dlss2, fsr2, xess jne. Loppujen lopuksi iso osa dlss3:sta on softaa(neuroverkko/neuroverkot, jotka arpovat pikselit).

imho. Äänestys dlss3 käytöstä 40x0 omistajille 6kk päästä vois kertoa missä mennään. Onko turhake vai ei. En usko, että lisälagi tappaa dlss3:sta. Artifaktat sitten taas hyvinkin voivat tehdä dlss3:sta turhakkeen, jos niitä on liikaa.
 
Viimeksi muokattu:
Sun linkkaamassa graafissa tulee 10ms takkiin lagissa dlss3 päällä. Saa olla melko ninja, että ton 10ms huomaa :) Olis kiva nähdä amd latenssit, kun amd:lla on oma teknologia ja reflex ei toimi amd:lla.

Alemman hintaluokan korteilla voi konffata pelin asetuksia niin, että saa halutun fps:an ja sitten tuplaa fps:n dlss3:lla. Jos haluaa pelata vaikka natiivi about 60fps lagilla niin säätää asetukset 60fps ja sitten dlss3:lla tuplaa 120fps. Monella voi olla 120Hz tai jopa 240Hz näyttö mille olisi kiva keksiä käyttöä?

DLSS3 tarpeellisuus lienee katsojan silmässä. Digital foundrysta saa ehkä enempi tasapainossa olevan näkymyksen kuin HUB:sta. Asetukset kannattaa säätää niin, että jää varaa cpu:lle oli sitten dlss3 käytössä tai ei. CPU tapissa tekee tuhoa pelikokemukselle pelasi niin tai näin,

Mun mielipide on, että dlss3 teknologia on niille käyttäjille, jotka haluavat nostaa yksinpelin60fps-120fps tai 120fps-240fps. Latenssi ei parane, mutta kuva on smoothimpi. Lagi ei imho. ole ongelma, kun reflex sitä lagia poistaa aika rankalla kädellä versus aika ei ennen reflexiä? Ellei sitten halua argumentoida, että vain reflex päälläolevat pelit ovat pelattavia,... 10ms lisää lagia ei tapa yksinpelikokemusta.

Toinen keissi on flightsimulator missä fps:aa ei saa mitenkään ylös, kun cpu pullonkaula on armoton. Siellä dlss3 voi olla ainoa keino saada isompi fps.
Pointti oli että se input lagi on huomattavasti helpommin huomattavissa kuin lievästi sulavampi kuva. En näe järkeä tuolle ominaisuudelle niin kauan kuin natiivi tai dlss ilman frame geniä pääsee pelattaviin lukemiin. Se korkeampi fps on kirjaimellisesti tyhjä numero jos itse pelikokemus tuntuu samalla huonommalta. Tuohon päälle vielä nuo artifaktit sun muut ongelmat niin ei kyllä itseä vakuuta yhtään, tällä hetkellä.

Jos HUB:ia uskoo ampere julkaisusta niin dlss2 on ihan paska, jotku ehkä ajattelee edelleen niin ja kolmannet käyttävät onnellisena. Ei se oli niin poisluettua etteikö dlss3 parannu ja löydä yleisönsä kuten dlss2, fsr2, xess jne. Loppujen lopuksi iso osa dlss3:sta on softaa(neuroverkko/neuroverkot, jotka arpovat pikselit).
En kyllä muista nähneeni tuollaista koskaan, enemmänhän ne on yleensä kehuneet DLSS2 parhaaksi toteutukseksi vrt. FSR jne. Mahdat sekoittaa siihen ensimmäiseen DLSS versioon joka tuli Turingin mukana. Sehän oli ihan susipaska, ei sen puoleen.

Ja enkö juuri todennut edellisessä viestissä että katsellaan sitten vaikka DLSS4 tai mikä onkaan vuoden-parin päästä, hyvinkin voidaan saada korjattua pahimmat ongelmat. En silti usko että esimerkiksi noista arftifakteista päästään koskaan eroon, se ei vaan ole oikein mahdollista ennustaa kuvaa tietyissä tilanteissa kun dataa ei ole tarpeeksi.
 
Pointti oli että se input lagi on huomattavasti helpommin huomattavissa kuin lievästi sulavampi kuva. En näe järkeä tuolle ominaisuudelle niin kauan kuin natiivi tai dlss ilman frame geniä pääsee pelattaviin lukemiin. Se korkeampi fps on kirjaimellisesti tyhjä numero jos itse pelikokemus tuntuu samalla huonommalta. Tuohon päälle vielä nuo artifaktit sun muut ongelmat niin ei kyllä itseä vakuuta yhtään, tällä hetkellä.

10ms lisälagia tuskin huomaa ja grafiikkaa näyttää smoothimmalta jos saa sen natiivin 60fps tilalta dlss3:en avulla 120fps. Peli pelaa sen 10ms lagisempana, mutta grafiikka on sulavampi. Joku voi tykätä, joku ei. Toi konversiohan tehdään tensoriyksiköiden ja optical flow yksikön avulla niin fps:n tuplaaminen ei ole pois muista resursseista.

Jos se 10ms on dealbreaker voi kysyä miten kukaan voi pelata yhtään peliä, jossa ei ole reflex toteutettuna ja vaikka vähintään 120fps tiskissä? Lagia on peleissä ollut iät ja ajat. Hyvin harva peli on oikeasti optimoitu minimilagiseksi tyyliin reflex tms. integraatiolla + iso fps.

Imho. digital foundryn dlss3 video on paljon tasapainoisempi kuin HUB:in pätkä.

imho. pc pelaamisen suola on jännittävät teknologiat. Olis tosi tylsää, jos kukaan ei yrittäisi jotain uutta. Joskus onnistuu, joskus ei.
 
Viimeksi muokattu:
10ms lisälagia tuskin huomaa ja grafiikkaa näyttää smoothimmalta jos saa sen natiivin 60fps tilalta dlss3:en avulla 120fps. Peli pelaa sen 10ms lagisempana, mutta grafiikka on sulavampi. Joku voi tykätä, joku ei. Toi konversiohan tehdään tensoriyksiköiden ja optical flow yksikön avulla niin fps:n tuplaaminen ei ole pois muista resursseista.

Jos se 10ms on dealbreaker voi kysyä miten kukaan voi pelata yhtään peliä, jossa ei ole reflex toteutettuna ja vaikka vähintään 120fps tiskissä? Lagia on peleissä ollut iät ja ajat. Hyvin harva peli on oikeasti optimoitu minimilagiseksi tyyliin reflex tms. integraatiolla + iso fps.

Imho. digital foundryn dlss3 video on paljon tasapainoisempi kuin HUB:in pätkä.

imho. pc pelaamisen suola on jännittävät teknologiat. Olis tosi tylsää, jos kukaan ei yrittäisi jotain uutta. Joskus onnistuu, joskus ei.
Mielipiteitä. Edelleen en näe järkeä lievästi sulavamassa kuvassa + artifakteissa + input lagissa verrattuna siihen natiiviin tai DLSS2.

Uudet teknologiat on suola, mutta edelleen itseä ei vakuuta. Katsotaan seuraavassa iteraatiossa uudelleen.
 
Mielipiteitä. Edelleen en näe järkeä lievästi sulavamassa kuvassa + artifakteissa + input lagissa verrattuna siihen natiiviin tai DLSS2.

Uudet teknologiat on suola, mutta edelleen itseä ei vakuuta. Katsotaan seuraavassa iteraatiossa uudelleen.

Ehkä ennemmin odottelisin kommentit palstan 40x0 tulevilta omistajilta + ehkä antaisin joessa virrata vettä 6kk ajan ennen tuomitsemista. En usko, että kaikki tuota tulevat vihaamaan tai rakastamaan eivätkä kaikissa peleissä. Eikä tosin tarvitsekaan. On niin monenlaista pelaamista ja samat asetukset ei kaikkeen pelaamiseen ole optimaaliset.
 
Hankala keskustella pitkästä videosta.Ehkä ruutukaapausta ja kommentit niin voi syntyä keskustelua? Ainakin artikkelin graafeista syntyy kuva, että lagi ei ole ongelma, kun reflex+dlss3 lagi on pienempi kuin natiivissa lagi. Oliko HUB:lla amd lagia peleissä mitattu?

Kyllä, reflex+dlss+fg on parempi lagiltaan, kuin natiivi. Tuossa argumentissa on vain pari ongelmaa.
- Tuo natiivi ilman reflexiä voi olla vaikka se cyberpunk 2077 & RTX on, jota edes 4090 ei jaksa ilman DLSS:ää.
- Jos on kyky aktivoida DLSS3 ja FG, on optio aktivoida myös DLSS3 ja reflex. Joten sitä käyttäessä AINA valitsee lagilisän ja nopeamman ruudunpäivityksen.

Arvosteluvideoiden perusteella koko tekniikka on parhaillaan, jos ennen aktivointia fps:t on siellä sadan nurkilla, joten sinänsä koko lagikeskustelu on turhaa. Silloin lagi on jo riittävän pieni muutenkin ja esports peleissä, jossa niillä viimeisilläkin millisekunneilla on tietäjien mukaan merkitystä, ei kukaan käytä koko featurea. Eipä ne edes mitään framegenerointia edes tarvitsekkaan.
 
Ihana subjektiivinen kyllä tämä aihe. Jokeri on ihan täpinöissään DLSS3:sta. Ei kuulemma vaan näe artefakteja vaikka koittaa niitä oikein etsimällä etsiä.




Ens viikolla pääsee itse koittamaan, näkyykö ne ai framet oikeasti minulle itselle pelatessa, vai onko vaan YT hidastus video/Kaotik 800% zoom kamaa. :p
 
Digital foundrysta saa ehkä enempi tasapainossa olevan näkymyksen kuin HUB:sta.
HUB DLSS3 videota en ole vielä katsonut, mutta lähtökohtaisesti tuntuisi hyvinkin erikoiselta jos Nvidian sponsoroima video on enempi tasapainossa kuin lähteen jolla ei ole mitään sidoksia Nvidiaan tai muihinkaan näytönohjainvalmistajiin.

Ainakin aiemmat DLSS videot on olleet hyvinkin asiallisia HUB:lla.
 
Toi AMD:n FSR 2.0 toimii ainakin VR:n puolella paremmin kuin DLSS 2.0 ja eilen lentosimussa testasin myös, niin antoi enemmän FPS:ää. Jotenkin tekis mieli odotella AMD tulevaa korttia ja mikä sen hinta on, ei tuo DLSS 3.0 mitenkään hyvää vastaanottoa ole saanut lentosimupiireissä vaikka FPS nousee hirveästi.
 
Toi AMD:n FSR 2.0 toimii ainakin VR:n puolella paremmin kuin DLSS 2.0 ja eilen lentosimussa testasin myös, niin antoi enemmän FPS:ää. Jotenkin tekis mieli odotella AMD tulevaa korttia ja mikä sen hinta on, ei tuo DLSS 3.0 mitenkään hyvää vastaanottoa ole saanut lentosimupiireissä vaikka FPS nousee hirveästi.

Molemmissa algoritmeissa on laatuasetuksia. Laatuasetuksia ts. alkuperäistä renderöintiresoluutiota pudottamalla saa lisää fps:aa. Jotkin pelit eivät anna käyttäjän valita laatua vaan on jokin pelintekijän valitsema vakioasetus päällä.

Tuohon dlss3:een liittyen niin ei yllätä, että HUB tekee yhdenlaisen mielipiteen mitä toistellaan ja digital foundry toisenlaisen. Mä otan taukoa dlss3 keskustelusta ja katson mitä käyttäjät on asiasta mieltä + miten algoritmi kehittyy sanotaanko vaikka ensi kesään mennessä. 6-12kk päästä voi alkaa oikeasti tuomitsemaan/hehkuttamaan.
 
Digital Foundry ei ole puolueeton taho joten heidän lukemat ja päätelyt vaativat myös pikkaisen suolaa mutta HUB ja GN ovat puolueetomia ja HUB Tim tekee tarkka tayötä kuvanlaadullisiin juttuihin aivan kuten HUB Steve tekeen suorituskyky testeihin
 
Digital Foundry ei ole puolueeton taho joten heidän lukemat ja päätelyt vaativat myös pikkaisen suolaa mutta HUB ja GN ovat puolueetomia ja HUB Tim tekee tarkka tayötä kuvanlaadullisiin juttuihin aivan kuten HUB Steve tekeen suorituskyky testeihin

HUB on mielestäni ollut pitkään hyvin Nvidia-kriittinen ja AMD-myönteinen. Voi katsoa esim. FSR 1.x vs DLSS 1.x käsittelyä tai AMD-näyttisten arvosteluja joissa DLSS 2.x on mainittu vähän sivuhuomautuksena silloin kun FSR ei ollut vielä juttu. Tää uusin DLSS 3 video on melkein agressiivinen verrattuna DF. Joten kannattaa katsoa useampi lähde ja vetää omat johtopäätökset.

Pelailen tällä hetkellä Judgmentia, joka tukee FSR 2.1 muttei DLSS. Siihen saa FSR tilalle kuitenkin modattua DLSS:n. Ihan missä tahansa moodissa DLSS 2.x näyttää pelissä mielestäni selvästi paremmalta. FSR on ihan käyttökelpoinen, mutta ei kuitenkaan pärjää DLSS:lle minun silmääni. Toivoa sopii, että seuraavan sukupolven AMD-kortit tarjoavat jotain kiihdytystä, ML-tukea tms joka auttaisi FSR:n Nvidiaa vastaavalle tasolle. Näillä Nvidian 40xx hinnoilla ei haittaisi yhtään hypätä AMD:n leiriin.

Minusta DLSS 3 vaikuttaa tekniikalta, joka on alkutekijöissään ja paranee seuraavan parin vuoden aikana samoin kuin DLSS 2.x. Jos Nvidia saa ratkaistua nuo liikkuvan UI:n ongelmat ja parannettua latenssia tulevaisuudessa, niin eiköhän tämäkin ole mainio työkalu. Voi sitten valita "kuvanlaatu + parempi fps - latenssi" käyttämällä DLSS 3 Balanced/Quality + Frame Generation tai "huonompi kuvanlaatu + parempi fps ja latenssi" käyttämällä DLSS Performance/Ultra Performance ilman Frame Generationia omien mieltymysten ja pelityypin kohdalla.
 
Itse olen huomannut sen kun 30v on tullut täyteen pelaaminen on vähentynyt ja pelailen käytänössä strategia ja rakennus pelejä silloin tällöin töiten jälkeen. Joten Dlss and fsr ei ole niin tärkeä itselle mutta seuraan miten kehitys kehittyy
 
HUB on mielestäni ollut pitkään hyvin Nvidia-kriittinen ja AMD-myönteinen. Voi katsoa esim. FSR 1.x vs DLSS 1.x käsittelyä tai AMD-näyttisten arvosteluja joissa DLSS 2.x on mainittu vähän sivuhuomautuksena silloin kun FSR ei ollut vielä juttu. Tää uusin DLSS 3 video on melkein agressiivinen verrattuna DF. Joten kannattaa katsoa useampi lähde ja vetää omat johtopäätökset..

Omasta mielestä ko. kanavalla ollaan aika tasapuolisia oltu yleisesti. Steve on enemmän "kallellaan" AMD kortteihin, kun kerran antaa enemmän arvoa hyvällä pyörimiselle ja vaatii tietyn FPS lukeman ennen kuin kokee kokemuksen hyväksi. Tällöin luonnollisesti RT saa kuraa niskaan jos se tiputtaa suorituskykyä liikaa ja nautinto laskee.

Tim taas on ollut selkeämmin NVIDIAn "kannattaja" siltä osin että on kokenut dlss ja RT efektit mielekkäämmiksi kun pelaa enemmän yksinpelejä. Kuvanlaatu on kuitenkin tärkeää, ihan jo varmaan senkin takia kun tekee paljon monitoritestejä ja kokee että kuvan pitää olla hyvä.

Toki kokemukset ovat hyvin subjektiivisia, mutta mielestäni esim. tässä uusimmassa dlss3 videossa Tim perustelee näkemyksensä erinomaisesti. Eri mieltä voi toki olla, mutta ei ko. kokemuksia kannata olankohautuksella ohittaa.
 
On kyllä täysin käsittämätöntä miten jotkut pitää HUB Nvidia shillinä ja toiset AMD shillinä. Mielestäni HUB on ollut niin neutraali kuin voi ylipäätään olla DF:llä on selvästi markkinahenkisempi ote DLSS3 previw oli täysin nvidia markkinointia tuo koko arvostelu sitten neutraalimpi. Flight simulatorin UI bugeista ei mitään mainintaa toisin kuin HUB:lla. Kuvan välkkyminen on aina huomattavin ja ärsyttävin graafinen bugi varsinkin jos se on UI:ssa.
 
Minusta kaikkein "huvittavinta" on se, että väitellään vahvasti subjektiivisesti asiasta jonkun muun arvioiden perusteella. Voihan näitä vertailuja tehdä ja kyllä niissä aina eroja ja virheitä tms. löydetään, mutta eri asia on se, miten itse ne kokee. Nuokin arviot ovat suurimmaksi osin vain ko. henkilöiden mielipiteitä asiasta. UI:n vilkkuminen on toki todella häiritsevä asia, mitä ei missään nimessä saisi tapahtua.

Toisekseen pelien omat AA:t aiheuttaa usein myös virheitä liikkuviin objekteihin, joten lopulta kyseessä on käyttäjän mielipide, minkä AA:n/Skaalaustekniikan virheet on vähiten häiritseviä.
 
On kyllä täysin käsittämätöntä miten jotkut pitää HUB Nvidia shillinä ja toiset AMD shillinä. Mielestäni HUB on ollut niin neutraali kuin voi ylipäätään olla DF:llä on selvästi markkinahenkisempi ote DLSS3 previw oli täysin nvidia markkinointia tuo koko arvostelu sitten neutraalimpi. Flight simulatorin UI bugeista ei mitään mainintaa toisin kuin HUB:lla. Kuvan välkkyminen on aina huomattavin ja ärsyttävin graafinen bugi varsinkin jos se on UI:ssa.
Ainakin itse sanoin, että havaitsen HUB:n videoissa enemmän AMD-myönteisyyttä ja vastaavasti Nvidia-kriittisyyttä. Tämä ei tarkoita, että heille olisi maksettu siitä, että kehuvat toista brändia, vaan kyseessä on enemmän HUB:n tyyppien henkilökohtaisten mieltymysten näkyminen itse videoiden sisällössä, mikä vähentää mielestäni niiden objektiivisuutta.

DF on minusta ollut aina enemmän "tee itse omat johtopäätöksesi" linjalla eikä ota mitenkään erityisen selvästi kantaa. Heillä on kyllä Nvidian sponsoroimaa materiaalia, mutta se on myös merkattu sellaiseksi. Olen ok tämän kanssa.

Mutta näistä voi varmasti vääntää loputtomiin, koska kyseessä on kuitenkin miten me katsojina koemme heidän sisältönsä. Siksi kannattaa katsoa useamman kanavan sisältöä ja tehdä omat johtopäätökset. Mielestäni DLSS 3:sta sekä HUB että DF esittivät hyviä pointteja.

Katsotaan mitä AMD:n seuraava sukupolvi tuo tullessaan. Nvidialla on mielestäni tällä hetkellä etulyöntiasema pääasiassa heidän tarjoamiensa teknologioiden puolesta eli parempi RT-suorityskyky, DLSS 2+ kuvanlaatu ja Reflex latenssin minimoimiseen.
 
Miten teet omat johtopäätökset jos asiaa ei mainita? Esim. itselle tuo kuvan välkkyminen olisi täysi deal breaker varsinkin jos se näkyy vielä paremmin matalemmalla ruudunpäivitysnopeudella eli halvemmilla korteilla jossa niistä generoiduista frameista olisi oikeasti jotain hyötyä. Hub on myös aina ylistänyt DLSS2 ja kyseenalaistivat 1.0 koska se kuvanlaatu oli oikeasti paska (kuten myös fsr1.0) Nvidiahan yritti laittaa bannia hubille koska ohittivat RT:n 2000 sarjan julkaisussa koska silloin se oli vielä kohtuu turha ominaisuus koska pelejä ei ollut mutta keskittyivät DLSS koska siitä oikeasti oli hyötyä.
 
Viimeksi muokattu:
DF on minusta ollut aina enemmän "tee itse omat johtopäätöksesi" linjalla eikä ota mitenkään erityisen selvästi kantaa. Heillä on kyllä Nvidian sponsoroimaa materiaalia, mutta se on myös merkattu sellaiseksi. Olen ok tämän kanssa.

Paitsi ettei DF saa tehdä täysin omia johtopäätöksiä heti launchin jälkeen uusista tekniikoista tai versioista, kun ne ekat revikat on täysin Nvidian rajaamia, eli he päättää mitä pelejä ja päättääkö peräti että mitä kohtia saa näyttää? Sitten vasta embargojen umpeuduttua saavat vapaasti testata, eli silloin tulee hyvää revikkaa DF:ltä. Minusta nuo ekat rajatut voisi jättää kokonaan tekemättä. Niillä lähinnä mainostetaan ja markkinoidaan Nvidian uusia tekniikoita ja versioita niistä. Kyllä arvostelijan pitää saada näyttää haluamiaan pelejä ja kohtia niissä.

Myös HBU osaa tehdä hyviä revikoita, puolueellisuudesta en tiedä, ehkä ovat ehkä eivät. Sen tiedän että eniten HBU:n puolueellisuudesta vinkuu Nvidian fanit, jotka ei siedä juuri mitään kriittistä näkökulmaa Nvidian tekemisiin. Siksi katsotaan Digital Foundryä joka on huomattavasti vähemmän kriittinen, eikä hirveästi antanut DLSS alkuaikoina kritiikkiä vaikka olihan se DLSS alussa todella ongelmainen. Nykyisin on tosi hyvä ja itse RTX-kortilla käytän DLSS 4k takia.

Ei siinä, kukin katsoo mitä katsoo, ja kunkin median puolueellisuus riippuu myös itse kuluttajan näkökulmista. Kukaan meistä ei ole täysin puolueeton ja objektiivinen ;)
 


HW Unboxed vertasi DLSS, FSR2.0 ja XESS. Samat laatuasetukset ja fps lukemiltaan lähinnä toisaan olevat moodit oli vertailussa. Spoiler: DLSS teki parasta jälkeä, FSR2 sitten ja viimeisenä XESS. Varsinkin Spidermanin XESS ghostaus oli aika karua katsottavaa.

Käsittääkseni Hitman & Spiderman oli FSR 2.1 ja Death Stranding FSR 2.0. Death Stranding olikin ainoa peli, jossa XESS pärjäsi ghostingissa FSR:lle.
 
Viimeksi muokattu:
Digital Foundry on testannut Scornin FSR 2.0 -toteutusta Xbox Series X:llä (S:llä tuo ei ole käytettävissä). Kyseessä on siis tiettävästi ensimmäinen FSR 2.0 -julkaisu konsoleille. Samoja ongelmia läpikuultavien partikkelien ja esineiden rajausefektien kanssa kuin tietyillä muillakin FSR 2.0 -julkaisuilla, mutta ei mitään kriittistä ongelmaa. (❗ Jos H. R. Gigerin tuotanto aiheuttaa ahdistusta niin videota ei kannata katsoa ❗)
 
Digital Foundry on testannut Scornin FSR 2.0 -toteutusta Xbox Series X:llä (S:llä tuo ei ole käytettävissä). Kyseessä on siis tiettävästi ensimmäinen FSR 2.0 -julkaisu konsoleille. Samoja ongelmia läpikuultavien partikkelien ja esineiden rajausefektien kanssa kuin tietyillä muillakin FSR 2.0 -julkaisuilla, mutta ei mitään kriittistä ongelmaa. (❗ Jos H. R. Gigerin tuotanto aiheuttaa ahdistusta niin videota ei kannata katsoa ❗)


Toivottavasti valuisi myös PS5:lle. Vaikka FSR on huonompi kuin DLSS tällä hetkellä, se on silti mielestäni parempi optio kuin checkerboard rendering tai pelin pyörittäminen 1080p-1440p resolla ilman mitään AI upscalingia.
 
Hyvää video liittyen frame generointiin (DLSS3) ja miten sitä voisi parantaa.






TLDW: Erotetaan pelin renderöinnin framerate inputista. Tehdään VR maailmasta tuttua reprojektiota hitaammin päivittyvälle renderöinnille vaikka hiiri liikuttaa näkymää vaikka 360Hz näytön nopeudella. Näin poistetaan inputin "hidas tuntuma" vaikka peli pyörisi vain 50fps ja DLSS3 tekisi frame generointia väliin. Video nostaa esiin hyviä ja huonoja puolia ja mitä ratkaisuita nuihin huonoihin juttuihin on.
 
Tuli itse eilen testattua Frame Generointia Spidermanissa. Niin kauan, kun FPS pysyy yli 150:n, niin en huoma juuri mitään "outoa" tunntumassa. Jossain 120:ssä huomaa jo suht selvästi laiskemman reagoinnin hiiren liikkeisiin, kun pohja FPS 60:n tuntumassa.

Isoin miinus tuossa kuitenkin on vsyncin puute omasta mielestä. G-sync ei toimi tuon kanssa kovin kommoisesti. Koitin rajoittaa FPS: NVIDIAn control paneelista 143:n, mutta se ei tehnyt mitään. Sitten rajoiton Riva Tunerilla, ja tuntuma meni täysin puuroksi.

Ei kyllä tälläisenaan ole kovin käyttökelpoinen itselle, ainakaan tuommoisissa nooeatempoisemmissa peleissä. Semmoiseen joidenkin 200Hz näytön herzien maksimointiin ihan jepa, jos haluaa tuplata 100-->200 tms.

Mitään kummempia grafiikkahäröjö ei omiin silmiin pistänyt. Hitaassa liikkeessä niitä ei näytä olevan ja nopeassa liikkeessä ne mahdolliset artefaktit/bugit hämääntyynsiihen normaaliin liikeblurriin.
 
Plague Tale: Requiemissa testasin frame generationia ja aika samat kokemukset. Kuvanlaatu yllätti positiivisesti. Mutta kun vaihtelin 4K DLSS Q ilman frame geniä ja 4K DLAA + frame gen välillä (molemmilla saadaan n. 110 fps kohdassa missä testasin) niin eron input lagissa voi kyllä havaita.

Ihan hyvin tuolla pelais jos parempaa input lagia ei olis tarjolla, mutta kun on niin mieluummin pelaan kyllä 4K DLSS Quality.
 
Selvästi kokemusten perusteella tarvetta olisi kehittää tuota framegenerationia siihen suuntaan että input erotettaisiin kokonaan tuosta renderöinti/framegenerointi loopista.
Se voi vaatia aika ison muutoksen pelimoottoreissa, joten Nvidian kädet ovat todennäköisesti sidotut jos eivät tarjoa esim. suurempien pelien kehittäjille kädestä pitäen apua tuon toteuttamiseen. Toivottavasti Unreal Engine yms alkaisivat tukea jotain tuollaista valmiiksi, niin pelinkehittäjillä ei olisi päänvaivaa.
 
Se voi vaatia aika ison muutoksen pelimoottoreissa, joten Nvidian kädet ovat todennäköisesti sidotut jos eivät tarjoa esim. suurempien pelien kehittäjille kädestä pitäen apua tuon toteuttamiseen. Toivottavasti Unreal Engine yms alkaisivat tukea jotain tuollaista valmiiksi, niin pelinkehittäjillä ei olisi päänvaivaa.
VR puolelta tutut async space warp ja muut reprojektio kikat pitäisi saada ihan normipeleihin. Oculuksen ASW taitaa olla 6-dof asynkki reprojektio headsetin inputista eli siinä on täysin input irroitettuna pelin renderöinnistä. Noh, varmaan jotain UnrealEngine6/7 juttuja nämä ja vähintään kahden tai kolmen näyttissukupolven päästä toteutuvia juttuja.
 
Redditistä bongattu vinkki frame genin kanssa fps:n rajoittamiseen: Nvidia control panelista frame rate limiter puoleen miinus 1-2 fps näytön maksimista, esim. 120hz näytöllä laitoin limitiksi 58fps. Frame genin kanssa saan näin 116fps limitin.

Kokeilin RTSS:n kanssa myös ja sillä ei toiminut.

 
VR puolelta tutut async space warp ja muut reprojektio kikat pitäisi saada ihan normipeleihin. Oculuksen ASW taitaa olla 6-dof asynkki reprojektio headsetin inputista eli siinä on täysin input irroitettuna pelin renderöinnistä. Noh, varmaan jotain UnrealEngine6/7 juttuja nämä ja vähintään kahden tai kolmen näyttissukupolven päästä toteutuvia juttuja.
Juu nämä olisivat normipeleihinkin toivottuja. Jotenkin tuntuu aina, että monet paperilla hyvältä vaikuttavat tekniikat vain yksinkertaisesti katoavat johonkin limboon eikä niitä kukaan jaksa implementoida.

Mihin katosi esim variable rate shading? Näin sen Wolfensteinissa ja sen jälkeen en missään. Ei sillä juuri tuossa pelissä mitään olennaista eroa toki syntynyt.
 


HW Unboxed vertasi DLSS, FSR2.0 ja XESS. Samat laatuasetukset ja fps lukemiltaan lähinnä toisaan olevat moodit oli vertailussa. Spoiler: DLSS teki parasta jälkeä, FSR2 sitten ja viimeisenä XESS. Varsinkin Spidermanin XESS ghostaus oli aika karua katsottavaa.

Käsittääkseni Hitman & Spiderman oli FSR 2.1 ja Death Stranding FSR 2.0. Death Stranding olikin ainoa peli, jossa XESS pärjäsi ghostingissa FSR:lle.

XMX versio onkin sitten ihan eri planeetalta ja hyvin lähellä DLSS:ää, FSR 2.0/2.1 jää jälkeen.
 
Mihin katosi esim variable rate shading?
VR:n ulkopuolella se toi Microsoftin esimerkissä 10-20% lisää FPS:ää, kuvanlaatu tietenkin kärsii enemmän kun käytetään ns. "performance" -asetusta. Ja tosiaan vaatii aika paljon muokkausta peliin. Eli kehittäjänä jos pitäisi valita otetaanko yliskaalaus vai VRS mukaan peliin niin yliskaalaus viel kyllä voiton ylivoimaisesti
 
En nyt oikein löydä mistään vastausta, niin kysytään täältä. Onko tämä uusi FSR 3.0 tulossa myös 6800 XT kortille vai ainostaan 7000-sarjalaisille?
 
En nyt oikein löydä mistään vastausta, niin kysytään täältä. Onko tämä uusi FSR 3.0 tulossa myös 6800 XT kortille vai ainostaan 7000-sarjalaisille?
Tosta ei paljastettu juuri mitään. Ei välttämättä edes AMD ole tuota vielä määrittänyt.
 
Nvidialla oli myös se joku tekniikka, minkä nimeä en muista, missä näyttöalueen reunat rendattiin alemmalla resolla. Shadow Warrior 2:ssa oli ainakin käytössä. Se oli pirun hyvä tekniikka, varsinkin tommisessa nopeatempisessä FPS-pelissä ja ultra wide näytöllä. Ei haitannut yhtään, että reunat oli alemmalla tarkkuudella ja perffiä tulo joku 20 pinnaa helposti lisää. Eipä sitäkään muissa peleissä tainnut juuri näkyä.
 
Mihin katosi esim variable rate shading? Näin sen Wolfensteinissa ja sen jälkeen en missään. Ei sillä juuri tuossa pelissä mitään olennaista eroa toki syntynyt.
Kyllä VRS:ää taitaa olla monessa DX12/Vulkan pelissä. Jotain tulee mieleen että uusimmassa Forza Horizonissa ja Doom Eternal. AMD:n VRS mainos videossa listattuna yli vuosi sitten seuraavat:
  • Rise of the Tomb Raider
  • Shadow of the Tomb Raider
  • Borderlands 3
  • Fortnite
  • Cyberpunk 2077
  • Resident Evil 3
  • Call of Duty Modern Warfare (Warzone)
  • Metro Exodus

Minun mielestä tuo VRS on tullut enemmän käyttöön ns. "pellin alle" ettei siihen edes pääse pelaaja käsiksi välttämättä. Esim Digital Foundry löysi VRS:n käyttöä Doom eternalin SeriesX versiosta kun tarkastelivat screenshottia sopivasti suurennuslasilla. Löysivät VRS:n "ominaishuononnuksia" mitä ei esim PS5 versiossa ollutkaan.

Parhaassa tapauksessa DX12 VRS Tier2 on pelatessa huomaamaton, mutta perf gainit on jokusen prosentin luokkaa (2% - 3% keskimäärin), joten näkisin että se integroidaan syvälle render pipelineen yhtenä työkaluna jolla optimoidaan pelin suorituskykyä.
 
Aika hyvältä näytti FSR 2.1 Cyberpunkissa. Kuvanlaadun puolesta olisin ihan hyvin voinut unohtaa FSR Qualityn päälle ja luullut pelaavani DLSS Quality päällä. DLSS on hieman pehmeämpi terävöintikin päällä, mutta FSR:llä yksityiskohdat meinaavat vähän pikselöityä liikkeessä, eli todellinen resoluutio pilkottaa alta. Mutta tuo ilmeni enemmän vasta FSR Balancedilla. Tämä siis 1440p-resoluutiolla.

DLSS tarjosi hieman enemmän FPS:ää. Yhdessä raskaassa kohdassa säteenseuranta päällä oli 64 FPS ja FSR Qualityllä 61. DLSS on itselleni semmoinen, että laitan nykyään lähes pelissä kuin pelissä sen päälle. Eroa natiiviin on pieni ja 165 hertsin näytöllä FPS-lisät ovat aina tervetulleet. Varmaan myös FSR alkaa olla kohta siinä kunnossa, että sen voi nakata aina päälle, jos DLSS-optio puuttuu :think:
 
Forzan DLSS tekele ei oo parhaimmasta päästä. Aika sumeeta 4K DLSS Quality päällä ja DLAA taas ei korjaa kaikkia reunoja esim. sähkölinjat
 
Tässä näppärä vertailu Forzasta. Hyvä, kun voi helposti nakutella eri optiot ja vertailla.


Noiden kuvien perusteella FSR jää edelleen pahasti jälkeen ainakin tässä pelissä. Jopa DLSS Performance näyttää omaan silmääni paremmalta. DLAA sen sijaan ei tunnu juuri parantavan kuvaa vs natiivi. Olen itse kokeillut DLAA ainoastaan modatussa Judgementissa (FSR korvattu DLSS:lla, "Native" optio DLAA:lla) ja siinä pidin lopputuloksesta, näytti skarpimmalta eikä mielestäni sharpening-artifakteilta.

Videolla liikkeessä ero on hankalampi huomata, mutta FSR näyttää sumeammalta kun taas DLSS vs natiivi TAA:lla on vaikea erottaa toisistaan. En tiedä saisiko FSR parannusta laittamalla sille agressiivisempaa sharpeningia.

FSR näyttäisi olevan nopeuden puolesta jo yhtäläinen DLSS:n kanssa, mutta kuvanlaadussa on vielä parantamista.
 
Ei ehkä kuulu threadiin varsinaisesti mutta onko kellään kokemusta/tietoa miten nVidian DLDSR vertautuu old skool brute force DSR:ään? Suorituskyky ja laatu?

Sen verran huomasin että DLDSR sallii vain 2,25 kertoimen siinä missä DSR mahdollistaa 4x kertoimen resoluutiolle eli vanhempia pelejä pääsee 4k näytöllä samplaamaan 8k resolta alas siinä missä DLDSR pystyy 6k.
 
Ei ehkä kuulu threadiin varsinaisesti mutta onko kellään kokemusta/tietoa miten nVidian DLDSR vertautuu old skool brute force DSR:ään? Suorituskyky ja laatu?

Sen verran huomasin että DLDSR sallii vain 2,25 kertoimen siinä missä DSR mahdollistaa 4x kertoimen resoluutiolle eli vanhempia pelejä pääsee 4k näytöllä samplaamaan 8k resolta alas siinä missä DLDSR pystyy 6k.
Siitä vertailua

 
Igor on testannut DLSS 3.0:ssa varsinaisen yliskaalauksen vaihtoa FSR:ään ja XeSS:iin. Ja tuo toimii ainakin Spider-Man Remasterissa. Löytyy luonnollisesti vertailukuvia, ja koska noissa ei mitään suurempia ongelmia tunnu näkyvän niin jatkossa voi olla mahdollista siis valita eri yhdistelmät framejen generointialgoritmeja ja yliskaalausalgoritmeja.

 
Digital Foundry on testannut Resident Evil Villagen Mac-porttausta ja sen MetalFX-skaalausta. Vertailua muihin tekniikoihin on vaikea tehdä, kun peli ei millään alustalla niitä tue, mutta quality-tila vakuutti ainakin arvostelijan, vaikkakin tiettyjen läpinäkyvyysefektien kanssa on selviä ongelmia.
 

Statistiikka

Viestiketjuista
258 744
Viestejä
4 497 427
Jäsenet
74 278
Uusin jäsen
Mikat89

Hinta.fi

Back
Ylös Bottom