Cyberpunk 2077 sai tuen NVIDIA DLSS 3:lle

Yleisellä tasolla, onko DLSS3 käyttökelpoinen ilman Reflexiä?
 
Yleisellä tasolla, onko DLSS3 käyttökelpoinen ilman Reflexiä?
DLSS3 toteutus vaatii reflexin. Ei ole dlss3:sta ilman reflexiä. Tarkoittaa käytännössä, että nvidia haluaa pelinkehittäjien optimoivan latenssia pienemmäksi, jos haluavat käyttää dlss3:sta. Tämä käy järkeen, kun naivisti dlss3:en pulttaaminen peliin lisää latenssia ja reflex+muut mahdolliset latenssioptimoinnit taistelevat tätä latenssin lisääntymistä vastaan.
 
DLSS3 toteutus vaatii reflexin. Ei ole dlss3:sta ilman reflexiä. Tarkoittaa käytännössä, että nvidia haluaa pelinkehittäjien optimoivan latenssia pienemmäksi, jos haluavat käyttää dlss3:sta. Tämä käy järkeen, kun naivisti dlss3:en pulttaaminen peliin lisää latenssia ja reflex+muut mahdolliset latenssioptimoinnit taistelevat tätä latenssin lisääntymistä vastaan.
Sitä tarkoitan, että voinko käyttää DLSS3:sta vaikka minulla ei olisikaan Reflex-yhteensopivaa muuta laitteistoa (näyttöä + hiirtä) ja onko se tällöin enään käyttökelpoinen? Vai vaatiiko Reflex noita yhteensopivia muita oheislaitteita & mitä hyötyä niistä tällöin on jos muutenkin toimii?
 
Sitä tarkoitan, että voinko käyttää DLSS3:sta vaikka minulla ei olisikaan Reflex-yhteensopivaa muuta laitteistoa (näyttöä + hiirtä) ja onko se tällöin enään käyttökelpoinen? Vai vaatiiko Reflex noita yhteensopivia muita oheislaitteita & mitä hyötyä niistä tällöin on jos muutenkin toimii?
On toki käyttökelpoinen millä tahansa näytöllä ja hiirellä. Erikoislaitteita tarvii vain, jos haluaa itse mitata oman järjestelmän latenssia.
 
Sitä tarkoitan, että voinko käyttää DLSS3:sta vaikka minulla ei olisikaan Reflex-yhteensopivaa muuta laitteistoa (näyttöä + hiirtä) ja onko se tällöin enään käyttökelpoinen? Vai vaatiiko Reflex noita yhteensopivia muita oheislaitteita & mitä hyötyä niistä tällöin on jos muutenkin toimii?

NVIDIA on kyllä onnistunut jotenkin markkinoimaan tämän reflexin päin persettä, jos tosiaan edelleen sellainen legenda elää että sen käyttöön tarvitaan yhteensopiva hiiri ja näyttö.

Aiheesta mekin ollaan useampi opastusvideo tehty esim.



Siihen riittää siis pelkkä GeForce-näytönohjain ja reflexiä tukeva peli. Reflex-sertifioitu hiiri ja näyttö mahdollistavat viiveen mittauksen.
 
Sitä tarkoitan, että voinko käyttää DLSS3:sta vaikka minulla ei olisikaan Reflex-yhteensopivaa muuta laitteistoa (näyttöä + hiirtä) ja onko se tällöin enään käyttökelpoinen? Vai vaatiiko Reflex noita yhteensopivia muita oheislaitteita & mitä hyötyä niistä tällöin on jos muutenkin toimii?

Laitteet on vaadittuja käsittääkseni vain mittaukseen ja muuta hyötyä niistä ei kai ole.

Reflex on tekniikka/sdk jota pelideevaja voi hyödyntää minimoidakseen renderöintiputken latenssia jotta syötteet ja ruudun tapahtumat ovat mahdollisimman lähellä toisiaan.

DLSS3 liittyy lähinnä asiaan koska se lisää hieman absoluuttista latenssia[1] ja Reflex auttaa näennäistä latenssia tuntumaan paremmalta kun ero ruudunpäivityksen ja latenssin välillä on pienempi. Tietenkin saman hyödyn saa ilman DLSS3:kin eli Reflex kannattanee aina pitää päällä muutenkin jos ei harrasta jotain erityistä.

DLSS3 itse on osin ongelmallinen tekniikka, mutta varmaan kokeilemisen arvoinen jos omaa 40-sarjalaisen, korkean virkistystaajuden näytön eikä muuten pääse sadan fps:n yli.

[1] absoluuttinen viittaa siis tilanteeseen natiivi vs dlss3 ruutujen generointi ilman muita muuttujia jolloin dlss3:n kanssa ruudunpäivitysnopeus on huomattavasti korkeampi. Jos aletaan verrata samalla ruudunpäivitysnopeudella natiiviin niin mennään metsään niin että rytisee.
 
DLSS3 itse on osin ongelmallinen tekniikka, mutta varmaan kokeilemisen arvoinen jos omaa 40-sarjalaisen, korkean virkistystaajuden näytön eikä muuten pääse sadan fps:n yli.

Miltä osin ongelmallinen tekniikka? Mielelläni kuulen mahdollisia ongelmakohtia joita voidaan käytännössä sitten kokeilla ja havaita meidän omissa testeissä.
 
Miltä osin ongelmallinen tekniikka? Mielelläni kuulen mahdollisia ongelmakohtia joita voidaan käytännössä sitten kokeilla ja havaita meidän omissa testeissä.

Mitä olen itse ymmärtänyt, niin ainakin DLSS3:n frame generation on ongelmallinen
- Jos sen lopputuloksena on 100 FPS, niin input lag vastaa 50 FPS tilannetta.
- Jos FPS on alun alkujaan alhainen, niin freimien väliset suuret eroavaisuudet aiheuttaa artifakteja.

Joten parhaimmillaan hidastempoisessa pelissä, kun FPS on jo alun alkaen korkea. Eli ei hyödyllinen oikein missään. Ei ainakaan siinä tilanteessa, mihin siitä on toivottu pelastajaa, eli nousuun ei-pelattavasta 30-50 FPS lukemasta pelattavaan 60-100 FPS lukemaan.
 
Mitä olen itse ymmärtänyt, niin ainakin DLSS3:n frame generation on ongelmallinen
- Jos sen lopputuloksena on 100 FPS, niin input lag vastaa 50 FPS tilannetta.
- Jos FPS on alun alkujaan alhainen, niin freimien väliset suuret eroavaisuudet aiheuttaa artifakteja.

Joten parhaimmillaan hidastempoisessa pelissä, kun FPS on jo alun alkaen korkea. Eli ei hyödyllinen oikein missään. Ei ainakaan siinä tilanteessa, mihin siitä on toivottu pelastajaa, eli nousuun ei-pelattavasta 30-50 FPS lukemasta pelattavaan 60-100 FPS lukemaan.
Kai dlss3 on parhaimmillaan cpu rajottuneissa tilanteissa. Lagi pysyy ennallaan, fps tuplaantuu ja peli näyttää sulavammalta. Tyyliin flight simulator jotain 60fps cpu rajotteinen, dlss3 120fps. Tai joku muu peli vaikka 120fps cpu rajotteinen ja siitä dlss3 240fps.

reflex tuen pitäisi auttaa ainakin jonkin verran lagin kanssa versus sama peli ilman reflex tukea.
 
DLSS3 itse on osin ongelmallinen tekniikka, mutta varmaan kokeilemisen arvoinen jos omaa 40-sarjalaisen, korkean virkistystaajuden näytön eikä muuten pääse sadan fps:n yli.
Mielestäni mm. frame-generation tekniikka itsessään on innovatiivinen. Ongelmia tulee siinä kohtaa (ei Nvidian vika) jos kehittäjät rupeaa DLSS:ää käyttämään siihen että kompensoivat surkeaa optimointia:

 
Viimeksi muokattu:
Eiköhän DLLS 3.0 ongelmallisuudet korostu kun niitä keskitason näyttiksiä alkaa tulla markkinoille. 4K kuvaa yritetään puskea jollain RTX4060 kortilla.
 
Kuinka usein online peli kuten fortnite juttelee serverin kanssa? 30 kertaa sekunnissa + verkkolagi? Kuitenkin itse peliä pyöritetään satoja kertoja sekunnissa? Fysiikkaenginet usein pyörivät paljon korkeammalla taajuudella kuin grafiikka. Online peleissä on siis samankaltainen lagiongelma joskin paljon isommissa määrin kuin dlss3:ssa.

DLSS4 tms. voisi toimia niin, että peliengine ymmärtäisi generoidut framet ja generoitujenkin framejen aikana voidaan tehdä tarkka törmäystarkistus, pumpum osumat jne. Tällöin ei syntyisi extra lagia dlss:sta. Toki tuossa voi tulla samanlainen virhe kuin verkkopelissäkin, että ennustettu frame ei näytä ihan samaa kuin fysiikkamoottorin tila on ja tulee huti vaikka näyttäisi ruudulla osumalta tai päinvastoin. Toisaalta jos fps nostetaan tuolla algoritmilla vaikka 120fps - 240fps niin ennustusvirhe on niin pieni ettei sillä ole käytännössä merkitystä.

Grafiikkaan tulee yhden framen viive, jos on jokin efekti joka tulee ennustetun framen aikana lasketusta osumasta. Eri elementit voitaisiin renderöidä erilaisilla virkistystaajuuksilla. Pumpum peli voisi renderöidä tarkoituksella osumaanimaation jo siihen generoituun frameen niin ei tule lagia visuaaleihinkaan.

Tulevaisuus on varmaankin jonkinsortin hybridi missä yhä enemmän asioita renderöidään ja generoidaan erilaisilla virkistystaajuuksilla. Tämä lienee väistämätöntä, kun nyt jo nähdään miten samalla euromäärällä ei tahdo enää saada tuplatehoa jos edes yhtään tehoa lisää 2v välein. Grafiikkaparannukset on tehtävä softapuolen innovaatioilla, kun näyttökorttien kehitys hinta/nopeudessa on hidastunut.

Valoissa ja varjoissahan laskennan hajauttamista useaan eri frameen nähdään jo nykypeleissä ja engineissä. Noheva löytää esimerkiksi ue5:sta ghostingia, jos on iso muutos valaistuksessa. Ghosting tässä tapauksessa johtuu laskennan hajauttamisesta monen framen ajalle. RTX Minecraft:ssa on sama ongelma. Ei olisi iso juttu niitä pumpum osuman animaatioita yms. laskea extrana generoituihin frameihin. Jonkun pitäisi suunnitella peli alusta lähtien frame generaation varaan.
 
Viimeksi muokattu:
Kai dlss3 on parhaimmillaan cpu rajottuneissa tilanteissa. Lagi pysyy ennallaan, fps tuplaantuu ja peli näyttää sulavammalta. Tyyliin flight simulator jotain 60fps cpu rajotteinen, dlss3 120fps.

Mutta input lagi on tuossa tapauksessa sama, kuin peli pyörisi 60 FPS (mitä se todellisuudessa pyöriikin). Liike tietty sulavoituu. Mutta 60 FPS on niin hidas, että 2 peräkkäistä kuvaa saattaa näyttää niin erilaisilta keskenään, että niiden väliin on mahdotonta generoida virheetöntä keinokuvaa.

Tai joku muu peli vaikka 120fps cpu rajotteinen ja siitä dlss3 240fps.

Jos pyörii jo valmiiksi 120 FPS, niin en näe juuri hyötyä keinotekoisille välifreimeille tuossa. Input lagi pysyy joka tapauksessa 120 FPS tasolla.

reflex tuen pitäisi auttaa ainakin jonkin verran lagin kanssa versus sama peli ilman reflex tukea.

Mutta natiivi 60 FPS + reflex vs. tuosta tuplattu 120 FPS + reflex, niin mikä on input lagin ero? Ei se DLSS3:lla tuossa ainakaan parane, eli lagi on edelleen 60 FPS tasolla.
 
Mutta input lagi on tuossa tapauksessa sama, kuin peli pyörisi 60 FPS (mitä se todellisuudessa pyöriikin). Liike tietty sulavoituu. Mutta 60 FPS on niin hidas, että 2 peräkkäistä kuvaa saattaa näyttää niin erilaisilta keskenään, että niiden väliin on mahdotonta generoida virheetöntä keinokuvaa.



Jos pyörii jo valmiiksi 120 FPS, niin en näe juuri hyötyä keinotekoisille välifreimeille tuossa. Input lagi pysyy joka tapauksessa 120 FPS tasolla.



Mutta natiivi 60 FPS + reflex vs. tuosta tuplattu 120 FPS + reflex, niin mikä on input lagin ero? Ei se DLSS3:lla tuossa ainakaan parane, eli lagi on edelleen 60 FPS tasolla.

Pointtihan nimenomaan on se sulavuus silmiin ei lagin pieneneminen. Varsinkin, jos ollaan cpu rajotteisia ja kuten flight simulator ja frame generointi on ainoa tapa saada sulavuutta lisää. Joillain voi olla myös 240Hz monitori niin tuskin siitä haittaa on jos saa sulavamman 240Hz grafiikan versus 120Hz?

Ei se sulavuuden lisääminen varsinaisesti taida olla myöskään mistään muualta pois, kun tehdään muilla kuin shader-yksiköillä se lisäframen generointi? Ilmainen lounas?

Postasin pitkästi tuohon ylös miten tulevaisuudessa lagi voitaisiin minimoida/poistaa. Jos peliengine ymmärtäisi generoidut framet voitaisiin tehdä jänniä asioita ihan siihen asti, että osa efekteistä renderöidään isommalla virkistystaajuudella + törmäystarkistukset generoitujen framejen aikana.
 
Kaiken lisäksi VR pelaamisessa - missä lisäsuorituskyvylle olisi suurin tarve - frame generation on ainakin nykylaseille täysin kelvoton. Esim. omissa 90Hz laseissa tuo tarkoittaisi sitä, että peli pyörii 45 FPS ja se sitten tuplattaisiin. Input lagi olisi aika jäätävä.
 
Tuli ajettua sillä in-game benchmarkilla parit testit, 1440p ja 4K resoluutioilla, säteenseuranta päällä (psycho asetuksella) sekä kaikki muutkin grafiikkaasetukset maksimeillaan high/ultra/psycho riippuen asetuksesta. FPS keskiarvot menivät näin:

1440p DLSS3 frame generation sekä DLSS2 (auto) päällä = 207fps
4k DLSS3 frame generation sekä DLSS2 (auto) päällä = 144fps

4k DLSS3 frame generation päällä = 67fps
1440p DLSS3 frame generation päällä = 134fps

4k RT, ei dlss = 38fps
1440p RT, ei dlss = 73fps

Siinä kohtaa kun valitsee frame generationin päälle niin peli lykkää automaattisesti DLSS2 päälle myös, mutta sen voi pudottaa pois kuten keskimmäisissä testissä tein. Kokoonpano on vakio i9-10900kf ja vakio MSI Suprim X 4090 silent biosissa.
 
Pointtihan nimenomaan on se sulavuus silmiin ei lagin pieneneminen. Varsinkin, jos ollaan cpu rajotteisia ja kuten flight simulator ja frame generointi on ainoa tapa saada sulavuutta lisää. Joillain voi olla myös 240Hz monitori niin tuskin siitä haittaa on jos saa sulavamman 240Hz grafiikan versus 120Hz?

Flight Simulator ja tuplaus 120 FPS lähtötilanteesta voisi olla varsin toimiva. Mutta kun se peli ei pyöri puoltakaan tuosta natiivina... Ja edelleen, aika niche case. Eniten olisi tarvetta sille, että saataisiin pelit pyörimään +60 FPS. Ja siihen tuo ei sovi alkuunkaan.

Postasin pitkästi tuohon ylös miten tulevaisuudessa lagi voitaisiin minimoida/poistaa. Jos peliengine ymmärtäisi generoidut framet voitaisiin tehdä jänniä asioita ihan siihen asti, että osa efekteistä renderöidään isommalla virkistystaajuudella + törmäystarkistukset generoitujen framejen aikana.

Jos se peli on nimenomaan CPU rajoitteinen, niin miten meinasit, että CPU:ta käytetään keinokuvien luomisen aikana?
 
Kaiken lisäksi VR pelaamisessa - missä lisäsuorituskyvylle olisi suurin tarve - frame generation on ainakin nykylaseille täysin kelvoton. Esim. omissa 90Hz laseissa tuo tarkoittaisi sitä, että peli pyörii 45 FPS ja se sitten tuplattaisiin. Input lagi olisi aika jäätävä.
VR käytössä on omat kikkansa esim. se oculuksen asynchronous spacewarp. Ei kai tuota dlss3:sta ole vr-käyttöön tarkoitettu tai mainostettu? Mutta tässä maalitolppa siirtyi jo niin kovaa että en väännä tän enempää. Ehkä joku peliengine muuttuu dlss3 tms. tietoiseksi ja sitä lagia vähennetään noilla mun aikaisemman postauksen keinoilla tai jollain devaajan keksimällä fiksummalla tavalla.
 
Jos se peli on nimenomaan CPU rajoitteinen, niin miten meinasit, että CPU:ta käytetään keinokuvien luomisen aikana?

Siten, että se peli suunnitellaan alusta lähtien sellaiseksi, että esimerkiksi ne fysiikkaenginen osumatarkistukset saadaan tehtyä riittävän isolla virkistystaajuudella. Aikaisemmin tuota optimointia ei ole ehkä tarvinut miettiä tai toteuttaa, kun gpu ei ole pysynyt kyydissä mukana. Nyt kun tuo isompi virkistystaajuus on mahdollinen niin peliengine voidaan suunnitella tukemaan esimerkiksi törmäystarkistuksia generoitujen framejen aikana.

Kyse lienee ihan siitä mihin devaajien aika==raha laitetaan. Aika on rahaa ja turhia fiitsöreitä/optimointeja ei tehdä.
 
VR käytössä on omat kikkansa esim. se oculuksen asynchronous spacewarp. Ei kai tuota dlss3:sta ole vr-käyttöön tarkoitettu tai mainostettu?

No ei nyt suoranaisesti mainostettu, mutta nää NVidian yleiset puheet suorituskyvystä, "3 x 3090", yms. perustuu juurikin tuohon freimien generointiin. Mutta kun se generointi on käyttökelpoinen vain hyvin harvassa tapauksessa.

Mutta tässä maalitolppa siirtyi jo niin kovaa että en väännä tän enempää. Ehkä joku peliengine muuttuu dlss3 tms. tietoiseksi ja sitä lagia vähennetään noilla mun aikaisemman postauksen keinoilla tai jollain devaajan keksimällä fiksummalla tavalla.

Toivotaan niin. Jotenkaan en vain näe tuota kovin todennäköiseksi, kun koko freimien generoinnin ideana on ohittaa CPU.
 
Toivotaan niin. Jotenkaan en vain näe tuota kovin todennäköiseksi, kun koko freimien generoinnin ideana on ohittaa CPU.

Olen ikäni väsännyt softaa rahaa vastaan. Monesti käy niin, että asioita vois tehdä paremmin oli se paremmin sitten nopeampi koodi, vähäbugisempi koodi tms. Jos kooderille annetaan aikaa ja sanotaan, että korjaas toi cpu rajoittuneisuus niin yleensä siellä on tapa sitten korjata se rajoite. Harvoin on niin hyvä algoritmi ja koodi käytössä että vastaus on "ei pysty, se on jo täydellinen". Syy cpu rajoitteen takana on ettei annettu aikaa tehdä paremmin tai annettiin tavoite tee X ja sitten kun X saavutettiin siirryttiin seuraavaan hommaan.

Toki voi juurisyy rajoitteisiin olla niin syvällä ettei sitä korjata kuin kirjoittamalla koko paska uusiksi. Tän takia mun mielestä olis kiinnostavaa nähdä, että mitä tapahtuisi, jos joku tekisi koko pelienginen/pelin alusta lähtien frame generaation varaan eikä sitä vain pultattaisi jälkikäteen päälle.
 
Olen ikäni väsännyt softaa rahaa vastaan. Monesti käy niin, että asioita vois tehdä paremmin oli se paremmin sitten nopeampi koodi, vähäbugisempi koodi tms. Jos kooderille annetaan aikaa ja sanotaan, että korjaas toi cpu rajoittuneisuus niin yleensä siellä on tapa sitten korjata se rajoite. Harvoin on niin hyvä algoritmi ja koodi käytössä että vastaus on "ei pysty, se on jo täydellinen". Syy cpu rajoitteen takana on ettei annettu aikaa tehdä paremmin tai annettiin tavoite tee X ja sitten kun X saavutettiin siirryttiin seuraavaan hommaan.

Mutta jos se koodari korjaa sen CPU rajoitteisuuden, niin mihin sitä freimien generointia sen jälkeen enää tarvitaan? :lol:

BTW: Koodia väännän minäkin työkseni. Joskaan en mitään peleihin liittyvää.
 
Mutta jos se koodari korjaa sen CPU rajoitteisuuden, niin mihin sitä freimien generointia sen jälkeen enää tarvitaan? :lol:

BTW: Koodia väännän minäkin työkseni. Joskaan en mitään peleihin liittyvää.

Optimoidaan vain törmäystarkistuksien kannalta oleelliset koodit pyörimään nopeampaa niin saa pumpum palautteet heti. Ei koko koodipinon nopeuden tuplaaminen välttämättä onnistu annetuilla budjeteilla. Sen jälkeen vielä grafiikkapinosta optimoidaan se osa, joka luo efektiä osumasta toimimaan myös generoitujen framejen kanssa niin saa visuaalisen palautteenkin ilman lagia. Ja näin saimme dlss4:en missä peliengine tukee frame generointia, lagi minimoituu sekä osumien että visuaalisuuen osalta.

Seuraavaksi ihmetellään kun peli näyttää sulavalta 240fps ja verkkokoodi rullaa edelleen 30fps.
 
NVIDIA on kyllä onnistunut jotenkin markkinoimaan tämän reflexin päin persettä, jos tosiaan edelleen sellainen legenda elää että sen käyttöön tarvitaan yhteensopiva hiiri ja näyttö.

Ei tuo harhaluulo edelleenkään varsinaisesti vaadi kuin Nvidian omille Reflexin esittelysivulle marssimista (eli tänne), johon päätyy esimerkiksi googlella ensimmäisenä hakusanoilla "nvidia reflex". Eipä tuosta kauheasti valkene täysin nollasta lähtevälle kuluttajalle että mikä on meininki, ja aika nopeasti tulee sivulla vastaan tuollainen "yhteensopivat tuotteet" -kohta. Siitä kun avaa vielä kohdan "Kaikki yhteensopivat tuotteet", päädytään tänne: NVIDIA Reflex: Supported Devices
Sivun otsikkoina "NVIDIA Reflex Compatible Product", tai tuo linkkiin automaattisesti generoitunut. Sivulla siis kerrotaan Reflex-yhteensopivista hiiristä ja näytöistä, ihan sivun url-osoiteta myöten. Mutta koko sivulla ei yhtäkään mainintaa siitä, että kyseessä tosiaankin vain Reflexin mittausominaisuuksien kanssa yhteensopivat laitteet. Äkkiäkös tuosta luulee, että koko Reflex-ominaisuus olisi vain noilla vehkeillä käytössä.

Aikanaan itsekin tuli päiviteltyä tuota ja mentyä myös hieman lankaan, kun luonnollisesti ensimmäinen paikka jossa halusi tuohon Reflexiin perehtyä oli juuri nuo Nvidian sivut.
 
Mutta input lagi on tuossa tapauksessa sama, kuin peli pyörisi 60 FPS (mitä se todellisuudessa pyöriikin). Liike tietty sulavoituu. Mutta 60 FPS on niin hidas, että 2 peräkkäistä kuvaa saattaa näyttää niin erilaisilta keskenään, että niiden väliin on mahdotonta generoida virheetöntä keinokuvaa.

Eihän ne generoidut kuvat tarvitse edes olla lähelläkään virheettömiä, pienet virheet on testien perusteella todella vaikea huomata.
 
Eihän ne generoidut kuvat tarvitse edes olla lähelläkään virheettömiä, pienet virheet on testien perusteella todella vaikea huomata.
Monet 3d maailmaan sijoitetut ui elementit vaan tuppaavat vilkkumaan hemmetin paljon liikkeessä. Muilta osin tilanne on melko hyvin hallinnassa juu.
 
Kai dlss3 on parhaimmillaan cpu rajottuneissa tilanteissa. Lagi pysyy ennallaan, fps tuplaantuu ja peli näyttää sulavammalta.
Voin toki olla väärässäkin, mutta eikö toi aina lisää lagia?
Sen feikkiframen laskemiseen menee joku aika, eikä sen laskentaa voida aloittaa ennen kuin valmis frame oltaisiin normaalisti jo dumpattu näytölle. Eli siis se feikkiframe, josta LDAT mittaa input lagin, tulee jo jonkun millisekunnin myöhässä. Sit jos lasketaan että milloin se feikkiframen jälkeinen ns. aito frame tulee ruutuun, niin viivettä on vähintään puolen framen verran verrattuna tilanteeseen jossa dlss3 on pois päältä.

Pitäis piirtää joku annotoitu aikajana näistä, niin olis helpompi näyttää mistä on kyse viiveiden osalta.
 
Mitä olen itse ymmärtänyt, niin ainakin DLSS3:n frame generation on ongelmallinen
- Jos sen lopputuloksena on 100 FPS, niin input lag vastaa 50 FPS tilannetta.
- Jos FPS on alun alkujaan alhainen, niin freimien väliset suuret eroavaisuudet aiheuttaa artifakteja.

Joten parhaimmillaan hidastempoisessa pelissä, kun FPS on jo alun alkaen korkea. Eli ei hyödyllinen oikein missään. Ei ainakaan siinä tilanteessa, mihin siitä on toivottu pelastajaa, eli nousuun ei-pelattavasta 30-50 FPS lukemasta pelattavaan 60-100 FPS lukemaan.

Öö pelailin tätä eilen ja input lag oli aika lailla samoissa lukemissa kuin ilman dlss 3. Oli todellakin sulavaa ja peli reagoi salaman nopeasti siihen mitä teit. Edit: Pitääkin kokeilla tuota varsinaista input lagia ja nvidia overlayta, mitä näyttää.
 
Viimeksi muokattu:
Öö pelailin tätä eilen ja input lag oli aika lailla samoissa lukemissa kuin ilman dlss 3. Oli todellakin sulavaa ja peli reagoi salaman nopeasti siihen mitä teit. Edit: Pitääkin kokeilla tuota varsinaista input lagia ja nvidia overlayta, mitä näyttää.

En nyt ole ihan varma, että ymmärsitkö mitä tuossa lainaamassasi viestissä kirjoitin.

Homma menee kuitenkin niin, että tietyllä FPS lukemalla on jokin tietty input lag. Kun FPS tuplaantuu, input lag (noin keskimäärin) puoliintuu, tai ainakin alentuu merkittävästi.

Mutta jos FPS tuplataan keinotekoisia kuvia generoimalla, niin input lag ei puoliinnu, vaan pysyy ennallaan. Tai jopa kasvaa aavistuksen, koska siihen keinotekoisten kuvien tekemiseen tarvitaan myös aikaa ja resursseja. Tästä on mm. Hardware Unboxed raportoinut, että tuntuu omituiselta, kun FPS on vaikka 60, mutta input lag vastaa tilannetta, jossa FPS on 30.
 
En nyt ole ihan varma, että ymmärsitkö mitä tuossa lainaamassasi viestissä kirjoitin.

Homma menee kuitenkin niin, että tietyllä FPS lukemalla on jokin tietty input lag. Kun FPS tuplaantuu, input lag (noin keskimäärin) puoliintuu, tai ainakin alentuu merkittävästi.

Mutta jos FPS tuplataan keinotekoisia kuvia generoimalla, niin input lag ei puoliinnu, vaan pysyy ennallaan. Tai jopa kasvaa aavistuksen, koska siihen keinotekoisten kuvien tekemiseen tarvitaan myös aikaa ja resursseja. Tästä on mm. Hardware Unboxed raportoinut, että tuntuu omituiselta, kun FPS on vaikka 60, mutta input lag vastaa tilannetta, jossa FPS on 30.

Juu sillä tuon editin laitoinkin. Siis sekoitin frametimen ja järjestelmän lagin keskenään, kun katselin ensimmäistä eilen rivatunerin kautta. Pitää tosiaan testailla mitä tuo nvidian näyttää, kun sitä lagia ei kai saa esille rivatunerin kautta.

Nähtävästi Dying light 2 saanut myös dlss päivityksen ja sitä myötä frame generation löytyy pelistä.
 
Monet 3d maailmaan sijoitetut ui elementit vaan tuppaavat vilkkumaan hemmetin paljon liikkeessä. Muilta osin tilanne on melko hyvin hallinnassa juu.
Ei kyllä millään tavalla häiritsevästi osunut tota häiriötä Cyberpunkissa silmään kun eilen runsaan tunnin pelailin. Markkinointivideossa Nvidia havainnollistaa, että tätä ongelmaa on paikkailtu:



Voin toki olla väärässäkin, mutta eikö toi aina lisää lagia?
Jep, FG lisää lagia aina. CPU rajoitteisuus ei muuta sitä, että FG:n kanssa tuoreinta aitoa framea pitää hetki pidätellä näyttämästä. Ennenkuin se voidaan näyttää, tuotetaan sitä hyödyntäen edellinen frame (feikki), jota sitten vielä näytetään hetki. Sitten on aidon vuoro näkyä.

Ilman FG:tä CPU rajoitteisessa tilanteessa ei ole pakollista tarvetta pidätellä tuoreinta aitoa framea tällä tavalla.
 
Ei kyllä millään tavalla häiritsevästi osunut tota häiriötä Cyberpunkissa silmään kun eilen runsaan tunnin pelailin. Markkinointivideossa Nvidia havainnollistaa, että tätä ongelmaa on paikkailtu:
Hyvä että ovat alkaneet ratkaisemaan kyseistä ongelmaa. Flight simissä tais aikaisemmin olla kaikista rajuimmat artefaktoinnit, ehkä matan fps:nkin takia. Toinen villin näköinen efekti oli jossain ajopelissä kameran sijainnin vaihdoissa.
 
Miltä osin ongelmallinen tekniikka? Mielelläni kuulen mahdollisia ongelmakohtia joita voidaan käytännössä sitten kokeilla ja havaita meidän omissa testeissä.

Tuossa yllä olikin jo keskustelua niistä ongelmista mutta oma ymmärrykseni mukaan DLSS3:n (nimenomaan frame generaation) plussat miinukset:

+ sulavoittaa havaittua ruudunpäivitystä
+ mahdollistaa CPU-pullonkaulan "ohittamisen" (esim. MSFS oiva esimerkki)
+ yksittäiset artifaktit ei pysy ruudulla kauaa joten pienempi impakti kun ruudunpäivitys on korkea

- input lag ei parane ruudunpäivityksen mukana (mutta ei merkittävästi huononekkaan). Ei kelpaa siis matalien ruudunpäivitysten boostaamiseen kovin hyvin.
- tuottaa helposti isoja artifakteja kun kuva muuttuu paljon (hahmo keskellä ruutua liikkeessä, kameraleikkaukset)
- jos artifaktit toistuu useammissa peräkkäisissä luoduissa ruuduissa, kohteet voi vilkkua tai himmentyä havaittavasti (esim. ohuet kohteet kuten hämiksen verkkoliaanit, aseiden suuliekit)
- käsittelee kokonaisia valmiita ruutuja eli UI-elementit altistuu virheille (tähän on kai kehitelty jotain elementtien maskausta jolla ongelmaa saisi avitettua jos oikein muistan)
- synkronointi (vsync, gsync) oli ainakin julkaisun aikana ongelmallinen kun FG puski ruudunpäivityksen monitorin hertsimäärää vasten aiheuttaen input lagin kasvua ja päivityksen epätasaisuutta (frame pacing), en ole varma onko tähän jo tullut muutoksia mutta se oli ilmeisesti tulevaisuuden suunnitelmissa korjata. Ilmeisesti esim tyypillinen RTSS-rajoitus ei auta asiassa vaan ainut tapa on pysyä "luonnollisesti" näytön virkistystaajuuden alla.

Lisäksi NVIDIAkin puhuu erheellisesti "suorituskykyparannuksesta" sotkien termejä, vaikka kyse on vain visuaalisen sulavuuden parannuksesta. Sama homma kuin DLSS2:n kanssa; suorituskyky on ennallaan mutta lopputulos on sitten muuta kuin natiivisti (esim. DLSS2 1080p->4k on suorituskyvyltään about samoissa kuin natiivi 1080p, ei natiivi 4k, samoin DLSS3 60fps -> 120fps vastaa 60fps suorituskyvyltään). Näissä skenaarioissa GPU tekee vain marginaalisesti enemmän työtä joten ainakin minusta on täysin tuubaa puhua suorituskyvyn parantuneen. Resoluutio ja ruudunpäivitys on ne parantuneet asiat.

Lupaavia tekniikoita, mutta kuten aina uuden teknologian kanssa niin viilausta riittää ja pelikohtaisestikin saattaa olla isoja eroja miten soveltuu ja minkälaisia ongelmia sisältää.
 
Voin toki olla väärässäkin, mutta eikö toi aina lisää lagia?
Sen feikkiframen laskemiseen menee joku aika, eikä sen laskentaa voida aloittaa ennen kuin valmis frame oltaisiin normaalisti jo dumpattu näytölle. Eli siis se feikkiframe, josta LDAT mittaa input lagin, tulee jo jonkun millisekunnin myöhässä. Sit jos lasketaan että milloin se feikkiframen jälkeinen ns. aito frame tulee ruutuun, niin viivettä on vähintään puolen framen verran verrattuna tilanteeseen jossa dlss3 on pois päältä.

Pitäis piirtää joku annotoitu aikajana näistä, niin olis helpompi näyttää mistä on kyse viiveiden osalta.
Et ole väärässä. Se mihin viittasin on, että reflexin integroiminen ja pelintekijän focus lagin minimoimiseen parantaa tilannetta. On ihan mahdollista, että pelintekijä ei olisi ilman dlss3:sta tehnyt reflexiä+lagia minivoivaa toteutusta(nvidia auttaa/maksaa?). Jossain oli mittauksia lisälagista. Lagi asettui jonnekin reflex on/reflex off välimaastoon. Lagi vaihteli todella rajusti pelistä toiseen niin ilman dlss3:sta kuin dlss3:en kanssa.

Toinen pointti mulla, että dlss3:en tuomasta lagista, jos on huolissaan niin samalla pitäisi myös olla huolissaan verkkopelien lagisesta liikenteestä. Moni verkkopeli taitaa edelleen olla vain 30kertaa sekunnissa liikennettä serverille? Verkkopelin lagin piilottaminen siloittaa kokemusta, mutta silti se verkkokoodi on huomattavan laginen versus vaikka 120,240 tai 480fps mitä itse pelin grafiikka voi pyöriä.

imho. dlss3 on kiva juttu. Ei sen olemassaolo ole keneltäkään varsinaisesti pois. Käyttää ne jotka haluaa käyttää ja jos ei kiinnosta niin helppo jättää asetus pois päältä.
 
Viimeksi muokattu:
Yllättävän nopeasti tuntuu DLSS 3 kehittyvän, vuoden lopussa varmaan aika hyvin toimii jos peli tarpeeksi hidastempoinen.
 
Toinen pointti mulla, että dlss3:en tuomasta lagista, jos on huolissaan niin samalla pitäisi myös olla huolissaan verkkopelien lagisesta liikenteestä.

Entä jos ei pelaa verkossa? Esim. itse en pelaa online pelejä laisinkaan. Ainoastaan autosimulaattoreita VR laseilla offline.

imho. dlss3 on kiva juttu. Ei sen olemassaolo ole keneltäkään varsinaisesti pois. Käyttää ne jotka haluaa käyttää ja jos ei kiinnosta niin helppo jättää asetus pois päältä.

Frame generation vaikuttaa omasta mielestä sudelta jo syntyessään. Se ei hyödytä niissä tilanteissa, joissa sille olisi eniten tarvetta. Ja siihen kulutettu aika on muusta kehityksestä pois.

Aika näyttää, että saako NVidia tehtyä tuosta paremman ajan myötä. Tai varmasti saa, mutta saako parannettua riittävästi?
 
- synkronointi (vsync, gsync) oli ainakin julkaisun aikana ongelmallinen kun FG puski ruudunpäivityksen monitorin hertsimäärää vasten aiheuttaen input lagin kasvua ja päivityksen epätasaisuutta (frame pacing), en ole varma onko tähän jo tullut muutoksia mutta se oli ilmeisesti tulevaisuuden suunnitelmissa korjata. Ilmeisesti esim tyypillinen RTSS-rajoitus ei auta asiassa vaan ainut tapa on pysyä "luonnollisesti" näytön virkistystaajuuden alla.
Tältä osin tilanne parani ajuripäivityksen myötä marraskuussa siten, että nykyään VRR näyttöä käyttäessä kun laittaa V-syncin päälle Nvidian contron panelista, niin fps pysyy vähän alle näytön virkistystaajuuden, eli järkevä fps rajoitus automaattisesti käytössä.
 
Et ole väärässä. Se mihin viittasin on, että reflexin integroiminen ja pelintekijän focus lagin minimoimiseen parantaa tilannetta. On ihan mahdollista, että pelintekijä ei olisi ilman dlss3:sta tehnyt reflexiä+lagia minivoivaa toteutusta(nvidia auttaa/maksaa?). Jossain oli mittauksia lisälagista. Lagi asettui jonnekin reflex on/reflex off välimaastoon. Lagi vaihteli todella rajusti pelistä toiseen niin ilman dlss3:sta kuin dlss3:en kanssa.

Toinen pointti mulla, että dlss3:en tuomasta lagista, jos on huolissaan niin samalla pitäisi myös olla huolissaan verkkopelien lagisesta liikenteestä. Moni verkkopeli taitaa edelleen olla vain 30kertaa sekunnissa liikennettä serverille? Verkkopelin lagin piilottaminen siloittaa kokemusta, mutta silti se verkkokoodi on huomattavan laginen versus vaikka 120,240 tai 480fps mitä itse pelin grafiikka voi pyöriä.

imho. dlss3 on kiva juttu. Ei sen olemassaolo ole keneltäkään varsinaisesti pois. Käyttää ne jotka haluaa käyttää ja jos ei kiinnosta niin helppo jättää asetus pois päältä.
IMO pelimoottorin lagi ja dlss3 on ihan eri asioita ja tulee ehdottomasti käsitellä erillisinä asioina.

Se että pelimoottoria saadaan optimoitua nvidian rahoituksella on tietty hyvä juttu, ja automaattisesti uusi baseline johon verrata.


Verkkopelien lagi taas on aivan eri asia kuin lokaali input lag. Ei nyt aleta verkkoviiveitä ja osumatarkistuksia sotkemaan lokaaliin input lagiin, kiitos. Mekanismit on ihan erilaisia ja niihin on täysin eri ratkaisut (muuta amsterdamiin valokuidun päähän).

Joissain peleissä korkeammasta verkkoviiveestä on kaiken lisäksi merkittävää etua tietyillä pelityyleillä (pubg esimerkiksi), siinä missä lokaali input lag on _aina_ haitaksi.
 
Frame generation vaikuttaa omasta mielestä sudelta jo syntyessään. Se ei hyödytä niissä tilanteissa, joissa sille olisi eniten tarvetta.

Päinvastoin, niissä tapauksissa joissa sitä on tarkoitus käyttää FG on about ainoa vaihtoehto raudan päivityksen ohella. CPU/peliengine ottaa vastaan? FG auttaa. 100fps lasissa mutta näyttö 240Hz eli sulavampaan voisi päästä? FG auttaa. Sama mutta 70fps vs 144Hz? FG auttaa.

Mihin se ei auta on tietysti tilanteet joissa näyttis ei pysty alunperinkään tuottamaan riittävää ruudunpäivitysnopeutta, koska silloin input lagi jää surkeaksi ja artifaktit ruudulle niin pitkäksi aikaa irvistelemään että näkyvät. Mutta siihen mihin se on tarkoitettu FG on toimiva eikä suinkaan susi (joskaan ei täydellinenkään).
 
IMO pelimoottorin lagi ja dlss3 on ihan eri asioita ja tulee ehdottomasti käsitellä erillisinä asioina.

Miten tähän kytkeytyy dlss3:en mukana tuleva pakollinen reflex tuki, jolla nimenomaan optimoidaan pelienginen tapaa tuottaa grafiikkaa pienemmällä lagilla? Reflex toimii dlss3:en kanssa ja ilman.
 
Miten tähän kytkeytyy dlss3:en mukana tuleva pakollinen reflex tuki, jolla nimenomaan optimoidaan pelienginen tapaa tuottaa grafiikkaa pienemmällä lagilla? Reflex toimii dlss3:en kanssa ja ilman.
Ja dlss3 toimii ilman reflexiä. Mitään teknistä rajoitetta ei ole, vain nvidian damage control -tiimi estää.

Joka tapauksessa, jos pelissä on reflex, niin se on baseline johon verrataan. Vai onko mitään syytä olla niin tekemättä.
 
Päinvastoin, niissä tapauksissa joissa sitä on tarkoitus käyttää FG on about ainoa vaihtoehto raudan päivityksen ohella. CPU/peliengine ottaa vastaan? FG auttaa. 100fps lasissa mutta näyttö 240Hz eli sulavampaan voisi päästä? FG auttaa. Sama mutta 70fps vs 144Hz? FG auttaa.

Onko NVidia jossain kertonut, että FG:tä pitäisi käyttää vain tietyissä tapauksissa ja vielä, että missä?

En vain edelleenkään näe tuolle juurikaan arvoa. Yleensä ne, jotka havittelevat mahdollisimman suurta ruudunpäivitysnopeutta, ovat kilpailulliset pelaajat. Heille FG ei tuo mitään parannusta, koska input lagi ei pienene ruudunpäivitysnopeuden suurentuessa.

Jos taas hidastempoinen peli pyörii jo valmiiksi 100 FPS, niin kuinka paljon sitä sulavoitumista edes huomaa, jos tuon tuplaa FG:llä?

Mihin se ei auta on tietysti tilanteet joissa näyttis ei pysty alunperinkään tuottamaan riittävää ruudunpäivitysnopeutta, koska silloin input lagi jää surkeaksi ja artifaktit ruudulle niin pitkäksi aikaa irvistelemään että näkyvät. Mutta siihen mihin se on tarkoitettu FG on toimiva eikä suinkaan susi (joskaan ei täydellinenkään).

Niin, tuo on se skenaario, missä FPS:n nousua eniten kaivattaisiin ja siihen FG ei sovi.

Ja edelleen, onko NVidia kertonut, että mihin FG on tarkoitettu? Siis muuten, kuin että "suorituskyvyn tuplaamiseen", mitä se ei siis tee.
 
Onko NVidia jossain kertonut, että FG:tä pitäisi käyttää vain tietyissä tapauksissa ja vielä, että missä?

En vain edelleenkään näe tuolle juurikaan arvoa. Yleensä ne, jotka havittelevat mahdollisimman suurta ruudunpäivitysnopeutta, ovat kilpailulliset pelaajat. Heille FG ei tuo mitään parannusta, koska input lagi ei pienene ruudunpäivitysnopeuden suurentuessa.

Jos taas hidastempoinen peli pyörii jo valmiiksi 100 FPS, niin kuinka paljon sitä sulavoitumista edes huomaa, jos tuon tuplaa FG:llä?
Aivojen generoima liikeblurri on nähtävissä jokaisessa pelissä jossa kamera liikahtaa. Jos olisi olemassa 4k500Hz näyttö niin enabloisin 4x frame generationin joka peliin oli se sitten hidas tai nopea ja peli pyörisi natiivisti ilman FG:tä 100-120 fps. MPRT:n putoaminen 8ms -> ~2ms olisi jo tosi hyvä juttu ja taas askel kohti CRT:n kaltaista liikesulavuutta. Ihan sama vaikka ne väliframet olisi keksittyjä jos havainnoitu blurri putoaisi 1/4.
 
Onko NVidia jossain kertonut, että FG:tä pitäisi käyttää vain tietyissä tapauksissa ja vielä, että missä?

Sanavalinta oli vähän huono, parempi ilmaisu olisi ollut että "niissä tapauksissa joissa FG:tä on järkeä käyttää". NVIDIA kytkyttää toki "normaali" DLSS:ään koska silloin saa isommat kertoimet markkinointiin kun ensin 22fps muuttuu ~45fps:ksi skaalauksella ja sitten FG tuplaa sen 90fps:ksi. Input lagi puolittuu mutta on edelleen siellä 45fps:n tasolla. Varmaan tuntuisi tahmealta pelata.

En vain edelleenkään näe tuolle juurikaan arvoa. Yleensä ne, jotka havittelevat mahdollisimman suurta ruudunpäivitysnopeutta, ovat kilpailulliset pelaajat. Heille FG ei tuo mitään parannusta, koska input lagi ei pienene ruudunpäivitysnopeuden suurentuessa.

Jos taas hidastempoinen peli pyörii jo valmiiksi 100 FPS, niin kuinka paljon sitä sulavoitumista edes huomaa, jos tuon tuplaa FG:llä?

Jotenkin tämä "vain esporttaajille" mielikuva pitäisi varmaan saada tapettua jos sillä perustellaan uusien tekniikoiden teilausta. Minä en juuri pvp pelejä harrasta mutta silti haluan maksimoida ruudunpäivityksen, vaikka tasaisuuden pistänkin sen edelle luonnollisesti. Silmä tottuu nopeastikin korkeisiin taajuuksiin ja hyppäys alempaan tuntuu aika roisilta.

Se miten paljon huomaa 100 vs 200 on hyvin henkilökohtaista, jotkut ei suostu tunnustamaan edes 30 vs 60 eroa. En osaa omalta kohdalta sanoa noin korkeiden suhteen kun oma näyttö ei yli 165Hz mene mutta 60 vs 120 pitäisi olla helppo nähdä ja kuvittelisin 90 vs 120 onnistuisi myös. Mutta jos ne ketkä eron näkee saa yhdellä napilla (sopivissa olosuhteissa ilman suurempia miinuspuolia) lähes ilmaiseksi ruudunpäivityksen tuplattua niin kai sille arvoa löytyy.

Lisäksi tosiaan ei ole kyse pelkästään animaatiosulavuudesta vaan myös kuvan selkeydestä/terävyydestä. Blurbusterseilla on hyviä selaimessa toimivia testejä joilla isoja eroja voi testata omaan silmään, tosin ei oikein täydellistä 100 vs 200 testiä ilmeisesti.
 
Mun mielestä on aika huono argumentti dissata dlss3:sta "kun se ei alenna latenssia, tekee vain sulavammalta vaikuttavan grafiikan". Onhan sulavampi grafiikka itseisarvo ihan samalla tapa kuin kaikki muutkin pelin grafiikka-asetukset joilla saadaan kauniimpia pikseleitä.

Toki on niitä pelikokemuksia kuten esport mihin dlss3 ei ehkä sovi, jos se lisää latenssia yhtään. Toisaalta imho. tällaisia argumentteja luodessa on hyvä muistaa muutkin lagin/latenssin lähteet kuten pelin verkkokoodi ja arvioida lagia/latenssia kokonaisuutena.

imho. dlss3 on hyvä asia niin kauan kuin sen saa itse valita laittaako sen päälle vai ei. Bonuksena dlss3 peleissä on varmuudella matalan latenssin reflex toteutettu jolloin nekin jotka vain tavoittelevat minimilatenssia hyötyvät. Ei ole sanottua, että ilman dlss3 ponnistusta reflexin adoptio peleissä olisi yhtä nopea/laaja.
 
Toki on niitä pelikokemuksia kuten esport mihin dlss3 ei ehkä sovi, jos se lisää latenssia yhtään. Toisaalta imho. tällaisia argumentteja luodessa on hyvä muistaa muutkin lagin/latenssin lähteet kuten pelin verkkokoodi ja arvioida lagia/latenssia kokonaisuutena.
Kyse ei ole että se ”ehkä” lisäisi lagia, vaan siitä että se sitä takuuvarmasti tekee. Käytä siis ”jos” sanan sijaan ”kun”. Esim. 100fps pelissä viivettä tulee ns. aitoihin frameihin 5ms + hallusinointiin käytetty aika (kai jotain millisekunteja). Et varmaan näyttöäkään ostaisi jos verrokissa on 5ms nopeammat pikselin värimuutokset. Täi hiirtä jossa on 5ms isompi viive.

Input lag ja verkkolag on edelleen täysin eri asia.

Lokaalisti havaittu input lag on asia johon voi konkreettisesti vaikuttaa, ja jolla on merkittävää vaikutusta pelaamiseen. Myös verkkoviiveen muuttaminen vaikuttaa pelaamiseen, mutta aivan eri tavalla kuin miten input lag toimii. On yhtä naurettavaa sanoa että input lagin merkitys olisi pieni, koska verkkolag on mitä on, kuin väittää että yli serverin tickraten olevalla ruudunpäivitysnopeudella ei olisi merkitystä.

Karkeasti jaotellen input lag vaikuttaa siihen että kuinka nopeasti ja tarkasti saat kohdistettua hiiren kohteen päälle, ja verkkoviive vaikuttaa siihen että kuinka usein osuma menee sinne minne omalla ruudullasi ammuit.

Miten näitä kahta täysin eri tavalla ilmenevää asiaa sitten ”arvioi kokonaisuutena”? En tiedä. Voit varmaan avata ajatteluasi aiheesta enemmänkin.

Elokuvien katseluun ja muihin yksinpeleihin tuo voi jotain mukavuutta tuodakkin, etenkin jos on tottunut paskaan latenssiin vaikka konsoleilla pelatessa.

Edit: ja toi 100fps -> 200 fps ja viive nousee ~5ms on teoreettinen optimikeissi. Käytännön mittauksissa viiveet kasvaa lähemmäs tupliin alkuperäisestä (DF:n testit cyberpunkilla (31->54ms) ja spidermanilla (23->38ms)).
Jos joku näyttö olisi "sulavampi", mutta tarjoaisi kuvat näytölle 20ms hitaammin, niin jättäisin kauppaan. Samsungin telkkareissa moinen vaihtoehto on jo, mutta olen ymmärtänyt että pelaajat ei ole erityisesti pitäneet kyseisestä ominaisuudesta. Nyt sit kun jumala nvidia tuo saman paskan näyttikseen pultattuna, niin ihmiset hyppii riemusta... edit2: samsungin tv tekee ton interpolaation itseasiassa nopeammin. Viive lisääntyy vain 18ms. Samsung S95B OLED Review (QN55S95BAFXZA, QN65S95BAFXZA)
 
Viimeksi muokattu:
Elokuvien katseluun ja muihin yksinpeleihin tuo voi jotain mukavuutta tuodakkin, etenkin jos on tottunut paskaan latenssiin vaikka konsoleilla pelatessa.
Ennen reflexin lisäämistä moni on PC:lläkin tavannut pelata Cyberpunkia GPU rajoitteisena, mikä taitaa lisätä viivettä pahemmin kuin DLSS 3. Sopivalla fps rajoittimella viivettä on voinut pienentää jo ennen reflexiä, mutta veikkaan ettei kovin moni ole tuota käyttänyt. Tälle väelle DLSS 3 tuo siis mahdollisesti korkeamman fps:n lisäksi myös pienemmän viiveen.
 
Ennen reflexin lisäämistä moni on PC:lläkin tavannut pelata Cyberpunkia GPU rajoitteisena, mikä taitaa lisätä viivettä pahemmin kuin DLSS 3. Sopivalla fps rajoittimella viivettä on voinut pienentää jo ennen reflexiä, mutta veikkaan ettei kovin moni ole tuota käyttänyt. Tälle väelle DLSS 3 tuo siis mahdollisesti korkeamman fps:n lisäksi myös pienemmän viiveen.
En nyt ihan ymmärrä ajatuksenkulkuasi.

Mille väelle se dlss3 tuo pienemmät viiveet? Niihin verrattuna jotka ei ymmärrä painaa reflexiä päälle? (Luulis että se on vakiona päällä)

Vai alkaako ihmiset nyt pelaamaan tota jollain 30fps rajoittimella dlss3 päällä, ja kuvittelevat että saavat matalemmat viiveet?

Gpu rajoitettuna ton latenssit on 31ms. Dlss3 päällä latenssit on 54ms. Esitit heiton että fps capilla viive laskee enemmän kuin dlss3 nostaa, eli että viive olis enää korkeintaan 8ms. Tuskin. Etenkin kun pelin fps seilaa vähän missä sattuu, niin se pitäisi rajoittaa todella alas jotta gpu käyttö pysyisi aina riittävän matalana.

Ylipäänsä, en tajua että miksi rikkinäisen pelimoottorin korjaaminen pitää liittää johonkin saippuaoopperafiltteriin. Kiva juttu että nvidialta löytyy rahaa pelimoottorien tuunaamiseen, mutta ei nämä asiat ole toiminnallisesti liitännäisiä, vaikka kyseinen yhteys nvidian pressimatskuissa onkin lampaille esitetty.
 
Mille väelle se dlss3 tuo pienemmät viiveet? Niihin verrattuna jotka ei ymmärrä painaa reflexiä päälle? (Luulis että se on vakiona päällä)
Meinaan että jos on tottunut viiveeseen, jolla tota pelattiin ilman ennen Reflexiä ja ilman framerate limiteriä GPU:n käyttöaste tapissa, niin DLSS 3:een siirtyminen ei pahenna tilannetta. Ihan vain mainitsemiesi konsolipelaajien lisäksi luulisin että tämä on aika merkittävä ryhmä ainakin Cyberpunkin kohdalla.

Pari havainnollistavaa kuvaa:

Ei fps rajoitinta, ei Reflexiä, GPU käyttöaste 99%:
ei-reflex.png

FPS cap 60:
cap60.png

Reflex:
reflex.jpg

FG:
fg.png
 
Viimeksi muokattu:

Statistiikka

Viestiketjuista
258 691
Viestejä
4 496 063
Jäsenet
74 271
Uusin jäsen
Esa.

Hinta.fi

Back
Ylös Bottom