Keskustelua yliskaalaustekniikoista Nvidia Dlss&Nis, Amd Fsr, Intel Xess.

Joo se on kyllä iso juttu, jos tuon DLSS 3.0:n saa tosiaan hyvin helposti peleihin / engineen tuotua päälle, kunhan DLSS 2.x tuki on jo. Mielenkiinnolla odottelen kyllä DF:n kohta puoliin ulos tulevaa DLSS 3 previewiä.

Preview ennen NDA:n päättymistä ei kyllä ole oikeaa journalismia. Siinä on todella tarkat nuotit annettu mitä kuuluu kehua ja mistä ei saa puhua. Launchin jälkeen ne voi katsoa sitä kriittisemmin.
 
Preview ennen NDA:n päättymistä ei kyllä ole oikeaa journalismia. Siinä on todella tarkat nuotit annettu mitä kuuluu kehua ja mistä ei saa puhua.
Melkoista sielun myymistä jos tollaisessa lieassa lähtevät matskua tuottamaan. En ihan noin kyynisesti suhtautuisi DF:n tekemiseen.

Eipä sillä, kyllä tämä minusta paljon enemmän herättää kysymyksiä toimituksen puolueettomuudesta kuin esim. HUB:n nuiva mielipide säteenseurannan arvosta.
 
Preview ennen NDA:n päättymistä ei kyllä ole oikeaa journalismia. Siinä on todella tarkat nuotit annettu mitä kuuluu kehua ja mistä ei saa puhua. Launchin jälkeen ne voi katsoa sitä kriittisemmin.

No tottakai pitää osata ottaa huomioon, että mikä homma on kyseessä. Uskon silti, että DF ei ihan mitään täysin NVIDIA:n sanelemaa tekstiä vaan toista. Eiköhän siinä ihan kritiikkiäkin tule olemaan.
 
Melkoista sielun myymistä jos tollaisessa lieassa lähtevät matskua tuottamaan. En ihan noin kyynisesti suhtautuisi DF:n tekemiseen.

Eipä sillä, kyllä tämä minusta paljon enemmän herättää kysymyksiä toimituksen puolueettomuudesta kuin esim. HUB:n nuiva mielipide säteenseurannan arvosta.

Tekihän ne ensimmäisen previewin Amperesta ennen arvostelujen julkaisua. Nvidian puolesta oli valittu pelit ja asetukset ja se miten niistä sai kertoa, sen ne myönsivätkin suoraan. Silti tulokset oli oikeita, mutta toimituksellinen näkökulma oli tiukasti rajattu.
 
Tekihän ne ensimmäisen previewin Amperesta ennen arvostelujen julkaisua. Nvidian puolesta oli valittu pelit ja asetukset ja se miten niistä sai kertoa, sen ne myönsivätkin suoraan. Silti tulokset oli oikeita, mutta toimituksellinen näkökulma oli tiukasti rajattu.
Ja siis noudattivat Nvidian käskyä kehua tiettyjä asioita? Tähän en kyllä usko ilman todisteita.
 
Tekihän ne ensimmäisen previewin Amperesta ennen arvostelujen julkaisua. Nvidian puolesta oli valittu pelit ja asetukset ja se miten niistä sai kertoa, sen ne myönsivätkin suoraan. Silti tulokset oli oikeita, mutta toimituksellinen näkökulma oli tiukasti rajattu.

Niin sekin oli ihan hyvin paikkansa pitävä preview. Toki se ei kertonut kun sen, mitä se amperen oerffiä oli parhaimmillaan. Samaa varmaan tässäkin, että on valittu ne pelit, missä DLSS3 parhaiten tällä hetkellä toimii.
 
No tottakai pitää osata ottaa huomioon, että mikä homma on kyseessä. Uskon silti, että DF ei ihan mitään täysin NVIDIA:n sanelemaa tekstiä vaan toista. Eiköhän siinä ihan kritiikkiäkin tule olemaan.

Itse veikkaisin, että kaikki mitä ne sanoo siitä on validoitavissa muidenkin osalta, mutta nopeatempoista peliä, input lagia ja väärään suuntaan veikatun pelin etenemisen tuomia artefakteja analysoidaan vasta julkaisun jälkeen.
 
Itse veikkaisin, että kaikki mitä ne sanoo siitä on validoitavissa muidenkin osalta, mutta nopeatempoista peliä, input lagia ja väärään suuntaan veikatun pelin etenemisen tuomia artefakteja analysoidaan vasta julkaisun jälkeen.

No se jää nähtäväksi. En kyllä oikein itse usko, että input lag aspekti esimerkiksi jötetääisiin kokonaan ulkopuolelle.
 
Voisihan näytönohjain tykittää vaikka aina 1 millisekunnin välein edellistä kuvaa kunnes uusi laskettu ja sitten taas sitä jne ja freimit nousee testeissä merkittävästi.
Ilmeisesti skaalaustekniikat on täyttä hepreaa kun tämmöisiä pieruja päästellään. Ketä se palvelisi että samaa framea käskettäisiin piirtää näytölle toistamiseen kun näyttö muutenkin pitää sitä samaa framea näkyvillä kunnes seuraava tulee.
 
No se jää nähtäväksi. En kyllä oikein itse usko, että input lag aspekti esimerkiksi jötetääisiin kokonaan ulkopuolelle.

Veikkaisin, että talking pointit on nämä:

- Ensimmäistä kertaa RT on oikeasti riittävän nopeaa kaikki herkut päällä ja pääpaino on fps lisässä. Tietty jos 1080p RT kuva skaalataan 4K ja sitten ilman RT:tä (vai käytetäänkö siihenkin RT:tä?) generoidaan seuraava frame liikevektoreita interpoloimalla, niin lopputulos onkin, että vain 1/8 pikseleistä on säteenseurannan tekosia.
- Ei ylimääräistä inputlagia vs DLSS2 (alkuperäisten framejen määrä on sama vs DLSS2, joten lausunto on totta)
- Testit on rajoitettu flight simulatoriin, jossa on muutenkin hankala huomata lagia ja cyberpunkin autoiluun/rauhallisiin kohtiin. Rauhallisuuden takia on subjektiivisesti hyvä inputlag ja 4090 jaksaa jo noita DLSS2.0 päällä ok frameratella.
- Muistetaan kehua miten auttaa myös cpu rajoiteisiin peleihin (flight simulator).

Lopputulos on hypevideo, missä ei valehdella, kaiken sanotun takana voidaan seisoa ja saadaan hitonmoiset katsojaluvut, koska se on ensimmäinen infopläjäys. Siitä syntyvät muiden tekkisivujen tekemät uutiset luo DLSS3.0 mielikuvat. Jatkovideoissa julkaisun jälkeen voidaan etsiä liike-ennustusvirheiden microstutteria, säteenseuranta-artefakteja ja mittailla inputlagia tarkemmin, niiden katsojamäärät on huomattavasti pienemmät ja niistä ei samalla tavalla uutisoidakkaan.
 
Veikkaisin, että talking pointit on nämä:

- Ensimmäistä kertaa RT on oikeasti riittävän nopeaa kaikki herkut päällä ja pääpaino on fps lisässä. Tietty jos 1080p RT kuva skaalataan 4K ja sitten ilman RT:tä (vai käytetäänkö siihenkin RT:tä?) generoidaan seuraava frame liikevektoreita interpoloimalla, niin lopputulos onkin, että vain 1/8 pikseleistä on säteenseurannan tekosia.
- Ei ylimääräistä inputlagia vs DLSS2 (alkuperäisten framejen määrä on sama vs DLSS2, joten lausunto on totta)
- Testit on rajoitettu flight simulatoriin, jossa on muutenkin hankala huomata lagia ja cyberpunkin autoiluun/rauhallisiin kohtiin. Rauhallisuuden takia on subjektiivisesti hyvä inputlag ja 4090 jaksaa jo noita DLSS2.0 päällä ok frameratella.
- Muistetaan kehua miten auttaa myös cpu rajoiteisiin peleihin (flight simulator).

Lopputulos on hypevideo, missä ei valehdella, kaiken sanotun takana voidaan seisoa ja saadaan hitonmoiset katsojaluvut, koska se on ensimmäinen infopläjäys. Siitä syntyvät muiden tekkisivujen tekemät uutiset luo DLSS3.0 mielikuvat. Jatkovideoissa julkaisun jälkeen voidaan etsiä liike-ennustusvirheiden microstutteria, säteenseuranta-artefakteja ja mittailla inputlagia tarkemmin, niiden katsojamäärät on huomattavasti pienemmät ja niistä ei samalla tavalla uutisoidakkaan.

En ihan tuota boldattua kohtaa allekirjoita. En usko, että noin tarkasti on mitään määräyksiä, että jotain tiettyä kohtaa vaan näytetään peleistä. Lisäksi tiiserissä oli myös Spiderman.
 
Eikös siinä keynotessa näytetty että ilman DLSS Cyberpunkissa 4090:lla tulee ~22fps RT päällä?
Eli aika kaukana ollaan vieläkin siitä että RT olisi riittävän nopeaa....

Edit: Väärään ketjuun tuli näköjään tämä viesti...
 
Viimeksi muokattu:
En ihan tuota boldattua kohtaa allekirjoita. En usko, että noin tarkasti on mitään määräyksiä, että jotain tiettyä kohtaa vaan näytetään peleistä. Lisäksi tiiserissä oli myös Spiderman.

Muistelen vain Amperen previewiä, ainut ei RT peli oli borderlands 3, joka oli käytännössä eniten amperesta hyötynyt rasterointipeli. Saatiin 80% nopeampi lopputulos, kun techpowerupin summaryssä 4K onkin vain 60% nopeampi. Silloinkin oli selkeästi rajatut esityspeksit, vertailukohta oli 2080 vs 3080, ei 2080S tai 2080TI, jotta saatiin vielä isoin prosentuaalinen parannus aikaan sukupolvien välille.

Voihan siinä spidermankin olla, mutta koska kyseessä on ennakko, ennen julkaisua, niin sen saadakseen ei voi tutkia muita, kuin featuren parhaaseen mahdolliseen valoon saattavia tapauksia. Se on previewien hinta.

Edit: olihan siinä doom eternal, mutta sehän sai RT tuen vasta myöhemmin.
 
Eikös siinä keynotessa näytetty että ilman DLSS Cyberpunkissa 4090:lla tulee ~22fps RT päällä?
Eli aika kaukana ollaan vieläkin siitä että RT olisi riittävän nopeaa....
Joku uusi RT Overdrive mode tjsp oli vissiin käytössä. Toki jos on pakko pelata just siinä modessa ja olla käyttämättä DLSS/FSR tyyppisiä härdellejä niin sit ei varmaan riitä säteenseuranta perffi vielä 40-sarjassakaan mihkään.

Toki rasteroinnillakin voidaan tehdä juttuja, jotka saisi 4090:n pyörimään 22fps, että voitaneen sun logiikallasi sanoa myöskin, että rasterointi suorituskyky ei ole riittävän nopeaa. ;)
 
Muistelen vain Amperen previewiä, ainut ei RT peli oli borderlands 3, joka oli käytännössä eniten amperesta hyötynyt rasterointipeli. Saatiin 80% nopeampi lopputulos, kun techpowerupin summaryssä 4K onkin vain 60% nopeampi. Silloinkin oli selkeästi rajatut esityspeksit, vertailukohta oli 2080 vs 3080, ei 2080S tai 2080TI, jotta saatiin vielä isoin prosentuaalinen parannus aikaan sukupolvien välille.

Voihan siinä spidermankin olla, mutta koska kyseessä on ennakko, ennen julkaisua, niin sen saadakseen ei voi tutkia muita, kuin featuren parhaaseen mahdolliseen valoon saattavia tapauksia. Se on previewien hinta.

Edit: olihan siinä doom eternal, mutta sehän sai RT tuen vasta myöhemmin.

Toki pelit rajataan, mutta en kyllä millään usko, että alettaisiin määrillä, miten peliä pitää testissä/previkasda pelata.

Aika suuressa osassa peleistä se ero oli sen 80% Amperen hyväksi, vaikka keskiarvo vain 60% luokassa olikin. Ja miksi ei olisi verrattu 2080 vs 3080? Tuohan on juurikin se tapa, miten se pitääkin tehdä, eikä 2080Ti vs 3080 tms.

Varmasti previkassa keskitytään vahvasti positiivisiin puoliin, mutta ei se tarkoita sitä, etteikö olisi jotain kritiikkiäkin mukana tai että DF ei saisi itse tuottaa mitään omaa sisältöä.
 
Jännä kyllä että edes parhaimmalla kortilla ei saa pelejä toimimaan täysillä asetuksilla, täytyy kaikki kikat olla silti käytössä. Heti jos puhuu pelikehittäjistä ja optimoinnista, niin joku tulee herne nenässä selittää kuinka homma toimii.
 
Toki pelit rajataan, mutta en kyllä millään usko, että alettaisiin määrillä, miten peliä pitää testissä/previkasda pelata.

Aika suuressa osassa peleistä se ero oli sen 80% Amperen hyväksi, vaikka keskiarvo vain 60% luokassa olikin. Ja miksi ei olisi verrattu 2080 vs 3080? Tuohan on juurikin se tapa, miten se pitääkin tehdä, eikä 2080Ti vs 3080 tms.

2080TI vs 3090 olisi ollut myös validi vertailupari, mutta 2080 vs 3080 oli edustavampi. Nyt vastaavasti Nvidian vertailuissa pääasiassa pyörii 3090TI vs 4090, koska niin saadaan edustavimmat numerot, vaikka 4090 ei ole vielä täysi piiri ja 3090 on myös olemassa:
- Perf/w näyttää heti paremmalle kun vastassa on tappiin kellotettu kortti.
- 3080 vs 4080 ei ole niin iso tehonousu, kun piirien suhteellinen kokoero on pienempi. Se tekee siitä vähemmän edustavan vertailuparin.
- Hinnoittelun takia 3090TI vs 4090 saa aikaan isomman perf/€ parannuksen kuin 3080/4080.

DF:n DLSS3.0 preview tulee vilkaistua, mutta oikeasti olen hiton paljon kiinnostuneempi julkaisun jälkeen tulleista arvioista, kun niissä voi luottaa siihen, että edessä ei ole ollut tiukkaa NDA lomaketta allekirjoitusta odottamassa, jossa listataan mitä saa sanoa ja mitä ei saa sanoa ja käytössä on vain nvidian toimittamat testiversiot valikoiduista peleistä.

Mutta alkaa olla jo aikalailla offtopiccia, voisin omalta osaltani lopettaa tähän.
 
Jännä kyllä että edes parhaimmalla kortilla ei saa pelejä toimimaan täysillä asetuksilla, täytyy kaikki kikat olla silti käytössä. Heti jos puhuu pelikehittäjistä ja optimoinnista, niin joku tulee herne nenässä selittää kuinka homma toimii.
Aina on löytynyt pelejä, joissa on valikossa niin korkeita asetuksia, ettei parhaallakaan näyttiksellä pyöri kivasti. Tämä on vain hyvä asia, koska sitten kun sen pelin pariin palaa 4v päästä, niin voi iskeä ne extremet päälle ja pyöriikin kivasti RTX 6080:llä tai Radeon 9800 XT:llä.

Toinen vaihtoehto on nerffata pelin valikosta löytyvät maksimi grafiikka-asetukset heikommaksi, jotta internetissä ei keksittäisi kitistä asiasta. Paska vaihtoehto mielestäni.
 
Aina on löytynyt pelejä, joissa on valikossa niin korkeita asetuksia, ettei parhaallakaan näyttiksellä pyöri kivasti. Tämä on vain hyvä asia, koska sitten kun sen pelin pariin palaa 4v päästä, niin voi iskeä ne extremet päälle ja pyöriikin kivasti RTX 6080:llä tai Radeon 9800 XT:llä.

Toinen vaihtoehto on nerffata pelin valikosta löytyvät maksimi grafiikka-asetukset heikommaksi, jotta internetissä ei keksittäisi kitistä asiasta. Paska vaihtoehto mielestäni.
Ei oo kyllä aina ollut. Asetuksia voi myös säätää sillei ettei eroa edes huomaa "ultra" asetuksiin, suurinosa noista on aika keinotekoisesti rankaisevia, luokkaa piirretään varjot niin pitkälle mistä niitä ei edes huomaa yms.
 
Ei oo kyllä aina ollut.
No, tätä en osaa vääräksi todistaa, joten sovitaan että olet oikeassa. Mitenkään poikkeuksellista tämä ei kuitenkaan ole (Crysis etc)

Mutta oletko siis sitä mieltä, pelien valikoista löytyvät maksimiasetukset pitäisi rajoittaa siten, että peli pyörii sulavasti pelin julkaisuhetkellä saatavilla olevalla raudalla?
 
No, tätä en osaa vääräksi todistaa, joten sovitaan että olet oikeassa.

Mutta oletko siis sitä mieltä, pelien valikoissa olevat maksimiasetukset pitäisi rajoittee siten, että peli pyörii sulavasti pelin julkaisuhetkellä saatavilla olevalla raudalla?
En ole, mutta siinä "ultra/xxxtreme" asetuksessa pitäisi lukea sitten että "this is unoptimized pc only setting made for future PC's, use with caution". En ole missään modernissa pelissä lukenut crysiksen jälkeen että tappi asetukset on suunniteltu tulevaisuuden raudalle?
 
Ei missään nimessä saa "konsolisoida" PC:tä ja aletaan teräsnyrkkimäisesti rajaamaan pelien detailitasot semmoiseksi että "kaikilla on mukavaa" vaikka säätää maksimit. Koko PC:n idea on se että tarvittaessa reson voi säätää 16k, varjojen piirtorange infinite ja Path-Tracing max bounce thresholdin tarvittaessa äärettömään (tulevia kvanttikoneita varten).
 
siinä "ultra/xxxtreme" asetuksessa pitäisi lukea sitten että "this is unoptimized pc only setting made for future PC's, use with caution"
Vahvasti samaa mieltä. Aiheuttaa kovasti turhaa "paskasti optimoitu" -ulinaa internetissä kun Joonaat eivät ymmärrä, että sitä extremeä ei kannata laittaa lasiin kuin vasta vuosien päästä tai photo modea varten.
 
Ei missään nimessä saa "konsolisoida" PC:tä ja aletaan teräsnyrkkimäisesti rajaamaan pelien detailitasot semmoiseksi että "kaikilla on mukavaa" vaikka säätää maksimit. Koko PC:n idea on se että tarvittaessa reson voi säätää 16k, varjojen piirtorange infinite ja Path-Tracing max bounce thresholdin tarvittaessa äärettömään (tulevia kvanttikoneita varten).
Mielestäni nämä skaalaustekniikat ovat juuri sitä konsoloimista.
Lisäksi voisi kysyä (en ole ensimmäinen joka tätä kysyy), tehdäänkö PC-peleihin tarkoituksella ominaisuuksia niin, että ne pyrkivät hyvin vasta kaikkein kalleimmilla tai tulevaisuudessa julkistettavilla näytönohjaimilla.
Sinänsähän pelien graafisten ominaisuuksien parantamisessa ei ole periaatteessa mitään väärää, mutta jos asetukset voidaan määritellä niin raskaiksi, että ne eivät toimi tehokkaimmallakaan markkinoilla saatavalla näytönohjaimella, niin mitähän sillä slideshow -asetusoptioilla oikein tavoitellaan?
Ilmeisesti sitä, että ne toimivat pelattavasti vain valmistaja X:n skaalausta käyttämällä?
 
Sinänsähän pelien graafisten ominaisuuksien parantamisessa ei ole periaatteessa mitään väärää, mutta jos asetukset voidaan määritellä niin raskaiksi, että ne eivät toimi tehokkaimmallakaan markkinoilla saatavalla näytönohjaimella, niin mitähän sillä slideshow -asetusoptioilla oikein tavoitellaan?
Ilmeisesti sitä, että ne toimivat pelattavasti vain valmistaja X:n skaalausta käyttämällä?
1. Asennat pelin 4v päästä pari sukupolvea paremmalla raudalla ja voit pelata vähän nätimmillä raffoilla eikä se ole enää slideshow.
2. Tarjotaan laajemmat optiot pelaajalle valita mistä kuvanlaatuasetuksista uhrata ja mihin panostaa.
3. Photo-mode

Et ole ihan väärässä, että tämä edesauttaa myös esim. DLSS markkinnointia. Se ei kuitenkaan ole multa mitään pois ja valveutuneena kuluttajana en näe tässä optioiden laajuudessa oikeasti kuin hyviä puolia.

Mielestäni nämä skaalaustekniikat ovat juuri sitä konsoloimista.
Sillä isolla erolla, että PC:llä skaalaustekniikan saa halutessaan pois päältä, konsoleilla ei. Toivottavasti PC:llä jatkossakin näin.
 
Tai sitten ne on vaan huonosti optimoituja asetuksia mitkä on väkisin konsoli portin päälle lyöty, jotka ei ole tarkoitettu edes toimivan kunnolla, yritetään vaan miellyttää ihmisiä ketkä kuvittelee että ne on tehty tulevaisuutta varten.
 
2080TI vs 3090 olisi ollut myös validi vertailupari, mutta 2080 vs 3080 oli edustavampi. Nyt vastaavasti Nvidian vertailuissa pääasiassa pyörii 3090TI vs 4090, koska niin saadaan edustavimmat numerot, vaikka 4090 ei ole vielä täysi piiri ja 3090 on myös olemassa:
- Perf/w näyttää heti paremmalle kun vastassa on tappiin kellotettu kortti.
- 3080 vs 4080 ei ole niin iso tehonousu, kun piirien suhteellinen kokoero on pienempi. Se tekee siitä vähemmän edustavan vertailuparin.
- Hinnoittelun takia 3090TI vs 4090 saa aikaan isomman perf/€ parannuksen kuin 3080/4080.

DF:n DLSS3.0 preview tulee vilkaistua, mutta oikeasti olen hiton paljon kiinnostuneempi julkaisun jälkeen tulleista arvioista, kun niissä voi luottaa siihen, että edessä ei ole ollut tiukkaa NDA lomaketta allekirjoitusta odottamassa, jossa listataan mitä saa sanoa ja mitä ei saa sanoa ja käytössä on vain nvidian toimittamat testiversiot valikoiduista peleistä.

Mutta alkaa olla jo aikalailla offtopiccia, voisin omalta osaltani lopettaa tähän.

Juu ei kait sitä kukaan kiistäkään, etteikö julkkarin jälkeiset arviot olisi totuudenmukaisempia ja paremepia. Silti previkasta voi saada jo oikeasti jotain suuntaa antavaa kuvaa. Vaikka olisi rajattu DF:n sananvapautta NDA:lla, niin rivien väliin voi kuitenkin ujuttaa omia mielipiteitä, koska ihan varmasti siellä DF:llä testataan/tutkitaan myös niitä asioita, joista ei saa suoraan puhua.

Toisaalta en usko, että NVIDIA olisi tätä previkkaa edes lähtenyt tekemään, jos kyseessä olisi ihan DLSS 1.0:n tasoinen floppi.
 
Tai sitten ne on vaan huonosti optimoituja asetuksia mitkä on väkisin konsoli portin päälle lyöty, jotka ei ole tarkoitettu edes toimivan kunnolla, yritetään vaan miellyttää ihmisiä ketkä kuvittelee että ne on tehty tulevaisuutta varten.
Voihan ne olla huonosti optimoituja ei kai kukaan sitä kiellä. Se että se annetaan PC yhteisön käyttöön siitä huolimatta on juurikin parasta. 10v päästä palaat pelin pariin ja testaat että perhana nyt ne loputtomat varjot pyörii 120fps... tai sitten ei pyöri, koska algoritmi joka silloin tehtiin ei skaalaudu, mutta mitä sitten.

Ongelma taitaa olla se että tuli paha mieli.
 
Ilmeisesti skaalaustekniikat on täyttä hepreaa kun tämmöisiä pieruja päästellään. Ketä se palvelisi että samaa framea käskettäisiin piirtää näytölle toistamiseen kun näyttö muutenkin pitää sitä samaa framea näkyvillä kunnes seuraava tulee.
Myönnän, että on. En tiedä onko arvattu frame parempi silti. Hyöty luonnollisesti olisi 2x-3x-4x freimit vs nykyiset ratkaisut.
 
Ja XeSS SDK -kehityspaketti on nyt saatavilla GItHubista. Alkuun tarjolla vain DX12-yhteensopiva DLL-nivaska, joten varmaan vielä hieman hienosäätävät tätä Intelin puolelta ennen kuin lähdekoodit laitetaan jakoon.

 
DF:ltä tullut tuo DLSS3 preview video. 27:15 kohdasta lähtien näkyy juuri noita heikkouksia generoiduissa ruuduissa. Vähän tuollaisia probleemia että liekkö koskaan päästään eroon ja jonkinlaista artifaktia tuottanee joka tapauksessa välillä. Eri asia huomaako tuota sitten kovin hyvin välkkymisenä tms. Varsinkin tuon UI:n osalta voi aiheuttaa melko järkyttävää välkkymistä. Toivottavasti tulevaisuudessa ei jätetä puhdasta AI yliskaalausta (DLSS2) pois vaan pidetään se tuon rinnalla valittavana. Olisi ollut melkein järkevää nimetä tuo joksikin uudeksi omaksi teknologiaksi vaikka onkin poissulkeva DLSS2 kanssa.

Nvidia DLSS 3 on RTX 4090 - Exclusive First Look - 4K 120FPS and Beyond - YouTube
 
Foundryn video on myös kirjoitetussa muodossa. Oma tiivistelmä, onhan tuo sponsored by henkinen esittely, mutta saa siitä jotain irti. FPS lukemia ei voi olla, koska embargo on päällä, mutta prosenttierot on. Vertailut on ajettu poikkeuksellisesti DLSS performance moodilla, jota tavallisesti vältellään kanavalla laadun takia, mutta lopputulos on isot prosentit, joita Nvidian julkaisussakin on.

Mukana vertailu videopuolen framegeneraattoreihin, joihin verrattuna DLSS3 tekee parempaa jälkeä. Virheitä kohdellaan aika suopeasti, kun ne näkyvät vähän aikaa ruudulla. Reflex pitää huolen inputlagista ja ei tule microstutteria, kuten SLI virityksissä.

Videon laatupuolen loppukaneetti oli ehkä kuvaavin: Tarvitaan lisää aikaa ja pohtimista, miten laatua väliframejen laatua ja kokemusta voidaan arvioida. Ehkä sieltä tulee toinen analyysi NDA:n päättymisen jälkeen.
 
Varsinkin tuon UI:n osalta voi aiheuttaa melko järkyttävää välkkymistä.
Asiaan liittyen, ei kai UI:ta skaalata myös DLSS:llä? Minä kun luulin että DLSS steppi voitaisiin tehdä ennen UI renderöintiä. Ainakin kun DF on analysoinut konsolipelejä niin siellä on paljon nähty näitä, että peli renderöidään vaikka 1080p-1440p ja temporaalinen skaalaus 4k jonka jälkeen UI renderöidään natiivina 4k:na päälle.
 
Asiaan liittyen, ei kai UI:ta skaalata myös DLSS:llä? Minä kun luulin että DLSS steppi voitaisiin tehdä ennen UI renderöintiä. Ainakin kun DF on analysoinut konsolipelejä niin siellä on paljon nähty näitä, että peli renderöidään vaikka 1080p-1440p ja temporaalinen skaalaus 4k jonka jälkeen UI renderöidään natiivina 4k:na päälle.

Varmaankin se UI pitää olla mukana myös niissä "arvatuissa" frameissa? Voi olla monimutkaista renderöidä oikeita frameja vaikka se 60, arvattuja frameja 30 ja sitten vielä UI "natiivina" 90 framea... Mitään noista en ymmärrä, mutta äkkiseltään kuulostaa hankalalta.
 
Asiaan liittyen, ei kai UI:ta skaalata myös DLSS:llä? Minä kun luulin että DLSS steppi voitaisiin tehdä ennen UI renderöintiä. Ainakin kun DF on analysoinut konsolipelejä niin siellä on paljon nähty näitä, että peli renderöidään vaikka 1080p-1440p ja temporaalinen skaalaus 4k jonka jälkeen UI renderöidään natiivina 4k:na päälle.

Peli-engine ei piirrä sitä generoitua väliframea, joten siitä syystä UI tulee osaksi väliframen generointia. Foundryn mukaan UI:ssa ei ole liikevektoreita, mutta Nvidia tutkii saako sille tehtyä jotain.
 
Peli-engine ei piirrä sitä generoitua väliframea, joten siitä syystä UI tulee osaksi väliframen generointia. Foundryn mukaan UI:ssa ei ole liikevektoreita, mutta Nvidia tutkii saako sille tehtyä jotain.
Aivan joo unohdin että tuo tapahtuu jossain muualla kuin pelienginessä tuo framen generointi. Eiköhän tuohon ole ratkaisumalleja jo työpöydällä ja DLSS3.1/3.2 korjailee niitä. Vaikka sille Optical Flow kiihdyttimelle tulisi inputtina se grafiikkapuskuri jossa on enginen tuottama kuva ilman UI:ta, sekä natiivi UI erikseen. Generoidulle framelle käytetään edellisen framen UI:ta joka on sitten crispy-clear(tm) mutta muutaman millisekunnin liian vanha, joka ei haittaa ketään.
 


Tämä täysin ohittaa sen, että DF:n videon perusteella DLSS 3 frame generation lisälatenssi on silti samaa luokkaa, kuin jos peliä pelaisi natiivilla resolla esim 60 fps. Mikä ei ole ollenkaan huono saavutus, ottaen huomioon että esim useimpien telkkojen interpolaatiotekniikat lisäävät latenssia moninkertaiseksi.

Pelaajat voivat ihan vapaasti päättää onko heille latenssi vai ruudunpäivitys tärkeämpi laittamalla DLSS 3 frame generationin päälle tai pois. En pelaa mitään moninpeliräiskintöjä joissa matalin input lag olisi tärkeintä, joten näkisin DLSS 3:n frame generationin mainioksi ominaisuudeksi.

Kattelin DF:n uuden videon äsken ja sen perusteella DLSS 3:ssa olisi vielä ratkaistavana UI:n erotus interpolaatiosta. Muuten en ainakaan DF:n YouTube-videon kuvanlaadulla pystynyt erottamaan generoituja frameja oikeista liikkeessä, näytti vaan sulavammalta niin kuin korkeamman frameraten pitääkin.

Olen viime aikoina pelannut Judgmentia, joka virallisesti tukee FSR 2.1:sta, mutta siihen voi tilalle modata DLSS 2.x:n. DLSS 2 tuo tuossa pelissä edelleen selvän eron. FSR näytti hieman pehmeämmältä kun taas DLSS en osaa erottaa natiiviresosta. Ehkä FSR sharpness-slideria säätämällä korkeammaksi ero olisi tasoittunut. Ruudunpäivityksessä en huomannut juuri eroa. Hieman heikompi kuvanlaatu ei tee FSR:sta huonoa ja uskon, että sekin paranee ajan mittaan samoin kuin DLSS.

Loppeleissä kyse ei ole siitä, että vastaavatko nämä tekniikat 1:1 natiiviresoa tai ruudunpäivitystä vai ei, vaan siitä miten se näkyy pelaajalle. Itse käytän DLSS Balanced tai Quality asetusta jos se on saatavilla. DLSS:lla kuva on huomattavasti stabiilimpi antialiasoinnin puolesta, en huomaa eroa natiiviresoon ja 4K-pelaajana kaikki ruudunpäivitysparannukset ovat tervetulleita.

DLSS 3:sta pitäisi päästä itse kokeilemaan miltä se "tuntuu" käytännössä. Mielestäni n. 144 fps yli mentäessä alkaa olla enemmän kyse tuntumasta kuin silmin nähtävästi pehmeämmästä ruudunpäivityksestä, kun taas tuo 60-144 fps väli vielä näkyy selvästi. Voisin kuvitella, että jos saisin vaikkapa 90 fps pyörivästä pelistä revittyä 4K 240 Hz näytöllä (omani ovat tosin vaan 120 ja 144 Hz) esim 180 fps, niin olisin varsin tyytyväinen lopputulokseen.
 
TechPowerUpilta tullut ulos XeSS, DLSS ja FSR 2.0 vertailu Spider-Manin osalta. DLSS toimii kolmikosta parhaiten kuvanlaadun osalta, XeSS kärsii ghostingista. XeSS:n suorituskyky ei myöskään ole paras mahdollinen NVIDIA:n ja AMD:n korteilla, koska ne eivät tue XMX-käskyä.
 
Uusin versio Tomb Raiderissa (1.01) tuntuisi toimivan ihan kivasti. Ei ole yhtä nopea kuin DLSS, mutta kyllä tuo Intelin korteille tulee hyvä olemaan.
 


Tässä hehkutusta dlss 3.0 erinomaisuudesta. Tuo linkittää kohtaan 2:30 ja aika ihmeellisesti tuo liiketoisto bugittaa taustalla näkyvissä autoissa dlss ollessa päällä. Mielestäni keskitytään vähän vääriin asioihin, kun puhutaan ettei varjoissa tai jossain ikkunan ritilöissä näe eroa, samalla kun puolisokeakin huomaa tuon liiketoiston sekoilun. Onkohan tyypillistä dlss 3.0 tällainen? Saattaa korjaantua jos laskee quality asetukselle.
410CB881-9855-438C-AB56-E63B3596D0B0.png
 

Jaksaisitko summata paremmin? Eka kuva tuolta sun linkistä näyttäisi, että latenssi dlss3:en kanssa parempi kuin natiivissa,jos reflex ei ole päällä.

Toi latenssin lisääntyminen on kyllä tosiasia versus reflex on, mutta aika monessa pelissä se latenssi on huonompi kuin dlss3+reflex on. Voiko sellaisia pelejä edes pelata joissa reflexiä ei ole toteutettu, ehkä voi ehkä ei?

3.png

imho. parhaimmillaan tuo dlss3 on, jos cpu ottaa kiinni ja halutaan vaikka joku 120fps-240fps konversio tehdä. Kilpapelaamiseen ihan turha ihan kuten 4k resokin

edit. Olin hidas, mutta jätän silti postauksen tähän. IsoLuumu oli nopeampi :)
 
Hardware unboxedin videolla oikeastaan parempia graafeja kun myös fps näkyvillä.

 
Hardware unboxedin videolla oikeastaan parempia graafeja kun myös fps näkyvillä.

Hankala keskustella pitkästä videosta.Ehkä ruutukaapausta ja kommentit niin voi syntyä keskustelua? Ainakin artikkelin graafeista syntyy kuva, että lagi ei ole ongelma, kun reflex+dlss3 lagi on pienempi kuin natiivissa lagi. Oliko HUB:lla amd lagia peleissä mitattu?

Jos kyse on jostain 30fps - 60fps interpoloinnista niin siinä lagi varmasti on ongelma ja tuohon tuskin on dlss3:sta tarkoitettu. Parempi olisi pudottaa asetuksia niin, että saa ainakin 60fps tai mieluummin 120fps ja sit dlss3:lla tuplata 120fps tai 240fps:aan.

Jos kyse oli kilpapeleistä niin niissä dlss tai 4k tuskin on juttu. DLSS3 on juttu sit kun cpu ei pysy enää mukana ja kuitenkin haluaisi fps:aa ylöspäin.

Kunhan noita 40x0 kortteja on porukalla enempi niin olisi kiva tehdä polli kortin omistajille, että onko dlss3 paska, toisinaan jees tai ehkä aina jees.
 
Kyllä DLSS 3 kuvanlaatu on epätassaisempi kuin DLSS 2 vaikkakin tuottaa suuremmam ruudunpäivityksen heikomalla kuvanlaadulla (epävakaa) ja heikomalla latensilla jolloin ollaan menty taaksepäin pelikokemuksessa ainakin omasta mielestä
 
Hankala keskustella pitkästä videosta.Ehkä ruutukaapausta ja kommentit niin voi syntyä keskustelua? Ainakin artikkelin graafeista syntyy kuva, että lagi ei ole ongelma, kun reflex+dlss3 lagi on pienempi kuin natiivissa lagi. Oliko HUB:lla amd lagia peleissä mitattu?

Jos kyse on jostain 30fps - 60fps interpoloinnista niin siinä lagi varmasti on ongelma ja tuohon tuskin on dlss3:sta tarkoitettu. Parempi olisi pudottaa asetuksia niin, että saa ainakin 60fps tai mieluummin 120fps ja sit dlss3:lla tuplata 120fps tai 240fps:aan.

Jos kyse oli kilpapeleistä niin niissä dlss tai 4k tuskin on juttu. DLSS3 on juttu sit kun cpu ei pysy enää mukana ja kuitenkin haluaisi fps:aa ylöspäin.

Kunhan noita 40x0 kortteja on porukalla enempi niin olisi kiva tehdä polli kortin omistajille, että onko dlss3 paska, toisinaan jees tai ehkä aina jees.

Tuossa Hardware Unboxedin videolla jutusteli, että suurin ongelma tuossa framejen luonnissa on alhaisilla taajuuksilla, ja lähtötaajuus DLSS2 päällä pitäisi olla 100-120 FPS luokkaa. Muutoin kuvaan tulevat artefaktit näkyvät liian selkeästi, tämä korostuu jos DLSS + framegenillä päästään vain jonnekin 60 FPS:ään (ja tämä ongelma korostunee edullisemman pään 400 sarjan korteilla). Lisäksi käyttöliittymäelementeissä ongelmat ovat vielä selkeämmät riippumatta FPS:stä ja esiintyy jo hitaissakin liikkeissä (esimerkkinä oli käytetty MSFS 2020). Ja muutenkin osittain kyseenalaisti framegenin hyödyn, koska yleensä korkeampaa FPS:ää haetaan nimenomaan paremman latenssin takia, jota framegen ei tuo lisää. Ainoaksi hyödyksi mainitsi että, jos omistaa 240Hz näytön tms ja haluaa saada FPS:t sinne tasolle, mutta lisä FPS.stä ei ole hyötyä jos ne menee näytön virkistystaajuuden yli (koska lisä fps:t framegenin avulla ei paranna latenssia).

Tuon videon perusteella vaikuttaa aika meh ominaisuudelta ainakin tässä vaiheessa. Näkee sitten saavatko miten ongelmia korjattua.
 

Statistiikka

Viestiketjuista
262 412
Viestejä
4 555 553
Jäsenet
74 964
Uusin jäsen
LinogeFly

Hinta.fi

Back
Ylös Bottom