Jep. Onnistunut ( vai epäonnistunut? ) markkinointi on aiheuttanut sen, että media ja käyttäjät vertaavat DLSS:n 2560x1440 renderöintiresoluutiota 4K renderöintiresoluutioon. Sitä pitäisi verrata perinteisesti skaalattuun resoluutioon jolla saavutetaan sama ruudunpäivitysnopeus.
Erinäisiä interlacing eli lomitustekniikoita (joka ei tietty ole ihan sama asia, mutta voidaan ehkä pitää upscalingin esi-isänä) on käytetty ihan 80-luvulta asti että saataisiin luotua se kuvitelma että näytöllä on enemmän tavaraa mitä rauta muuten antaisi puskea. Samoin myös telkkarilähetyksissä, jolloin pullonkaulana oli telkkarilähetysten kaistanleveys.
PS2:lla usea esim. Namcon peli käytti sisäistä vertical line doublingia jotta ruudunpäivitysnopeutta saataisiin ylös. CRT-tekniikka ja ylipäätään alhainen resoluutio pystyi osittain peittämään sen tuottamia artifakteja. Sitten kun LCD:t yleistyivät, niin nämä samat pelit näyttivät blurratuilta ja yksityiskohdat jäivät (myös osittain varhaisten LCD-telkkujen kuvasta johtuen) piiloon. Vaihtoehtona oli tietty se, että peli renderöitäisiin ns. "kunnolla", jolloin sä jouduit devaajana joko alentamaan resoluutiota huomattavasti, pyörittämään pelejä alhaisemmalla ruudunpäivitysnopeudella, tai poistamaan erinäisiä graafisia efektejä ja yksikertaistamaan sitä grafiikkaa mitä ruudulle pusketaan. Useat devit päättivät kuitenkin toisin, ja esim. Gran Turismo 4 pystyi pyörimään 1080i resolla ja oli sen sukupolven näyttävimpiä pelejä.
Vertical line doubling kehittyi lopulta checkerboardingiksi kun taas lomitettu kuva vaipui aika pitkälti unholaan ihan teknisistä syistä. Sonyhan asensi PS4 Prohon customrautaa nopeuttamaan checkerboardingia jotta laitetta voitaisiin markkinoida 4K-valmiina. Siitä toki voidaan keskustella onko tämä oikein vai ei, mutta pääsääntöisesti "4K:ksi" checkerboardattu kuva on paremman näköistä kuin esim. 1080p:llä renderöiti ja TV:n/näytön skaalaimeen luottaminen. Pidän tätä siksi positiivisena kehityksenä.
Yleisenä huomiona joka ei kohdistu lainaajaan, vaan foorumilla esiintyvään keskustelukulttuuriin:
Ei nää oo mitään uusia juttuja, paitsi ehkä PC-puolella jossa on totuttu pelaamaan natiiviresolla, tai alentamaan resoa tarpeen tullen jos rauta ei pysy mukana ja luottamaan kortin tai näytön omaan upscalingiin. Kylmä suihku tulee olemaan edessä niille jotka ovat siinä uskossa, että erinäiset upscaling ja rekonstruktiotekniikat ovat vain trendi joka pian katoaa. Aika usein täällä näkyy sellaista porukkaa jotka kerran jonkin tekniikan dumattuaan eivät pysty kehittämään mielipidettään uuden tiedon valossa, vaan jatkavat sitä dumaamista hamaan tulevaisuuteen, samalla tavalla kuten Britannian luddiitit, jotka vastustivat kiivaasti teollista vallankumousta, koska koko elämä oli vietetty yksinkertaisempien valmistekniikoiden parissa.
Jep. Onnistunut ( vai epäonnistunut? ) markkinointi on aiheuttanut sen, että media ja käyttäjät vertaavat DLSS:n 2560x1440 renderöintiresoluutiota 4K renderöintiresoluutioon. Sitä pitäisi verrata perinteisesti skaalattuun resoluutioon jolla saavutetaan sama ruudunpäivitysnopeus.
Tämä vääristymä taas johtuu tuosta tavasta, miten tämä on tuotu peleihin ja miten sitä markkinoidaan.
Jos DLSS olisikin valikoissa nimensä ja toimintansakin mukaisesti AA metodi, joka lätkäistäisiin valitun reson päälle "kiinteällä kertoimella", joka riippuu valitusta laatuasetuksesta, olisi ihan eri lähtökohta. Ei kukaan varmaan nillittäisi, että esim 2560*1440 plus DLSS Qualityllä on huonompi kun natiivi 4k ilman TAA:ta.
Vai olisiko syytä opetella oikeasti optimoimaan, eikä vetää vaan "Se vissiin toimii -> Tuotantoon!" metodilla? Optimointi on jostain syystä aika kuollut taiteenlaji ja jos se paskoodi ei pyöri, niin syy on aina liian paskassa raudassa eikä kädettömissä koodareissa.
Vai olisiko syytä opetella oikeasti optimoimaan, eikä vetää vaan "Se vissiin toimii -> Tuotantoon!" metodilla? Optimointi on jostain syystä aika kuollut taiteenlaji ja jos se paskoodi ei pyöri, niin syy on aina liian paskassa raudassa eikä kädettömissä koodareissa.
Vai olisiko syytä opetella oikeasti optimoimaan, eikä vetää vaan "Se vissiin toimii -> Tuotantoon!" metodilla? Optimointi on jostain syystä aika kuollut taiteenlaji ja jos se paskoodi ei pyöri, niin syy on aina liian paskassa raudassa eikä kädettömissä koodareissa.
Tottakai sä voit optimoida mitä vaan. Heijastukset voidaan hoitaa säteenseurannan sijaan cube mapeilla tai screen space toteutuksena, mutta niissä on huomattavat haittapuolet. Heijastusten resoluutiota voidaan alentaa, mutta ne eivät silloin näytä yhtä hyviltä.
Esimerkkinä. Gran Turismo 1 saatiin pyörimään erittäin vakaasti 30fps (vakaa 30fps oli PS1-aikana poikkeus eikä mikään sääntö) rajoittamalla piirtoetäisyyttä ja käyttämään hyvin aggressiivisia LOD-tasoja. Pelissa panostettiin paljon omassa autossa näkyviin heijastuksiin ja fysiikkamallinnukseen, joka oli PS1:n rauta huomioonottaen erittäin vakuuttavasti toteutettu. Ei se ilmaiseksi tullut, vaan jostain piti karsia. Sen takia ainoastaan oma auto näyttää jokseenkin hyvältä kun taas AI-autot on heti 5 metrin etäisyydellä kuin legoista rakennettu (LOD-tasoista johtuen), ja ratojen piirtoetäisyydet olivat aika pieniä.
Vähän kun sanois että turha tässä on schumille kehittää nopeampaa autoa, ajais vaan nopeammin.
Tottakai sä voit optimoida mitä vaan. Heijastukset voidaan hoitaa säteenseurannan sijaan cube mapeilla tai screen space toteutuksena, mutta niissä on huomattavat haittapuolet. Heijastusten resoluutiota voidaan alentaa, mutta ne eivät silloin näytä yhtä hyviltä.
Esimerkkinä. Gran Turismo 1 saatiin pyörimään erittäin vakaasti 30fps (vakaa 30fps oli PS1-aikana poikkeus eikä mikään sääntö) rajoittamalla piirtoetäisyyttä ja käyttämään hyvin aggressiivisia LOD-tasoja. Pelissa panostettiin paljon omassa autossa näkyviin heijastuksiin ja fysiikkamallinnukseen, joka oli PS1:n rauta huomioonottaen erittäin vakuuttavasti toteutettu. Ei se ilmaiseksi tullut, vaan jostain piti karsia. Sen takia ainoastaan oma auto näyttää jokseenkin hyvältä kun taas AI-autot on heti 5 metrin etäisyydellä kuin legoista rakennettu (LOD-tasoista johtuen), ja ratojen piirtoetäisyydet olivat aika pieniä.
Vähän kun sanois että turha tässä on schumille kehittää nopeampaa autoa, ajais vaan nopeammin.
Älä viitsi. Et voi vakavalla naamalla väittää etteikö osa ns. hittipeleistäkin olisi paskasti optimoitu. Ja AMD on käsittääkseni itse sanonut, että sen käyttämä tapa RT:lle vaatii hiukan erilaista lähestymistapaa kuin nVidian, että siitä saa kaiken ulos.
Älä viitsi. Et voi vakavalla naamalla väittää etteikö osa ns. hittipeleistäkin olisi paskasti optimoitu. Ja AMD on käsittääkseni itse sanonut, että sen käyttämä tapa RT:lle vaatii hiukan erilaista lähestymistapaa kuin nVidian, että siitä saa kaiken ulos.
Ihme vänkäämistä. Kerro nyt mistä kenkä puristaa, mitkä pelit ovat paskasti optimoituja ja mitä niille pitäisi tehdä että ne pyörisivät paremmin? Pelejä voidaan täydellisessä maailmassa optimoida miten paljon tahansa mutta kaikella on hintansa.
Mitä tulee AMD:n RT-suorituskykyyn niin paras tapa optimoida suorituskykyä sille on yksinkertaisesti alentaa säteiden määrää. Resident Evil Villagen RT-heijastukset on aika mössöä juuri tästä syystä. Varjojen suhteen pelissä on onnistuttu huomattavasti paremmin koska niissä pystyy suht yksinkertaisilla menetelmillä saamaan alhaisella säteiden määrällä hyviä tuloksia.
Aina löytyy kohtia joissa DLSS Quality on huonompi kuin natiivi 4K, mutta usein löytyy myös kohtia joissa DLSS Quality on parempi. Yleensä tämä johtuu siitä, että pelin oma TAA-implementaatio ei ole ihan parasta A-luokkaa, ja DLSS yleensä korvaa tuon TAA:n.
Muutama esimerkki hyvistä DLSS-implementaatioista: Metro Exodus Enhanced Edition, Cyberpunk 2077, Control, Mechwarrior 5 Mercenaries ja Watch Dogs Legion.
Kyllä, tämä allekirjoitan, TAA on kaukana täydellisestä myöskään RDR2. MSAA taas 4x tai 8x tulee melkoisella suorituskyky penaltilla. Pitää testata ainakin Metro Exodusta ja CB2077 kun saa vanhat pelit läpi, ja saan lisää omakohtaista otantaa DLSS:n osalta. Toki mulla ei ole 4k vaan QHD-näyttö, ja en tiedä saako suuremmat hyödyt DLSS:llä 4k:na kuin QHD:na..
Tästä syystä tuo RDR2 DLSS oli minusta vähän floppi. Toisaalta pitää huomioida, että Nvidia korvasi DLSS:llä sekä TAA:n että kai jossain määrin myös MSAA:n? Tuo multisamplaaminen on helvetin raskasta lähes pelissä kuin pelissä, ja ehkä sen korvaaminen söi DLSS:ltä mehuja. Tämä ei faktaa vaan omaa pyörittelyäni. Korjata saa.
Aika harva itse DLSS:stä kokonaisuutena mitään hernettä vetää nenään, kyllä tuo on hyvä lisä kokonaisuutena. Sitä ihmettelen kun joku väittää tuota tosissaan natiivia paremmaksi kuvanlaadussa. Jossain kohtaa se voi ollakkin, kokonaisuutena tuskin koskaan, eikä se ole kohtuullinen vaatimuskaan, kun tuolla ''oikomisella'' saadaan lisää FPS:ää, joka on iso osa koko DLSS:ää. Ideaalitilanteessa kaikki vetäisi natiivina 4k asetukset tapissa 200fps kaikkia pelejä, mutta kun se ei ole mahdollista, niin voi kokeilla DLSS:ää, etenkin niissä säteenseuranta-peleissä.
Mitä tulee AMD:n RT-suorituskykyyn niin paras tapa optimoida suorituskykyä sille on yksinkertaisesti alentaa säteiden määrää. Resident Evil Villagen RT-heijastukset on aika mössöä juuri tästä syystä. Varjojen suhteen pelissä on onnistuttu huomattavasti paremmin koska niissä pystyy suht yksinkertaisilla menetelmillä saamaan alhaisella säteiden määrällä hyviä tuloksia.
6900xt is faster than the 3090 with only 1 bounce.
6900xt is faster when intersecting procedural geometry (scene 1 and 2).
3090 is faster with more bounces but not fast enough to make up for deficit on procedural geometry
3090 is faster when intersecting triangle geometry but still loses by a significant margin with only 1 bounce (scene 4 and 5)
Speculation based on these results:
6900xt has much more raw ray casting throughput but can only achieve it for highly coherent primary rays (1 bounce)
6900xt performance drops precipitously after 1 bounce indicating SIMD efficiency loss due to ray divergence
6900xt is much faster at tracing procedural geometry because everything is done on the shaders (traversal and intersection) and there's no need to exchange data with the ray accelerator
3090 is much faster with multiple bounces due to better handling of divergent / incoherent rays by the MIMD RT core
3090 is much slower at intersecting procedural geometry because it has to hand off to the shader core to run the intersection and the architecture is not optimized for this
3090 is happiest when it can leverage the RT core to intersect triangle geometry
The 3090's strengths are more in line with practical use cases which explains why it comes out ahead in actual games (triangle based geometry, incoherent rays)
Toistaiseksi on vaikuttanut, että AMD:lle "optimointi" tarkoittaa minimalistista tai rampautettua RT-toteutusta. Esimerkiksi RE8:n surkean resoluution heijastukset ja yletön kohina, Godfallin kieltämättä huvittava screen-space toteutus tai Dirt 5 jossa käsittääkseni ainoa RT-efekti on varjot. Löytyykö jotain peliä, jossa on "kunnollinen" RT-toteutus, jossa AMD on kilpailukykyinen suorituskyvyssä ihan vain hyvän optimoinnin ansiosta?
@knz0, optimointi ei välttämättä tarkoita grafiikoiden huonontamista. Koodia voi kirjoittaa paremmin tai huonommin saavuttaakseen saman lopputuloksen visuaalisesti.
@Lacsative DLSS:n versiota voi päivittää vanhempiin peleihin kopioimalla niihin DLL-tiedoston uudemmasta pelistä. Kirjastokokoelma löytyy vaikkapa Techpowerupilta.
@Lacsative DLSS:n versiota voi päivittää vanhempiin peleihin kopioimalla niihin DLL-tiedoston uudemmasta pelistä. Kirjastokokoelma löytyy vaikkapa Techpowerupilta.
@knz0, optimointi ei välttämättä tarkoita grafiikoiden huonontamista. Koodia voi kirjoittaa paremmin tai huonommin saavuttaakseen saman lopputuloksen visuaalisesti.
Ei tietenkään, mutta yleisesti ottaen ne työkalut ja kirjastot joilla luodaan pelikenttien valaistukset ja muut efektit on hyvin pitkälle optimoitu. Se ei toki tarkoita sitä etteikö siellä olisi ns. löysää, mutta huomattavasti helpompi tapa optimoida peli tietylle target FPS:lle on yksinkertaisesti leikata graafisesta budjetista, eli vähentää esim. heijastusten resoluutiota, säteiden pomppuja, polygonien määrää, tekstuurien kokoja, mitä muuta ikinä keksiikään.
DLSS Quality onnistuu usein parantamaan kuvan temporaalista vakautta, eli toisinsanoen vähentämään näitä moire-, shimmering- ja muita artifakteja paremmin kuin pelien omat TAA-implementaatiot. Se ei tarkoita sitä, etteikö DLSS Quality olisi virheetön, tai että se olisi tasalaatuinen pelistä riippumatta. Nää häntimisongelmat (joihin täällä tykätään keskittyä) on yksi niistä virheistä mitä oikeastaan esiintyy joka pelissä enemmän tai vähemmän. Sitä on parannettu uusimmilla .dll versioilla, mutta sitä esiintyy silti pienissä määrin oikeastaan joka pelissä mitä olen testannut.
Aika moni tuntuu olevan siinä käsityksessä että natiivi olisi virheetön virstanpylväs, mutta se aika kaukana totuudesta. Mitään virheetöntä kuvaa ei oikeastaan ole olemassa. Moderneissa peleissä on lähes pakko käyttää jonkin sortin TAA:ta, ellei sitten halua katsoa shimmeröivää kuvaa joka on täynnä sahalaitoja. Ne eri pelien TAA-implementaatiot vaihtelevat laadullisesti aika roimasti.
Se on ihan itsestä kiinni mitä haluaa käyttää ja mihin sitä kiinnittää huomiota pelatessaan, ja tämä tuntuu olevan usealle foorumilaiselle aivan mahdoton käsite. Itse pelaan mieluummin Metroa ja Chernobylitea DLSS Quality päällä kuin natiivi 1440p:llä, koska mielestäni sen tuomat kuvalliset hyödyt ovat minulle tärkeämpiä kuin natiivin tuomat hyödyt, ja tämä on siis ilman että DLSS Qualityn FPS-hyödyt otetaan huomioon. Cyberpunk menee mulla ainakin aika pitkälti 50/50, pelasin sen ite läpi DLSS Qualitylla koska peli oli sen verran raskas, eli tässä pelissä mielestäni natiivi näyttää paremmalta, mutta ero on sen verran pieni että otan mieluummin sen 15-20 extra FPS:ää. RDR2:sta en ole pelannut kuin PS4:llä, joten siitä en osaa sanoa yhtään mitään.
Warzonea taas pelaan lähes minimigraffoilla ja natiiviresolla ilman DLSS:ää koska nettiräiskinnässä mulle on tärkeämpää se että näen vihun mahdollisimman nopeasti ja että FPS on mahdollisimman korkea. Siellä ei ole aikaa kiinnittää huomiota sähkökaapeleihin tai muihin juttuihin. Lisäksi DLSS:ssä on pieni CPU-overhead, jonka vuoksi FPS on alhaisempi kun graffat on vedetty lähes minimiin ja peli on muutenkin CPU bottleneckattu.
DLSS Quality onnistuu usein parantamaan kuvan temporaalista vakautta, eli toisinsanoen vähentämään näitä moire-, shimmering- ja muita artifakteja paremmin kuin pelien omat TAA-implementaatiot.
Harmi vaan että DLSS itsessään tuottaa myös moire ja shimmering -efektejä, eli ei se tässä taida olla yhtään natiivia parempi. Mutta nämä olisin erityisen vaativissa peleissä valmis antamaan ehkä anteeksi, jos FPS-boosti vaan on niin merkittävä, että se nostaa pelikokemusta vs grafiikka-asetusten radikaalimpi lasku.
DLSS Quality onnistuu usein parantamaan kuvan temporaalista vakautta, eli toisinsanoen vähentämään näitä moire-, shimmering- ja muita artifakteja paremmin kuin pelien omat TAA-implementaatiot. Se ei tarkoita sitä, etteikö DLSS Quality olisi virheetön, tai että se olisi tasalaatuinen pelistä riippumatta. Nää häntimisongelmat (joihin täällä tykätään keskittyä) on yksi niistä virheistä mitä oikeastaan esiintyy joka pelissä enemmän tai vähemmän. Sitä on parannettu uusimmilla .dll versioilla, mutta sitä esiintyy silti pienissä määrin oikeastaan joka pelissä mitä olen testannut.
Joo kukin tyylillään. Minä en missään nimessä kytke DLSS päälle jos FPS vaan riittää pelissä korkeilla grafiikka-asetuksilla. Tuo häntiminen on yksi jonka vuoksi mm. Warzonessa DLSS on aika käyttökelvoton. Ja samoin ihan yksinpeleissäkin se ghostaaminen ärsyttää, jos peli vaatii enemmän kuvan liikuttelua. Hitaammassa liikuttelussa tuo ei onneksi ärsytä.
Aika moni tuntuu olevan siinä käsityksessä että natiivi olisi virheetön virstanpylväs, mutta se aika kaukana totuudesta. Mitään virheetöntä kuvaa ei oikeastaan ole olemassa.
Ei olekkaan, ja huonojen antialiasing-toteutusten korvaaminen DLSS:llä voisi olla joissain tapauksissa toimiva ratkaisu. TAA:ssa on omat ongelmansa. MSAA on monissa peleissä melko toimiva, mutta vaatii todella paljon suorituskykyä. DLSS korvasi RDR2 (vai korvasiko teknisesti ottaen täysin en tiedä) TAA ja MSAA hyvin, ja onnistui sentään vähän tuomaan lisää suorituskykyä.
Kyllä DLSS on plusmerkkinen ominaisuus ja siinä potentiaalia on, mutta näen sen silti toistaiseksi pelaajan käyttötarkoituksen näkökulmasta ''FPS boosterina'' kuin kuvanlaadun parantajana. Katsotaan muuttuuko mielipide, kun saan lisää pelejä alle. Perusongelmat taitaa olla pelistä riippumatta aika samat.
Itseä FSR kiinnosti lähinnä mahdollisesti nykyisiä yksinkertaisia skaalaimia (Lanczos, Spline, yms) parempana vaihtoehtona videoskaalaukseen.
Vaikka FSR pohjautuu Lanczosiin, jostain syystä sen laatu ei puhtaassa videokäytössä pärjää puhtaalle Lanczosille.
Spline64 on kilpailukykyinen Lanczosin kanssa ylösskaalatessa ja hieman vähemmän artifakteja tuottava alasskaalatessa.
Lanczos oli omaan silmään jokaisessa sokkona testatussa testiskenaariossa parhain, joskin ero TR kohdalla FSR:n oli mitätön.
FSR tuntuu jostain syystä hukkaavan eniten yksityiskohtia, esim. parrassa, ihohuokosissa tai tekstiilien tekstuurissa.
Erot on täysin marginaalisia jokaisen skaalaimen kohdalla, mutta harjaantuneella silmällä ja hyvällä, kalibroidulla näytöllä ne näkee kyllä.
Tuossa linkki zippiin, jossa vertailukuvat: FSR_Video.zip
Käytetyt skaalaimet (A/B/C):
DK_A = FSR
DK_B = Lanczos
DK_C = Spline64
FOW_A = Lanczos
FOW_B = Spline64
FOW_C = FSR
LK_A = Spline64
LK_B = FSR
LK_C = Lanczos
TR_A = FSR
TR_B = Spline64
TR_C = Lanczos
Lähdemateriaali on DK_ lukuunottamatta (420P10 HEVC) 420P AVC:ta.
Lanczos ja Spline64 on ZIMG-kirjastosta käyttäen FFMpeg:ä, samoin mahdollinen kroppaus ja lähdefreimien purku, käyttäen RGB24 PNG:tä väliformaattina.
FSR on suoraan tuosta AMD:n omasta FidelityFX_CLI samplestä, ajettuna vakioasetuksilla.
Aika moni tuntuu olevan siinä käsityksessä että natiivi olisi virheetön virstanpylväs, mutta se aika kaukana totuudesta. Mitään virheetöntä kuvaa ei oikeastaan ole olemassa. Moderneissa peleissä on lähes pakko käyttää jonkin sortin TAA:ta, ellei sitten halua katsoa shimmeröivää kuvaa joka on täynnä sahalaitoja. Ne eri pelien TAA-implementaatiot vaihtelevat laadullisesti aika roimasti.
En minä väitä sen olevan virheetön. Minä väitän, että natiivi on pelintekijoiden näkemys siitä miltä sen pitää näyttää. Jos sitä näkemystä muutetaan vaikka dlss:n avulla ja väitetään sen parantavan laatua niin meno on samaa luokkaa kuin maalaisit Mona Lisan osoittain uusiksi ja väittäisit olevasi parempi maalari kuin Leonardo da Vinci.
En minä väitä sen olevan virheetön. Minä väitän, että natiivi on pelintekijoiden näkemys siitä miltä sen pitää näyttää. Jos sitä näkemystä muutetaan vaikka dlss:n avulla ja väitetään sen parantavan laatua niin meno on samaa luokkaa kuin maalaisit Mona Lisan osoittain uusiksi ja väittäisit olevasi parempi maalari kuin Leonardo da Vinci.
Entä peli kuten cp2077, jossa ei ole natiivia asetuksissa mukana ja taa tai dlss on oletuksena päällä riippuen gpu:sta? Metro enhanced edition niin dlss on myös päällä oletuksena. Natiivista en tiedä metron tapauksessa onko tarjolla. cp2077:ssa saa natiivikuvan TAA/DLSS:N tilalle, jos editoi tekstitiedostoa käsin. Shimmeröi todella pahasti natiivi siinä, eli suunniteltu taa/dlss:aa käyttäväksi.
UE5 enginen esiversioissa on natiivi olemassa, mutta oletuksena päällä TSR joka on edistyneempi versio TAA:sta ja kilpailee vähintäänkin tasaväkisesti dlss:n kanssa. Maailma on menossa suuntaan missä triple a peleissä temporaaliset algoritmit ovat se kompromissi mitä tarjotaan oletuksena. Jos on riittävän highend kortti tai ei välitä fps:sta niin voi yrittää pärjätä ilman TAA/TSR/DLSS algoritmeja. Tuo on ihan järkevää, kun miettii miten saadaan paras kompromissi aikaiseksi. Riittävä fps on osa kompromissia ihan samalla tavalla kuin riittävä kuvanlaatu.
PC-pelaamisen suola on, että itse voi valita kompromissin. Jos ei halua temporaalista skaalausta niin fps:aa/resoluutiot laskemalla tai lompakkoa enemmän avaamalla löytyy vaihtoehtoja.
En minä väitä sen olevan virheetön. Minä väitän, että natiivi on pelintekijoiden näkemys siitä miltä sen pitää näyttää. Jos sitä näkemystä muutetaan vaikka dlss:n avulla ja väitetään sen parantavan laatua niin meno on samaa luokkaa kuin maalaisit Mona Lisan osoittain uusiksi ja väittäisit olevasi parempi maalari kuin Leonardo da Vinci.
Oletko koskaan modannut minkään pelin grafiikoita paremmiksi? Onko Mona Lisa silloin pilalla? Mitä jos pelistä puuttuu anistropinen filtteröinti tai reunanpehmennys; oletko ehkä joskus laittanut näytönohjaimen ohjauspaneelista niitä päälle? Kuuluuko sahalaitoja katsoa, jos ne on pelissä sellaisenaan vai voisiko niille kuitenkin yrittää tehdä jotain? Kuuluuko peli pelata 20-30fps kuten se pyörii konsoleilla, vaikka PC:llä irtoaisi enemmän? Onhan se nyt pelintekijän alkuperäinen näkemys, jos PC-portin on tehnyt joku alihankkija.
On turha kuvitella, että näemme ruudullamme sen mitä pelintekijä on nähnyt omallaan, kun emme edes tiedä millä näytöillä ja millaisilla kalibroinneilla ( jos on edes kalibroitu ) erinäiset taiteen tekemiseen osallistuneet ovat osuutensa tehneet.
En minä väitä sen olevan virheetön. Minä väitän, että natiivi on pelintekijoiden näkemys siitä miltä sen pitää näyttää. Jos sitä näkemystä muutetaan vaikka dlss:n avulla ja väitetään sen parantavan laatua niin meno on samaa luokkaa kuin maalaisit Mona Lisan osoittain uusiksi ja väittäisit olevasi parempi maalari kuin Leonardo da Vinci.
emme edes tiedä millä näytöillä ja millaisilla kalibroinneilla ( jos on edes kalibroitu ) erinäiset taiteen tekemiseen osallistuneet ovat osuutensa tehneet.
Konsoleilla väriavaruudet on erittäin hyvin standardoitu, eikä pc:lläkään metsään mene sRGB/gamma2.2 näytön kanssa. Joku taiteellinen johtaja on sen lopputuloksen hyväksynyt, et miltä ne värit konsolilla näyttää. HDR on vähän hankalempi juttu vielä valitettavasti. Yksittäiset artistit harvoin näkevät että miltä joku niiden tekstuuri näyttää itse pelissä, siihen kun vaikuttaa sata asiaa, eikä siksi niiden kalibrointiasetusten toistamisessa ole järkeä.
Noissakin kahdessa on massiivinen ero tumman pään toistossa. Kumpi on oikein ja mistä tiedät?
Sekin, että joku näyttö väittää asetuksissaan että käytössä on sRGB tai gamma 2.2 ei tarkoita että se käytännössä toteutuisi, emmekä me tiedä, onko näyttöjä kalibroitu. Jos onkin, niin onko ne PC-maailman sRGB:lle? sRGB:lle, jota hädin tuskin mikään nykyaikainen kuluttajanäyttö edes enää noudattaa, eikä taatusti yksikään telkkari. Vai onko ehkä nykyisissä kuluttajanäytöissä yleisemmälle 2.2 gammalle, tai kenties 2.4 gammalle, jota nykyään lähes kaikki telkkarit vakioltaan toistavat?
Osassa peleistä juu. On kyllä hyvä kysymys että miksi studiot päästävät niin erilaiset kuvat markkinoille. Tiedä sitten että onko haaleampi kuva xboxilla tarkoituksellinen valinta vai ei.
Konsolit/telkkarit noudattaa rec.709 speksiä ihan nätisti. Ei kannata sRGB:tä alkaa sinne sotkemaan.
Gamma taas valitaan vallitsevan tilan valoisuuden mukaan. Pimeään huoneeseen 2.4 tai jopa 2.6, valoisaan tilaan jotain väliltä 1.8 ja 2.2. Kunnon kalibroija laittaa nuokin kyllä kohdalleen.
Emme tiedä missä valaistuksessa, millä näyttölaitteella ja millä gammalla tuo taiteellinen johtaja on arvionsa tehnyt ja hyväksyntänsä antanut. Tuo alkuperäisen eksakti toistaminen on tavoittamattomissa oleva graalin malja niin näyttö/TV-maailmassa kuin audiopuolellakin. En edes allekirjoita, että se olisi välttämättä haluttavaa. Olisi paljon käytännönläheisempää hakea toistoa, joka miellyttää itseään. Jos DLSS miellyttää niin käytä, jos ei niin jätä käyttämättä. Peligrafiikat nyt muutenkin on aina teknisistä syistä kompromisseja. Mistä sen tietää, millaista olisivat halunneet loihtia ruudulle alkuperäisessä näkemyksessään, mutta näkemyksestä täytyi tinkiä. Vaikea kutsua kaikkien portaiden jälkeen lopputulosta tinkimättömäksi taiteeksi, kun se on lähinnä monen osatekijän tuote.
Vaan eksaktius on aika turhaa, kun riittää jos virheet toistossa on alle 2 deltan.
Koko graafinen ala pyörii sen ajatuksen ympärillä, että laitteita on mahdollista kalibroida riittävän tarkasti jotta esim. tulosteet kahdesta eri paikasta tuottaa sekä samat värit, että kyseiset värit vastaavat graafikon näytöllä olevaa kuvaa sillä tarkkuudella jolla kyseinen graafikko ei niitä kykene toisistaan erottamaan. Tuota eksaktimpi toisto on yksinkertaisesti turhaa, niin kauan kun sisältöä kuluttaa ihminen eikä kone.
Äänien kanssa homma on _huomattavasti_ hankalampaa, etenkin jos puhutaan kaiutinjärjestelmistä.
Mistä sen tietää, millaista olisivat halunneet loihtia ruudulle alkuperäisessä näkemyksessään, mutta näkemyksestä täytyi tinkiä. Vaikea kutsua kaikkien portaiden jälkeen lopputulosta tinkimättömäksi taiteeksi, kun se on lähinnä monen osatekijän tuote.
Mistä senkin tietää että halusko davinci monalisaa maalatessaan käyttää 3d hologrammiteknologiaa öljyvärien sijaan? Onko asialla mitään merkitystä syntyneestä taiteesta nautittaessa?
Oletko itse kalibroinut laitteita minkä verran? Siis ihan käsipelillä eikä automaattisella softalla. Saan nimittäin helposti kaksi näyttölaitetta näyttämään merkittävästi erilaiselta vaikka ΔE CIE76 olisi molemmissa alle kahden. Etenkin tummaa päätä lähestyen harmaasävyissä, jossa ΔE CIE76 on aivan liian anteeksiantavainen.
Esimerkiksi taannoisessa Acer XB271HU:ssani punainen veti ihan silminnähden oranssia kohti, joka häiritsi niin paljon että vaihdoin sen pois, mutta ΔE oli CIE76-kaavalla ilman absoluuttisten kirkkaustasojen laskentaa alle 2. Eli siis kalibrointisoftan ja -laitteen mukaan sävyvirhe referenssistä ei olisi pitänyt olla ihmissilmän havaittavissa. Oli ja pahasti. Silloinen Sony W705-telkkarini toisti sävyn huomattavasti erilailla, ja oikellisemmin. Eron näki selvästi, vaikka molemmat ΔE <2.
Ymmärrän hyvin, mitä graafisen alan standardeilla haetaan, mutta emme tiedä, noudatetaanko noita standardeja pelialalla kuinka tarkasti, mitä standardia tarkalleen on käytetty, mitä parametreja on käytetty silloin kun standardista niiden määritys puuttuu, ja onko käytetty näyttölaite edes kyennyt toistamaan standardeja riittävällä tarkkuudella. Ainoastaan OLED kykenee aitoon absoluuttiseen Power Law gammaan, muilla toisto heittää väkisinkin kun mustan lähtötaso on kohotettu ja gamma sovitetaan niin, että se mukautuu kohonneeseen mustan tasoon. Jos tyypillisen IPS-näytön tai telkkarin kalibroi 2.2 gammalle mustan tason kompensoinnilla, niin absoluuttisessa mittauksessa sen DE:t huitelee stratosfääreissä. Se ei yksinkertaisesti pysty näyttämään riittävän tummia ja saturoituneita värejä. Eli pelkästään kahden eri paneelityypin välillä absoluuttiset ΔE:t on väkisinkin roimasti yli kahden toisiinsa nähden. Siihen päälle vielä metameriavirheet, joiden ansiosta sama mittaustulos näyttää kahdella eri paneelityypin näytöllä merkittävästi erilaiselta paljaaseen silmään, niin alkuperäisen näkemyksen tavoittelun voi käytännössä unohtaa. REC709 ja 2.2 gammalla pääsenee "sinnepäin", ja kalibrointi voi silti hyödyttää esimerkiksi väriliukumien siivoamisena ja värintoiston yhtenäistämisenä. Näyttöjen kalibrointikaan ei ole valitettavasti niin eksakti tiede, että voitaisiin taata sama kuva kaikille.
Saan nimittäin helposti kaksi näyttölaitetta näyttämään merkittävästi erilaiselta vaikka ΔE CIE76 olisi molemmissa alle kahden. Etenkin tummaa päätä lähestyen harmaasävyissä, jossa ΔE CIE76 on aivan liian anteeksiantavainen.
Millä patchisetillä oot kattonu että deltaE:t on alle kahden? Siis noissa tilanteissa joissa olet mielestäsi kalibroinu näytöt alle 2deltaE erolle. Tummilla sävyillä on omat ongelmansa jos näyttöpäätteet on tumman pään toistoltaan haastavia ja vertailu tehdään pimeässä tilassa.
Nykyään taidetaan suosia lähinnä tuota CIEDE2000 deltaE kaavaa, jolla erityisesti saturoitujen tummien sävyjen ongelma on pitkälti hallinnassa ja <2 deltaE on aika hyvä tulos.
Kyllä voidaan, kunhan näyttölaitteet on riittävän korkealaatuiset. Heikkotasoisellakin näyttölaitteella saadaan tyypillisesti merkittävä osa sävyistä kalibroitua oikein hyvin.
Jonkin verran. Aika vaikeaa tuo tuppaa olemaan ja kontrolleja ei ole yleensä riittävästi. Paljon helpompaa on ostaa näyttölaitteita jotka tukevat rautatason kalibrointia ja osaavat hoitaa kalibrointilaitteen kanssa kommunikoinnin itsenäisesti. Validoinnit sit pc:n avulla.
Calman SG ja Calman Skintones. Mutta en ymmärrä relevanssia. Helpoin vertailu on laittaa näytöt toistamaan samaa patchiä vierekkäin. Jos tuo patchi mittaa molemmilla <2 DE ja on eri näytöillä silminnähden erinäköinen niin <2 DE ei liene riittävä varmistus että näytöt toistaisivat värit yhtäläisesti.
Nykyään taidetaan suosia lähinnä tuota CIEDE2000 deltaE kaavaa, jolla erityisesti saturoitujen tummien sävyjen ongelma on pitkälti hallinnassa ja <2 deltaE on aika hyvä tulos.
CIEDE2000 näyttäisi olevan vielä anteeksiantavampi tummassa päässä kuin CIE76.
Jos tyypillisellä IPS-näytöllä esitetään sama kuva kuin OLEDilla, molemmat kalibroituna 2.2 gammalle 150 nits valkoisella, mustan taso kompensoituna IPS:llä, niin 5% kirkkaustaso on IPS:llä noin tuplasti kirkkaampi kuin OLEDilla. Ei ihan pieni poikkeama, jonka kuka tahansa huomaa, oli tila valoisa tai ei. Siitä alaspäin mentäessä luminanssiero nousee exponentiaalisesti, kun tilataan sävyjä, joita IPS ei voi enää edes yrittää toistaa. IPS ei niissäkään tummissa sävyissä, joita se voi yrittää toistaa, saavuta läheskään riittävää saturaatiotasoa. Kaikki varmasti näkee eron mustan tasossakin OLEDin ja IPS:n välillä. Mitä veikkaat, mitä luokkaa IPS:n absoluuttinen DeltaE on kun sillä yritetään toistaa vaikkapa 0,1 nitsin punaista edellämainitulla kalibroinnilla? Se kun toistaa tuolloin vain sen taustavaloa. IPS on tunnetusti se "go-to" paneelityyppi grafiikkahommissa, joten ei liene yllätys jos niitä pelintekijöiden pöydiltäkin löytyy.
Kyllä voidaan, kunhan näyttölaitteet on riittävän korkealaatuiset. Heikkotasoisellakin näyttölaitteella saadaan tyypillisesti merkittävä osa sävyistä kalibroitua oikein hyvin.
Kuinka olet omissa kalibroinneissasi ratkaissut metameriaongelman? Tämä on asia, jonka kanssa isot kalibrointiin erikoistuneet firmat kuten Portrait Displays, sekä ammattilaiskalibroijat, edelleen taistelee. Toistaiseksi ratkaisu on ollut niinkin tieteellinen kuin "verrataan näyttöjä silmämääräisesti ja haetaan subjektiivisesti joku valkopiste jolla näyttäisi täsmäävän" eikä kukaan tunnu olevan edes samaa mieltä, mikä sen valkopisteen pitäisi olla, ja mihin näyttöön pitäisi verrata.
Mutta kohta moderaattori älähtää niin paras lopetella homma mun osalta tähän.
Ei kiinnosta semanttinen vääntö siitä mikä on taidetta.
Jos tietokonepelit ovat taidetta, ne ovat interaktiivisempaa taidetta kuin kuvataide. Se grafiikka-asetusvalikko on olemassa siksi, että se taiteellinen suurtirehtööri ymmärtää kyllä, että pelikokemus voi olla parempi kun pelin grafiikoita tuunataan niin, että peli pyörii kivasti.
Siellä valikossa on itseasiassa usein jopa sellaisia asetuksia, jolla ei ole juuri minkäänlaista hintaa frametimessä, mutta käyttäjälle on annettu vapaus valita omien mieltymystensä mukaan, haluaako pitää esim. vignettingin ja chromatic aberrationin päällä vai onko kivempi pelata ilman niitä.
Ranuvertaus toimii siis oikeastaan mun mielestäni paljon paremmin kuin Mona Lisa -vertaus.
Computerbase teki näytönohjaimien kulutusvertailuja. Sehän ei ole uutta, uutta oli se, testisetti oli laajempi. Eli idle, desktop ikkunan liikuttelu, dual monitor, youtube, youtube hdr, rajoittamaton fps ja 144hz fps cap.
Tässä tiivistelmä, niille jotka ei jaksa lukea:
- Dual monitorilla Nvidia on selvästi parempi. 23W vs 41W.
- Esim Idlet on about samat, mutta ikkunan liikutus kasvattaa 27W 6800X:lla ja 18W 3080:lla.
- Youtube toistossa Nvidia oli pari wattia parempi, mutta yllättäen youtube:n vaihto HDR:ään kasvattaa 29W 6800X vs 36W 3080.
144hz FPS cap oli myös aika mielenkiintoinen, siinä tuli aika kovia eroja:
“If an FPS limiter is used, it quickly becomes apparent that AMD's and Nvidia's technical frameworks differ massively in terms of clock management. The power consumption in WQHD amounts to 295 watts for the Radeon RX 6800 XT and 319 watts for the GeForce RTX 3080 - so the two models are definitely comparable. With an FPS limit of 144 frames per second, the gap opens up massively. In this case, the RDNA-2 graphics card only needs 194 watts (-101 watts), but the ampere counterpart with 252 watts (-67 watts) is significantly more. And in Full HD, the differences are even greater in percentage terms at 153 watts (-141 watts) and 213 watts (-103 watts)”
Yhdellä näytöllä alle 10W, tosiaan tämä korjattiin toukokuun ajuripäivityksessä, sitä ennen oli ~40W. Tuo kahden näytön korkeahko idle-kulutus on ollut aina radeoneilla, jostain syystä muistikelloja ei voida laskea kahdella näytöllä.
144hz FPS cap oli myös aika mielenkiintoinen, siinä tuli aika kovia eroja:
“If an FPS limiter is used, it quickly becomes apparent that AMD's and Nvidia's technical frameworks differ massively in terms of clock management. The power consumption in WQHD amounts to 295 watts for the Radeon RX 6800 XT and 319 watts for the GeForce RTX 3080 - so the two models are definitely comparable. With an FPS limit of 144 frames per second, the gap opens up massively. In this case, the RDNA-2 graphics card only needs 194 watts (-101 watts), but the ampere counterpart with 252 watts (-67 watts) is significantly more. And in Full HD, the differences are even greater in percentage terms at 153 watts (-141 watts) and 213 watts (-103 watts)”
Ratukoista on vähän ulosmitattu tehot ulos, näissä kun on kivasti alivoltitus-potentiaalia. Varsinkin jos ei ole pakkomielle maksimoida kellot ja piiri saa toimia optimaalisemmalla alueella. 50-60W lähtee pelkällä alivoltituksella ja pienellä alikellotuksella vielä enempi. Oma 6800 rullaa noin 200W koko kortti(160W monitorointisoftissa) vakiokelloilla ja 950mV jänniteasetuksella. Vakionakin tämä on effi-listan kärjessä TPU:lla. Siihen kivat 25% lisää pienellä säädöllä.
Tämä liittyy sakemannien testiin siten että noissa vajaakuormitustesteissä näyttis käytännössä alikellottaa ja voltittaa itsensä kun sillä ei ole tarpeeksi tekemistä. Nvidiaa rasittaa GDDR6X muistit jotka imee virtaa melkoisesti enempi kuin perus GDDR6-piirit ja niitä on vieläpä enemmän kortilla. Siten coren kulutuksen vähentäminen ei vaikuta niin paljon.
Yhdellä näytöllä alle 10W, tosiaan tämä korjattiin toukokuun ajuripäivityksessä, sitä ennen oli ~40W. Tuo kahden näytön korkeahko idle-kulutus on ollut aina radeoneilla, jostain syystä muistikelloja ei voida laskea kahdella näytöllä.
Tämä ei pidä paikkaansa, vaan kyseinen vaiva on vaihtelevasti koskenut kumpaakin valmistajaa ja riippuu sekä kokoonpanosta että tuurista. Itsellä on esimerkiksi ollut 2560x1440@144 (Samsung C32HG70) ja 3840x2160@60 (Samsungin joku UHD töllö) kiinni sekä GeForceissa (GTX 980, 1060) että Radeoneissa (5700 XT, 6800 XT) ja muistikello-ongelmaa on esiintynyt kaikilla vaihtelevasti.
edit: jaa, 6800 XT:stä en oo ihan varma olenko vielä törmännyt.
(ps. se on tiedossa oleva ongelma että Radeon Softwaressa voi näkyä todellisuutta korkeammat muistikellot)
Mulla 6800XT ennen jotain ajuripäivitystä 1x 144hz 1440p näyttö vei reilu 20W, nyt päivityksen jälkeen 5-8W. Kiinni myös satunnaisesti 1080p 60hz näyttö ja jos kummatkin päällä niin vie myös reilu 20W, ennen päivitystä vei joku 40W.
Yhdellä näytöllä alle 10W, tosiaan tämä korjattiin toukokuun ajuripäivityksessä, sitä ennen oli ~40W. Tuo kahden näytön korkeahko idle-kulutus on ollut aina radeoneilla, jostain syystä muistikelloja ei voida laskea kahdella näytöllä.
Voi laskea. Techpowerupissa on esim eri näyttökonffi (taisi olla 1440p ja fullhd) ja siellä laskee, computerbase veti muistaakseni 2x 4k. Vastaavasti 60fps vsync 1080p resolla techpowerupissa ampere on big navia energiatehokkaampi. On noissa muuttujia ihan kiitettävästi.
Omassa setupissa refu-RX 6800:lla näyttäisi useamman monitorin setupilla riippuvan ihan kullakin näytöllä käytettävistä virkistystaajuuksista että pomppaako muistikellot ja idlevirrankulutus ylös. Tässä allekirjoittaneen GPU-Z screenshot työpöydältä kahdella näytöllä muistikellojen pysyessä alhaalla. Päänäyttö Eizo Foris FS2736 2560x1440 144 Hz FreeSync, kakkosnäyttö Eizo FlexScan EV2736W 30 Hz ja molemmat DP:llä kiinni, ajuriversio 21.7.2. Jos tuon kakkosnäytön hertsit nostaa 60 Hz niin muistikellot pomppaavat ylös mikäli ykkösnäytöllä ei ole myöskin 60 Hz. 100 Hz, 120 Hz tai 144 Hz käytössä kellot ja idlevirrankulutus nousevat. Kursorin liike ym. elämä näytöllä on sillä 30 Hz:llä ihan saatanan takkuista mutta koska ko. näytöllä on muutenkin ainoastaan staattista sisältöä (some/nettiselain) niin siitä ei ole omassa casessa haittaa.
Entisillä Vega 56:lla ja Vega 64 korteilla ja senaikaisilla (2019/2020) ajureilla pelanneena voin vahvistaa havaintosi. Tätä samaa näyttösetuppia pystyi ajamaan täysillä hertseillä ilman että kellot nousivat maksimiin. Joskus saattoi tulla epämääräisiä lyhyitä harmaita välähdyksiä ruuduille mutta niistä selvisi siten että ajurien ylikellotuspaneelista forcetti "välitilan" muistikellot (500 MHz) minimiksi jolloin tehonkulutus työnpöydällä nousi hieman muttei samalla tavalla kuin näillä GDDR5/6 Radeoneilla.
Tarinan opetus: Kokeilkaa ajaa niitä näyttöjänne, etenkin niitä joiden kanssa ruudunpäivitysnopeudella ei ole väliä, eri virkistystaajuuksilla. Siitä voi olla tapauskohtaisesti hyötyä idlevirrankulutukseen.
This time around, Nvidia’s next architecture was labeled as Ampere Next which is destined to release in 2022, that’s for certain. By 2024 they believe they’ll have Ampere Next Next ready which is the supposed RTX 5000 series.
Onko nVidia julkistanut jonkun kolmen vuoden syklin suunnitelman, vai mistä moinen? Ainakaan edellisten julkaisujen tahti ei sellaista toteuta.
GTX 900-sarja julkaistiin 9/2014 (tosin arkkitehtuuri jo 02/2014 GTX 750 TI:n muodossa)
GTX 1000-sarja julkaistiin 05/2016
RTX 2000-sarja julkaistiin 08/2018
RTX 3000-sarja julkaistiin 09/2020
Noihin on tehty erilaisia ratkaisuja sen mukana mikä piiri on julkaistu ensin. Aina on tullut kuitenkin high end suorituskykyä heti kärkeen, mutta esim 900-sarjan kohdalla vain GTX 980 ja vasta seuraavana vuonna GTX 980 Ti. Kun tämmöinen julkaisuaikataulu ja refreshit otetaan huomioon, niin sitä on käytännössä vuosittain tullut uusi top end markkinoille kolmen vuoden syklin sijaan.
On tää hupaisaa. Piti olla uus Pascal, mutta olikin uus Ampere. Oman ykköskortin möin pois sen vuoksi, että ei voi työttömällä olla yli kuukauden nettotulon arvoista korttia niin vähällä käytöllä.
Pelikäyttöön ei löydy järkevän hintaisia kortteja. Antiikkia, antiikkia -osastolla on jo antiikkihintoja, eikä mikään hommassa ole tervettä.
Pitkässä juoksussa lhr-kortit olisivat olleet jees. Toki kun ne tulivat, pukattiin samasta sirusta 3080 ti, ja hapokkaista tulee 3080 super. Nvidia ja louhijat pelasivat tällä kierroksella nätisti samaan pussiin. GG.
Tässähän rupeaa suorastaan kammoamaan AMD-sponssattuja pelejä, kun Far Cry 6:ssa DLSS:n sijaan saatiin vaisumpi FSR ja RT-toteutuskin on ehkä minimalistisimpia ja gimpatuimpia mitä on toistaiseksi nähty.
Tässähän rupeaa suorastaan kammoamaan AMD-sponssattuja pelejä, kun Far Cry 6:ssa DLSS:n sijaan saatiin vaisumpi FSR ja RT-toteutuskin on ehkä minimalistisimpia ja gimpatuimpia mitä on toistaiseksi nähty.