Käytät jatkuvasti ihmeellisiä ylisanoja antamatta mitään oikeaa perustetta miksi asia on mielestäsi niin, tai miksi uskot että siellä on parannettavaa siiinä ja tuossa jne.
Kuten todettu jo jossain näistä ketjuista, vastaavaa tekniikkaa toteutettuna DirectML:llä on esitelty jo.
En takerru yksityiskohtiin vaan puhun kokonaisuuden tasolla. Kuten sanoin jo toisessa topicissa niin sen keskeneräisyyden voi päätellä jo siitä, että kuinka monta peliä on DLSS:llä varustettenu tällä hetkellä ulkona ja kuinka kokoajan kehitys on mennyt parempaan päin kuvissa ajan kanssa. Myös täytyy ymmärtää ettei tuollaista huimaa tekniikkaa ja sen softa toteutusta ihan päivässä tai kahdessa saada toimimaan.
Moniko peli skaalaa DirectML:n tai muun avulla kuvaa korkeampi resoluutioisen näköiseksi? Uskallan veikata, että nolla. Eiköhän pelintekijät ole tajunneet, että ne kuormittaisi GPU:n muuta laskentaa kohtuuttomasti hyötyyn nähden, ellei ole tensor-ytimien tapaista teknistä lisäystä.
Kaikki laskenta vaikuttaa tietenkin suorituskykyyn jollain tasolla, mutta se riippuu lukemattomista eri asioista että miten huomattavasti se näkyy (jos lainkaan). Olisiko? Koneoppimisrajapinnat ovat vielä loppuviimein tuoreita etenkin kuluttajapuolella ja esimerkiksi DirectML esiteltiin vasta viime keväänä.
En muista kuka sen sanoi, mutta ei välttämättä osunut kauas (tai sitten osui, tuskin kukaan NVIDIAn ulkopuolella varmaksi tietää) kun totesi että DLSS vaikuttaa ominaisuudelta, joka on luotu kun on todettu että "meillä ois tässä näitä tensoriytimiä, voisiko näitä käyttää edes johonkin pelikäytössä?"
Kuten sanoin jo viime vastauksesta niin jos sen voisi toteuttaa ilman liiallista suorituskyvyn laskua niin eiköhän se olisi jo DirectML:llä tai muulla tavalla jo tehty.
Sanoit että joku sanoi että "meillä ois tässä näitä tensoriytimiä, voisiko näitä käyttää edes johonkin pelikäytössä?", itse uskon että Nvidialla on osattu asioita suunnitella vähän enemmän ennakkoa ajatellen.
Varmasti, mutta ei se niitä sieltä poista. Ihan samalla logiikalla voidaan vetää puolet pelin asetuksista pykälää tai paria pienemmälle "kun sitä on vaikea huomata liikkeestä" ja eiköhän siitä resostakin voida vähän nappailla pois jne.
Olen eri mieltä tästä "samalla logiikalla" asiasta. Jos tiputat pelin asetuksista puolet niin sen varmasti huomaa. Mutta jos DLSS:llä pääsee tarpeeksi lähelle pelin näyttämään samalta liikkeessä kuin ylemmällä 4K kuvalla niin voidaan onnistua ilman että sitä eroa edes liikkeessä huomaisi, jos yksityiskohta erot ovat tarpeeksi pienet.
Taas ihan outoja väitteitä ilman mitään tukevaa sanojen taakse laitettavaksi. Miten se DLSS on "kehittynyt pikkuhiljaa lupaavasti"?
Esittelyn jälkeen tuki on saatu lisättyä yhteen benchmarkkiin ja beetaversiona yhteen peliin*. Kumpikaan ei ole muuttunut miksikään ajan myötä.
*beetaversiona koska julkaisija päätti että pelin pc-version kehitystyö loppui nyt eikä heti.
Tähän vastasinkin jo ylenpänä.
Paha sanoa, koska sitä X2:ta ei ole annettu julkisesti testattavaksi, tuo tieto että syö suorituskykyä löytyy ihan tästä ketjusta UL Benchmarksin Jarniksen toimesta postattuna. X2 siis renderöi sillä natiivilla resolla, toisin kuin pelkkä DLSS
Odotetaan sitten että julkaistaan.
Se suorituskykydroppi saattaa olla iso tai pieni ilman tensoreita, sitä on paha arvioida pääsemättä testaamaan.
Luultavammin se on iso, koska kukaan ei ole peleihinsä sellaista vielä lisännyt, vaikka aikaa on ollut vuosikymmeniä. Kaikella järjellä ajatellen se on iso, koska sen suorituskyky on poissa tavalliselta GPU:n laskennalta mikä on yleensä tapissa peleissä jo valmiina.
Missä se on parantunut? Toistat viestistä toiseen samaa kaavaa, ylisanoja ja väitteitä jos jonkinnäköisiä, mutta ei mitään sanojen taakse laitettavaa.
Kuvanlaatu ainakin nähtävästi. Taustalla varmasti myös algoritmien optimointi yms. on tässä takana. Asetusten optimointi jne. Toteutuksen ja softapuolen arkkitehtuurin optimointi supertietokoneiden "kuvaus"ohjelmassa.