Virallinen: NVIDIA vs AMD (vs Intel) keskustelu- ja väittelyketju

  • Keskustelun aloittaja Keskustelun aloittaja Sampsa
  • Aloitettu Aloitettu
Se DLSS ei edelleenkään ole mikään tekoälykiihdytys. Sen kun laittaa päälle peli renderöidään pienemmällä resoluutiolla. Todennäköisesti 1080p noissa testeissä.

1606667616582.png


Ei tässä nyt mitään hattuvakioita heitetä vaan näytönohjainvalmistajan listaamia ominaisuuksia.

Syyttelijöiden on ensin syytä katsoa rehellisesti peiliin ennenkuin alkaa muita sormella osoittamaan.
 
1606667616582.png


Ei tässä nyt mitään hattuvakioita heitetä vaan näytönohjainvalmistajan listaamia ominaisuuksia.

Syyttelijöiden on ensin syytä katsoa rehellisesti peiliin ennenkuin alkaa muita sormella osoittamaan.
Oletko trolli vai etkö oikeasti ymmärrä mistä tuossa DLSS:ssä on kyse?
 
AMD:lla nuo tehdään jollain softakikkareella niin kyllä se on ihan AMD:n omassa kädessä että ei ole tässä 3v aikana pistänyt paukkuja uusiin tekniikoihin.

Microsoft ja AMD ovat laittaneet paukkuja tulevaan Super Resolution -ominaisuuteen, eli jotain potentiaalista FPS-pumppaajaa AMD:kin jossain vaiheessa tuo. Toteutuksesta tai aikatauluista ei ole hiiskuttu tarkemmin, joten voi olla kaikkea väliltä: Marginaalista hyötyä tuovaa kuvanlaatu -kuraa <-> Hyvän pelituen ja kuvanlaadun omaava FPS-pumppaaja.

Itse en suhtaudu DLSS:ään niin kriittisesti kuin osa. On tosi että se ei pysty yhtä hyvään kuvaan kuin natiivi, mutta niin kauan kuin tuota ei ole pakko käyttää, niin kyllä tuo kuluttajille on plusmerkkinen -ominaisuus. Ja nyt kun AMD:n RT -suorituskyky ei riitä kaikissa peleissä, niin jotain tämän kaltaista AMD:kin tarvii. Tietenkin olisi parempi, ettei kumpikaan tarvisi, ja kaikki voisi pelata 100fps 4k-natiivilla RT Ultra, mutta tuo ei toistaiseksi ole realismia kummankaan korteilla, ja vielä vähemmän AMD-korteilla jonka RT keskimäärin Nvidiaa hitaampaa.

käsitin että superresolution hoidettaisiin sitten compute uniteilla?

Missä näin? Super Resolutionin (sen tulevan) teknisestä toteutuksesta en ole nähnyt edes huhuja. Microsoftilta löytyy tietoa tuosta Direct ML:stä, mutta tuon ja Super Resolutionin välisestä teknisestä toteutuksesta en ole löytänyt mitään tietoa.

Olisi myös mielenkiintoista tietää, että onko Nvidialla jotain tuohon Direct ML:ään liittyvää työn alla, vai luottaako Nvidia DLSS:än leviämiseen sataprosenttisesti.
 
Missä näin? Super Resolutionin (sen tulevan) teknisestä toteutuksesta en ole nähnyt edes huhuja. Microsoftilta löytyy tietoa tuosta Direct ML:stä, mutta tuon ja Super Resolutionin välisestä teknisestä toteutuksesta en ole löytänyt mitään tietoa.

Olisi myös mielenkiintoista tietää, että onko Nvidialla jotain tuohon Direct ML:ään liittyvää työn alla, vai luottaako Nvidia DLSS:än leviämiseen sataprosenttisesti.
DirectML pitäisi toimia lähes kaikilla DX12 näytönohjaimilla GitHub sivujen mukaan.

AMD:n tämän hetkisissä pelikorteissa ei ole mitään NVIDIA:n tensori neuroverkkolaskentayksiköitä vastaavaa eli AMD:n korteilla ei ole muuta vaihtoehtoa kuin kiihdyttää normaaleilla shader-ytimillä. NVIDIA:n korteilla voi periaattessa olla mukava suorituskyky etu DirectML toteutuksissa jos siellä on asioita mitä voidaan kiihdyttää tensori-ytimillä.
 
DirectML pitäisi toimia lähes kaikilla DX12 näytönohjaimilla GitHub sivujen mukaan.

AMD:n tämän hetkisissä pelikorteissa ei ole mitään NVIDIA:n tensori neuroverkkolaskentayksiköitä vastaavaa eli AMD:n korteilla ei ole muuta vaihtoehtoa kuin kiihdyttää normaaleilla shader-ytimillä. NVIDIA:lla voi periaattessa olla mukava suorituskyky etu DirectML toteutuksissa jos siellä on asioita mitä voidaan kiihdyttää tensori-ytimillä.
Sitä varten AMD:lla on siellä (Microsoftin Xboxiinkin haluamat) 4:1 INT8 ja 8:1 INT4 tuet laskentayksiköissä.
 
Sitä varten AMD:lla on siellä (Microsoftin Xboxiinkin haluamat) 4:1 INT8 ja 8:1 INT4 tuet laskentayksiköissä.

Radeon VIIssä on, RDNA1ssä ei ole, onko RDNA2ssa, siitä en ole varma.

Ja raaka nopeus näillä AMDn matalan tarkuuden konvoluutio-/pistetulokäskyillä on selvästi hitaampi kuin nVidian tensoriytimillä.

CDNAssa on sitten matriisikiihdytinyksiköt jotka vastaavat nvidian tensoriytimiä, tosin ne on enemmän optimoitu fp32- ja fp16-tarkkuuksille
 
Radeon VIIssä on, RDNA1ssä ei ole, onko RDNA2ssa, siitä en ole varma.

Ja raaka nopeus näillä AMDn matalan tarkuuden konvoluutio-/pistetulokäskyillä on selvästi hitaampi kuin nVidian tensoriytimillä.

CDNAssa on sitten matriisikiihdytinyksiköt jotka vastaavat nvidian tensoriytimiä, tosin ne on enemmän optimoitu fp32- ja fp16-tarkkuuksille
RDNA2:ssa on (myös Xbox-versiossa), juuri siitä puhuin kun tässä näistä uusimman sukupolven vehkeistä on kerran ollut puhe.
Niin tiedän, mutta eikö tuo jää silti kaus tensoriytimien INT4 JA INT8 suorituskyvystä?
Jos kyse on tensorilaskuista niin kyllä, mutta NVIDIA ei tainnut mainostella mitään lukuja muille ko. tarkkuuden laskuille.
 
.

Sinulla tuntuu nyt olevan jotenkin sellainen kuva, että minä haluaisin "kieltää DLSS:n" tai muuta vastaavaa, mikä ei missään nimessä pidä paikkaansa. Minä olen vain sitä vastaan miten jotkut yleistävät sen jotenkin ehdottomaksi plussaksi (ja vastaavasti puutteen miinukseksi) sekä näitä aivopieruja mitä porukka on heitellyt, kuten että DLSS pitäisi olla suorituskykytesteissä päällä :facepalm:

Niin et halua kieltää sitä, mutta sitä ei saisi kuitenkaan olla peleissä... Tai saisi, mutta vain ihan muutamassa... :zoom:

Aika loogista...

Sitä, että peli tukee DLSS:a ei vaan voi mitenkään järkevällä tavalla kääntää negatiiviseksi asiaksi.

Valinnanvara on aina pelaajan etu. Se olisi sitten eri asia, jos pelit tehdäisiin siten, että niiden FPS lukemat olisi pelikelvottomia ilman DLSS:a, vaikka karsisi asetuksia, mutta semmoista tilannetta nyt ei voi edes tulla, koska DLSS on NVIDIA only tekniikka.

Niin kauan kun ei ole avoimeen rajapintaan pohjautuvaa yhtä tehokasta skaalaustekniikkaa, niin DLSS tuen lisääminen peliin on ainoastaan positiivinen asia suurellle osalle pelaajista, ja lopuille sillä ei ole negatiivisia vaikutuksia.

Varsinkin uusiin peleihin/moottoreihin DLSS tuki on aika simppeli implementoida, jos ja kun se tiedostetaan ja otetaan huomioon heti kehityksen alusta asti.
 
1080p-resoluutiokin aiheuttaa artefakteja kuvaan, 720p:sta puhumattakaan. Toivottavasti kukaan ei ainakaan suorityskykytestejä aja tuollaisilla kuvanlaatua paskovilla asetuksilla.
 
Yksi devaajan kannalta merkittävä ero säteenseurannassa rdna2 vs. ampere on se miten säteenseurannan vaatimat muistihaut on toteutettu. RDNA2:ssa muistihaut on kytketty tmu-yksiköihin kiinni. Nvidialla on oma datapolku rtcoresta välimuistiin. Teoriassa tuo tarkoittaa sitä, että amperella voidaan ajaa paremmin säteenseurantaa muiden taskien taustalla. vrt. async compute ongelmat pascal ja aikaisemmissa nvidian arkkitehtuureissa. AMD:n kohdalla taas pitää enemmän miettiä, että rasterointi ja säteenseuranta eivät tallo toistensa varpaiden päälle. Tuo voi hyvinkin olla iso syy siihen miksi esim. cyberpunkissa ei luvata julkaisuun säteenseurantaa amd:lle. Perffi voi olla paljon optimaalista huonompi, jos säteeenseuranta on optimoitu amperelle.

rdna2:ssa kai käytetään compute shadereita bvh:n läpikäymiseen, kun taas nvidialla on dedikoitu rauta. tuo mahdollistaa sen, että amperella ajetaan compute taskeja ja säteenseurantaa rinnakkain(muistikaistan salliessa), kun taas rdna2:lla pitää lomittaa taskeja sopiviin rakoihin(async compute vertaus aikaisemmista arkkitehtuureista sopii tähänkin). Pelintekijän pitää enemmän miettiä miten taskit järjestellään, että raudasta saadaan kaikki irti.

Kai se on selvää blenderin, 3dmarkin synteettisen testin pohjalta jne. pohjalta, että amd:lla on jotain optimoitavaa vielä säteenseurannan suhteen. Tuleeko tuo kuntoon softalla vai vaatiko rdna3:en niin ei voi tietää. 3dmark synteettisenä testinä lienee helpoin optimoitava amd:lle. Blender myös on otollinen benchmark optimointikohde, kun suurin osa benchmarkkaajista käyttää paria staattista skeneä.

Blenderissä optix:lla 3080 bmw renderöinti 11.9s, cudalla 25.9s. io-techin testissä 6800xt renderöi bmw:n 38 sekunnissa. Varmasti suorituskyky softastakin kiinni ja vie aikaa amd:lta optimoida. Vaikea tosin on nähdä, että rdna2 kuroisi amperen etumatkan kiinni säteenseurannassa vaikka kuinka tunkattaisiin softaa.

 
Viimeksi muokattu:
Mites sellainen hypoteettinen "kuvanhuononnustekniikka", joka skaalaa resoa esim. 99%:iin ja nostaa ruudunpäivityksen kymmenkertaiseksi? :)
Tässä DLSS ei ole mitään muuta ongelmaa kuin että se on Nvidian.
Tämä yksistään aiheuttaa sen että asiasta ei välttämättä voi saada neutraalia keskustelua tai neutraalia näkökantaa toisen merkin kannattajilta.

Lisäksi kun ominaisuus on On/Off tyylinen niin ihmeen paljon se tekee joissakin henkilöissä sitä kuuluisaa peppukipuilua vaikka sen voisi pistää OFF halutessaan jos omistaa sen Nvidian ohjaimen.
Tosin osa joka tuostakin kipuilee ei edes omista Nvidian ohjainta joten DLSS tuskin on heille edes todellinen ongelma käytännössä.
Se muodostuu ongelmaksi siksi koska DLSS oikeasti toimii ja sen avulla suorituskyky voi olla selvästi kilpailijaa nopeampi jolloin kovimmat kannattajat ottavat sen mahdollisesti uhkana ja yrittävät "damagecontrolin" avulla keksiä syitä miksi se olisi kaikkea muuta kuin hyvä.
Eli ihan perus kannatus diipadaapaa.
 
Tässä DLSS ei ole mitään muuta ongelmaa kuin että se on Nvidian.
Tämä yksistään aiheuttaa sen että asiasta ei välttämättä voi saada neutraalia keskustelua tai neutraalia näkökantaa toisen merkin kannattajilta.

Lisäksi kun ominaisuus on On/Off tyylinen niin ihmeen paljon se tekee joissakin henkilöissä sitä kuuluisaa peppukipuilua vaikka sen voisi pistää OFF halutessaan jos omistaa sen Nvidian ohjaimen.
Tosin osa joka tuostakin kipuilee ei edes omista Nvidian ohjainta joten DLSS tuskin on heille edes todellinen ongelma käytännössä.
Se muodostuu ongelmaksi siksi koska DLSS oikeasti toimii ja sen avulla suorituskyky voi olla selvästi kilpailijaa nopeampi jolloin kovimmat kannattajat ottavat sen mahdollisesti uhkana ja yrittävät "damagecontrolin" avulla keksiä syitä miksi se olisi kaikkea muuta kuin hyvä.
Eli ihan perus kannatus diipadaapaa.
Juuri näinhän se on. DLSS on täydellinen tekniikka jossa ei ole mitään ongelmia. /s
 
En nyt parempaakaan ketjua keksinyt, mutta tässä hieno esimerkki siitä miten mennään perse edellä puuhun säteenseurannan kanssa.
Pelissä joka paikka kiiltää kuin peili, paitsi vessan peili :D Video timestampattu.
Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.
 
Kyllä, mutta kun se paskoo omilla artifakteillaan ja bugeillaan kuvaa tulos on kuitenkin huonompi. Jos ei artifaktit häiritse niin toki se silloin on hyvä.

Onko tälle lähdettä vai onko se omaa mutua? Eli missä löytyy testi jossa DLSS päällä tuottaa huonomman kuvan kuin asetuksia tiputtamalla?
 
En nyt parempaakaan ketjua keksinyt, mutta tässä hieno esimerkki siitä miten mennään perse edellä puuhun säteenseurannan kanssa.
Pelissä joka paikka kiiltää kuin peili, paitsi vessan peili :D Video timestampattu.
Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.

Tossa pelissähän on vain RT varjot + RT ambient occlusion, ei RT heijastuksia.
 
Onko tälle lähdettä vai onko se omaa mutua? Eli missä löytyy testi jossa DLSS päällä tuottaa huonomman kuvan kuin asetuksia tiputtamalla?
Kuvanlaatu on subjektiivinen kokemus. Vaikea tuosta on mitään objektiivista testiä tehdä, etenkin kun mitattavien metriikoiden valitseminen olisi kunnon paskamyrsky.

Jos vaikka ringing artefakteille laitetaan kuvanlaadussa painoarvoksi 100%, niin DLSS häviää aina.
 
Tossa pelissähän on vain RT varjot + RT ambient occlusion, ei RT heijastuksia.
En katsonut mitä kaikkea on mutta kun tota alkua selasi kaikki kadut ja junat kiilsi kuin viimeistä päivää, ehkä nekin oli sitten screenspacessa vain.

Onko tälle lähdettä vai onko se omaa mutua? Eli missä löytyy testi jossa DLSS päällä tuottaa huonomman kuvan kuin asetuksia tiputtamalla?
Et voi verrata appelsiineja ja omenoita. DLSS:n artifaktit ovat kuitenkin kiistattomia ja niistä löytyy materiaalia tästäkin ketjusta sivukaupalla.
 
Juuri näinhän se on. DLSS on täydellinen tekniikka jossa ei ole mitään ongelmia. /s
DLSS on erittäin hyväksi käytännössä todettu tekniikka. Jos pitää sen huonoja puolia pelikelvottomuuden aiheuttajana, niin sen voi pistää poispäältä, joten se ei ole ongelma sillekään, joka sitä ei halua käyttää.

JOS DLSS olisi avoin tekniikka, niin sen kehittäminen olisi huomattavasti hitaampaa, kun samaa kattilaa olisi hämmentämässä useampi taho. Se ilmiöhän on nähty open sitä ja tätä virityksissä kerta toisensa jälkeen.

Jos kaikki valmistajat saavat joskus aikaan rautaa, jolla vastaava avoin tekniikka toimii, niin sitten käytetään varmasti siinä vaiheessa sitä.
MS:llä on kova paine kehitellä sitä kun nyt on käynyt ilmi, että AMD:n RT suorituskyky on "haasteellinen" ja MS:n uusi konsoli on sen kanssa naimisissa, eikä muuksi muutu. Voi olla hikistä hommaa konsolien nysä AMD GPUilla koittaa puristella enepiä RT efektejä sinne sekaan ja kun resoluutioksikin on hehkutettu 4K:ta.. Voipi FPS olla sitten 10:nen luokkaa, jos ei "oikota" enemmän ja vähemmän.. DLSS2 olisi niissä hyvä, mutta taitaa olla teknisesti mahdoton. (GPU ei ole sopiva ko hommaan).
 
Kukin tyylillään, mutta mielestäni melko lapsellista piikittelyä alkaa yleisnimittämää ominaisuutta "kuvanhuononnustekniikaksi". Tottakai faktoissa pitää pysytellä, mutta sellanen tahallinen piikittely ominaisuuden heikkouksesta eikä yhtään yritä tuoda esille sitä mihin sitä on oikeasti suunniteltu käytettäväksi.

Ei ymmärrä.
 
JOS DLSS olisi avoin tekniikka, niin sen kehittäminen olisi huomattavasti hitaampaa, kun samaa kattilaa olisi hämmentämässä useampi taho. Se ilmiöhän on nähty open sitä ja tätä virityksissä kerta toisensa jälkeen.
Huoh. Ei olisi varmaan ihan kauheasti kauemmin mennyt toteuttaa tuo vaikka direct ML:llä ja dumpata kyseinen dll lähdekoodeineen githubiin. Avoin lähdekoodi tai avoimet tekniikat ei tarkoita etteikö softan kehittämistä voisi tehdä yksityisenä tahona miten haluaa. Vai yritätkö sanoa että direct ML on niin paljon huonompi API, että nvidian insinöörillä menee huomattavasti enemmän aikaa softan koodaamiseen sillä vs. että käyttäisi cudaa?
 
DLSS on erittäin hyväksi käytännössä todettu tekniikka. Jos pitää sen huonoja puolia pelikelvottomuuden aiheuttajana, niin sen voi pistää poispäältä, joten se ei ole ongelma sillekään, joka sitä ei halua käyttää.

JOS DLSS olisi avoin tekniikka, niin sen kehittäminen olisi huomattavasti hitaampaa, kun samaa kattilaa olisi hämmentämässä useampi taho. Se ilmiöhän on nähty open sitä ja tätä virityksissä kerta toisensa jälkeen.

Jos kaikki valmistajat saavat joskus aikaan rautaa, jolla vastaava avoin tekniikka toimii, niin sitten käytetään varmasti siinä vaiheessa sitä.
MS:llä on kova paine kehitellä sitä kun nyt on käynyt ilmi, että AMD:n RT suorituskyky on "haasteellinen" ja MS:n uusi konsoli on sen kanssa naimisissa, eikä muuksi muutu. Voi olla hikistä hommaa konsolien nysä AMD GPUilla koittaa puristella enepiä RT efektejä sinne sekaan ja kun resoluutioksikin on hehkutettu 4K:ta.. Voipi FPS olla sitten 10:nen luokkaa, jos ei "oikota" enemmän ja vähemmän.. DLSS2 olisi niissä hyvä, mutta taitaa olla teknisesti mahdoton. (GPU ei ole sopiva ko hommaan).

DLSS ei sisällä yhtään mitään sellaista mitä ei triviaalisti pystyisi laskemaan shader-ytimillä.

Ne nVidian matriisiyksiköt ("tensoriytimet") vaan tekee sen laskemisesta selvästi nopeampaa.

Mutta kaiken sen, mitä DLSS tekee voisi aivan hyvin tehdä shader-koodina AMDn näyttiksillä, ja suorituskyky olisi selvästi parempi kuin natiivi korkearesoluutiokuva, mutta myös jonkin verran huonompi kuin nVidian "tensoriytimet" sisältävällä raudalla.

nVidian nimenomaan KANNATTAISI avata DLSS kaikelle raudalle, että se voisi sen jälkeen mainostaa, kuinka paljon nopeampia Ampere ja Turing on kun rauta jossa ei ole matriisiyksiköitä.
 
Viimeksi muokattu:
Huoh. Ei olisi varmaan ihan kauheasti kauemmin mennyt toteuttaa tuo vaikka direct ML:llä ja dumpata kyseinen dll lähdekoodeineen githubiin. Avoin lähdekoodi tai avoimet tekniikat ei tarkoita etteikö softan kehittämistä voisi tehdä yksityisenä tahona miten haluaa. Vai yritätkö sanoa että direct ML on niin paljon huonompi API, että nvidian insinöörillä menee huomattavasti enemmän aikaa softan koodaamiseen sillä vs. että käyttäisi cudaa?
Melkoisen suurella todennäköisyydellä valmistajan oma alusta (olkoon se sitten cuda tai joku muu) toimii valmistajan omalla raudalla parhaiten. Jollain kolmannen osapuolen alustalla menetetään osa suorituskyvystä hyvinkin helposti.. Muutenkin noiden "open" systeemien kanssa tahtoo aina olle ihan mahdotonta vänkäystä ja hommat ei oikein etene VS kun käytetään omia, niin muilta ei tarvitse kysyä yhtään mitään.
 
nVidian nimenomaan KANNATTAISI avata DLSS kaikelle raudalle, että se voisi sen jälkeen mainostaa, kuinka paljon nopeampia Ampere ja Turing on kun rauta jossa ei ole matriisiyksi9köitä.
Juuri näin! Sillä olisi nyt mahdollisuus luoda tuosta defacto skaalaustekniikka omien vahvuuksiensa mukaisesti. Jostain syystä nvidia vaan ei noin halua toimia ja DLSS jää suurella varmuudella kananlennoksi siinä missä aiemmatkin vastaavat proprietaariviritykset.

Melkoisen suurella todennäköisyydellä valmistajan oma alusta (olkoon se sitten cuda tai joku muu) toimii valmistajan omalla raudalla parhaiten. Jollain kolmannen osapuolen alustalla menetetään osa suorituskyvystä hyvinkin helposti.. Muutenkin noiden "open" systeemien kanssa tahtoo aina olle ihan mahdotonta vänkäystä ja hommat ei oikein etene VS kun käytetään omia, niin muilta ei tarvitse kysyä yhtään mitään.
keneltä mun pitää kysyä ja mitä jos haluan tehdä jonkin kikkareen direct ML:llä?
 
DLSS heikkous on se että Nvidian kanssa joutuu tekemään jonkinlaisen diilin että saa pelinsä käyttämään sitä. Lisäksi se että Nvidian täytyy ne 16k kuvat sitten vielä rendata ja lisätä data ajureihin, en tiedä kauan yhdellä pelillä tuossa kestää. Mitä pienempi pelinkehittäjä sen paskemmat ehdot sillä diilillä täysin varmasti. Mikä taas johtaa siihen että edes hieman isommat kehittäjät tuskin ovat valmiita lähtemään tuohon.
 
Kukin tyylillään, mutta mielestäni melko lapsellista piikittelyä alkaa yleisnimittämää ominaisuutta "kuvanhuononnustekniikaksi". Tottakai faktoissa pitää pysytellä, mutta sellanen tahallinen piikittely ominaisuuden heikkouksesta eikä yhtään yritä tuoda esille sitä mihin sitä on oikeasti suunniteltu käytettäväksi.

Ei se ole mitään "piikittelyä" vaan faktaa.

Se, että tätä kutsuu "piikittelyksi" on melko typerää firman mainoshömpän kriitikitöntä uskomista.

DLSS renderöi kuvan matalammalla resoluutiolla, se tuottaa vähemmän informaatiota.

Sen jälkeen se tämän matalaresoluutiosen kuvan perusteella neuroverkon avustuksella "arpoo" sinne puuttuvat kohdat.

Usein se onnistuu tuottamaan melko kauniin kuvan(joka silti ei vastaa alkuperäistä yksityiskohdiltaan), välillä se mokaa ja kuvaan tulee hassuja artefakteja,.

Keskimäärin se sijoittuu kuvanlaadultaan täyden resoluution natiivikuvan ja yksinkertaisimmilla algoritmeilla ylösskaalatun matalaresoluutiokuvan välille.


Joo, sen tällaisista kommenteista kyllä huomaa.

Se, että kuvittelee että neuroverkko on taikakapine jolla voitaisiin vajaasta infromaatiosta generoitua enemmän oikeaa informaatiota osoittaa melkoista ymmärtämättömyyttä.


Se, että renderiöidään matalammalla resoluutiolla (kuin mitä näytetään tai mitä asetuksissa lukee) on nimenomaan kuvanlaadun huonontamista.
 
...
keneltä mun pitää kysyä ja mitä jos haluan tehdä jonkin kikkareen direct ML:llä?
Vänkäystä voisi esim esiintyä pelikehittäjiä kohtaan, siitä, miten ko laajennusta tulisi käyttää, Nyt sitäkään mahdollisuutte ei ole. Samoin olisi todennäköisesti nillitystä siellä käytetyistä ratkaisusta, jos ja kun ne toimivat jollain tietyllä raudalla paremmin ja jokainen koittaisi vängätä sinne omat virityksesnsä, joka puolestaan heikentisi tilannetta.

Kehitelkööt open tekniikan, jos ja kun rahkeet riittävät. DLSS on hyvä olla olemassa ja siitä voi nauttia sitä tukevissa softissa jo nyt, joka on pääasia. Ne, jotka eivät sitä halua voivat pistää sen poispäältä ja pienemmän reson / karsia kuvanlaadusta muuten, jos haluavat vastaavan FPS:n.
 
Ei se ole mitään "piikittelyä" vaan faktaa.

Se, että tätä kutsuu "piikittelyksi" on melko typerää firman mainoshömpän kriitikitöntä uskomista.

DLSS renderöi kuvan matalammalla resoluutiolla, se tuottaa vähemmän informaatiota.

Sen jälkeen se tämän matalaresoluutiosen kuvan perusteella neuroverkon avustuksella "arpoo" sinne puuttuvat kohdat.

dlss2.0 on hieman monimutkaisempi. dlss2.0:ssa on TAA komponentti, jossa neuroverkon avulla yritetään keksiä mitkä samplet edellisistä frameista voidaan käyttää uudelleen. Liikevektorit sun muut metatiedot auttavan tuon arpomisen kanssa. Lisäksi framet renderöidään niin, että samplauskohtia vaihdellaan. Jos mikään ei liiku ruudulla niin peräkkäisistä frameista saadaan kasattua täyden resoluution kuva ilman arpomista. dlss1.0 ja 2.0 ovat melko erilaisia otuksia.
 
Samoin olisi todennäköisesti nillitystä siellä käytetyistä ratkaisusta, jos ja kun ne toimivat jollain tietyllä raudalla paremmin ja jokainen koittaisi vängätä sinne omat virityksesnsä, joka puolestaan heikentisi tilannetta.
Kuvasit juuri DLSS:n suurimmat ongelmat. Miten avoimuus heikentää tilannetta?
 
Ei se ole mitään "piikittelyä" vaan faktaa.

Se, että tätä kutsuu "piikittelyksi" on melko typerää firman mainoshömpän kriitikitöntä uskomista.

DLSS renderöi kuvan matalammalla resoluutiolla, se tuottaa vähemmän informaatiota.

Sen jälkeen se tämän matalaresoluutiosen kuvan perusteella neuroverkon avustuksella "arpoo" sinne puuttuvat kohdat.

Usein se onnistuu tuottamaan melko kauniin kuvan(joka silti ei vastaa alkuperäistä yksityiskohdiltaan), välillä se mokaa ja kuvaan tulee hassuja artefakteja,.

Keskimäärin se sijoittuu kuvanlaadultaan täyden resoluution natiivikuvan ja yksinkertaisimmilla algoritmeilla ylösskaalatun matalaresoluutiokuvan välille.



Joo, sen tällaisista kommenteista kyllä huomaa.

Se, että kuvittelee että neuroverkko on taikakapine jolla voitaisiin vajaasta infromaatiosta generoitua enemmän oikeaa informaatiota osoittaa melkoista ymmärtämättömyyttä.
:speak:
Nyt kyllä meni sultakin koko pointini ohi. Missäs kohtaa mä väitän noita Nvidian mainoslauseita?

Tai ehkä parempi ettet vastaa kun et ekaa viestiä osanut tulkita muutenkaan.
 
Eli ei löytynyt ensimmäistäkään testiä joka tukisi väitettäsi.
Siis mitä ihmettä nyt taas? DLSS aiheuttaa kuvaan artifakteja, jotka eivät siihen kuulu, mikä tekee siitä objektiivisesti huonomman automaattisesti. Subjektiivisesti vastauksia on tasan yhtä monta kuin vastaajia.
 
Katsoppa vaikka miten OPEN GL kehittyi VS Direct X ja hyvällä tuurilla asia härmistyy sinulle. Jos ei selviä, niin en osaa auttaa ongelmasi kanssa.
En ole missään kohtaa ehdottanut että nvidian pitäisi joku consortium perustaa asian ympärille. Se riittäisi täysin että käyttäisivät directML apia, tai tekisivät sille oman koodipolun. Näin toimiessaan nvidia saisi tuosta nykyhypen siivittämänä defacto standardin (jota he itse hallinnoisivat) alalle, surullisen kananlennon sijaan.

edit: jopa se riittäisi, että dokumentoisivat dlss dll:n apikutsut ja mahdollistaisivat option enabloimisen myös muilla alustoilla jos joku toimiva dlss dll löytyy järjestelmästä.
 
Viimeksi muokattu:
Millainen tälläisen testin sinusta tulisi olla menetelmiltään?

Esim. ihan samanlainen kuin ne n+1 testiä joita jo nyt on olemassa joissa sitä verrataan natiiviin ja (yleensä) suositellaan laittamaan se päälle, eli arvostettu/puolueeton sivusto testaa ja antaa arvionsa.

Siis mitä ihmettä nyt taas? DLSS aiheuttaa kuvaan artifakteja, jotka eivät siihen kuulu, mikä tekee siitä objektiivisesti huonomman automaattisesti. Subjektiivisesti vastauksia on tasan yhtä monta kuin vastaajia.

No ei tee, voit toki väittää, että kuva ei ole oikea, mutta huonompaa se ei siitä millään muotoa automaattisesti tee, se on oma subjektiivinen näkemyksesi johon löytyy aika heikosti perusteluja.
 
Gooletapas vaikka dlss moire, sillä löytyy esim. tämä

Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.

Heinäkuulta, onko tämä nyt sitten rtx3000 ja dlss2 juttuja. Samat kaivetaan vielä vuosienkin päästä vaikka pelin ja ajurin päivitykset korjannu ongelmat.
 
Esim. ihan samanlainen kuin ne n+1 testiä joita jo nyt on olemassa joissa sitä verrataan natiiviin ja (yleensä) suositellaan laittamaan se päälle, eli arvostettu/puolueeton sivusto testaa ja antaa arvionsa.
Eli haluat että joku muka-meritoitunut henkilö subjektiivisesti arvioi tota humpuukia ilman alan (kuvatekniikka) erikoisosaamista?

Kaotik on arvostetun tietotekniikkasivuston sisällöntuottaja ja on tässä ketjussa antanut oman subjektiivisen arvionsa aiheesta, mutta se ei nyt jostain syystä sinulle kelpaa?
 
Gooletapas vaikka dlss moire, sillä löytyy esim. tämä

Death strandingissa dlss2.0 on paras optio. Se perus TAA blurraa kuvan ihan sutuksi, näkyy esim. hiuksissa. Ilman taa/dlss2.0 kamala shimmeröinti. Harmittavasti death strandingissä ei ole renderöintimoodia, joka olisi täysin virheetön. Tai no, toki vois renderöidä SSAA:lla, jos on kortti joka jaksaa isompia resoluutioita.
 
En ole missään kohtaa ehdottanut että nvidian pitäisi joku consortium perustaa asian ympärille. Se riittäisi täysin että käyttäisivät directML apia, tai tekisivät sille oman koodipolun. Näin toimiessaan nvidia saisi tuosta nykyhypen siivittämänä defacto standardin alalle surullisen kananlennon sijaan.
Asiat kehittyvät. Nvidia teki DLSS:n joka on pirun hyvä juttu. Nyt, kun AMD:tä ja Inteliä potkitaan perseelle Nvidian taholta DLSS:n muodossa, niin niillä on painetta kehitellä joku toimiva ratkaisu mahdollisimman äkkiä. Sillävälin loput voivat nauttia DLSS:stä. Ei ole aikaa kiistellä ja vääntää suuntaan ja toiseen tai Nvidia pysyy asiassa edellä..
Lisäksi on tietysti konsolien liian suorituskyvyttömät GPU:t (kun mainostivat 4K:ta) , jotka vaativat myös kipeästi jotain vastaavaa ja vielä enemmän. Tämä pitää huolen, että MS telkee DX:n kanssa parhaansa..

Sitten kun on joku enemmän tai vähemmän "open" / DX versio olemassa ja jos ja kun se on toimiva, niin pidän miltei varmana, että Nvidiakin tukee sitä.
----------------------
Valmistustekniikka asettaa kokoajan pahempia rajoitteita isommille piireille. Lisäksi höperöt mielipuolet ovat vaatimassa monitoreihin 8K resoja ja suuria virkistystaajuuksia (eihan nyt kukaan alle 240 FPS:n pelaa!, jos tiettyihin threadeihin täällä katsotaan). On täysin selvää, että mikään näyttis ei tule noihin kykenemään. Skaalauksia tullaan käyttämään tulevaisuudessa enenevässä määrin.
----------------------
Oma lukunsa on tietysti sitten läppärit, joissa on tiukat TDP rajat ja GPU:t ovat huomattavan mopoja VS pöytäkoneet..
 
Death strandingissa dlss2.0 on paras optio. Se perus TAA blurraa kuvan ihan sutuksi, näkyy esim. hiuksissa. Ilman taa/dlss2.0 kamala shimmeröinti. Harmittavasti death strandingissä ei ole renderöintimoodia, joka olisi täysin virheetön. Tai no, toki vois renderöidä SSAA:lla, jos on kortti joka jaksaa isompia resoluutioita.
Taas kunnon whataboutismia. Huono TAA toteutus ei tarkoita etteikö DLSS:ssä olisi mainittuja virheitä, joita täällä monet jostain syystä tykkää kieltää. Kyseisessä pelissä DLSS on objektiivisesti huono optio, sillä se ei ole käytettävissä valtaosalla pelaajista.
Enemmän taitaa kirjoitella yksityishenkilönä hyvin punaisten lasien läpi, kuin puolueettomana sisällöntuottajana
Subjektiiviset kokemukset (joiden perään @AvatarX kuulutti) on aina subjektiivisia kokemuksia. Niistä ei voi henkilöä ottaa pois.
Asiat kehittyvät. Nvidia teki DLSS:n joka on pirun hyvä juttu. Nyt, kun AMD:tä ja Inteliä potkitaan perseelle Nvidian taholta DLSS:n muodossa, niin niillä on painetta kehitellä joku toimiva ratkaisu mahdollisimman äkkiä. Sillävälin loput voivat nauttia DLSS:stä. Ei ole aikaa kiistellä ja vääntää suuntaan ja toiseen tai Nvidia pysyy asiassa edellä..
Lisäksi on tietysti konsolien liian suorituskyvyttömät GPU:t (kun mainostivat 4K:ta) , jotka vaativat myös kipeästi jotain vastaavaa ja vielä enemmän. Tämä pitää huolen, että MS telkee DX:n kanssa parhaansa..

Sitten kun on joku enemmän tai vähemmän "open" / DX versio olemassa ja jos ja kun se on toimiva, niin pidän miltei varmana, että Nvidiakin tukee sitä.
----------------------
Valmistustekniikka asettaa kokoajan pahempia rajoitteita isommille piireille. Lisäksi höperöt mielipuolet ovat vaatimassa monitoreihin 8K resoja ja suuria virkistystaajuuksia (eihan nyt kukaan alle 240 FPS:n pelaa!, jos tiettyihin threadeihin täällä katsotaan). On täysin selvää, että mikään näyttis ei tule noihin kykenemään. Skaalauksia tullaan käyttämään tulevaisuudessa enenevässä määrin.
----------------------
Oma lukunsa on tietysti sitten läppärit, joissa on tiukat TDP rajat ja GPU:t ovat huomattavan mopoja VS pöytäkoneet..
Kunnon romaanin kirjoitit taas ja sisältöä pyöreät nolla. Nvidialla olisi avaimet käsissä olla se taho joka määrittää nuo tulevat avoimet tai puoliavoimet skaalaustekniikat omilla ehdoillaan. Sen sijaan se nyt onanoi nurkassaan ja sen tekniikka tullaan unohtamaan parin vuoden kuluttua.
 
Heinäkuulta, onko tämä nyt sitten rtx3000 ja dlss2 juttuja. Samat kaivetaan vielä vuosienkin päästä vaikka pelin ja ajurin päivitykset korjannu ongelmat.
On DLSS 2.0 ja pätee myös 3000 sarjaan ja on edelleen. Samassa pelissä on myös mm tällaista pientä (timestamp)
Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.


Unohtamatta halo-artifakteja terävöityksen vuoksi ja partikkeliefektitkin se hajottaa:
Tältä pitäisi näyttää (tämäkin on itseasiassa upscalettu kuva mutta ei DLSS:llä)
1606693865138.png


Tältä näyttää:
1606693895513.png
 
Taas kunnon whataboutismia. Huono TAA toteutus ei tarkoita etteikö DLSS:ssä olisi mainittuja virheitä, joita täällä monet jostain syystä tykkää kieltää. Kyseisessä pelissä DLSS on objektiivisesti huono optio, sillä se ei ole käytettävissä valtaosalla pelaajista.

Mun pointti asiassa oli, että kun tästä keskustellaa niin asiaa voi katsoa monesta kulmasta. Yksi kulma on teoreettinen mikä on paras mahdollinen asia maailmassa. Toinen kulma voi olla, että haluan pelata peliä X, mikä on pelissä X paras mahdollinen optio. Se miksi halusin asiasta mainita on, että esim. death stranding pelissä dlss2.0 on se realistinen paras vaihtoehto, kun ne muut vaihtoehdot ovat vielä huonompia. Toki kolmas kulma on skipata kaikki pelit, missä ei ole täydelliset grafiikat. Täällä vääntäessä vaan monesti unohtuu se realismi pelien kohdalla, että mitä vaihtoehtoja pelissä on tarjolla ja niistä se pienimmän pahan valitseminen. Toisinaan paraskaan pelissä tarjolla oleva vaihtoehto ei ole täydellinen. Eikä ne viat mitä löytyy välttämättä yleisty koko peliin vaan niitä on tuntikausia metsästetty, että löydetään paikka mistä voi valittaa.
 
On DLSS 2.0 ja pätee myös 3000 sarjaan ja on edelleen. Samassa pelissä on myös mm tällaista pientä (timestamp)
Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.


Unohtamatta halo-artifakteja terävöityksen vuoksi ja partikkeliefektitkin se hajottaa:
Tältä pitäisi näyttää (tämäkin on itseasiassa upscalettu kuva mutta ei DLSS:llä)
1606693865138.png


Tältä näyttää:
1606693895513.png

Aivan pelikelvotonta kertakaikkiaan
 

Uusimmat viestit

Statistiikka

Viestiketjuista
297 600
Viestejä
5 075 781
Jäsenet
81 336
Uusin jäsen
jorskaattori

Hinta.fi

Back
Ylös Bottom