Samat kehitysresurssit voisi käyttää ihan hyvin johonkin muuhun. Eli siis jos pelistä löytyy DLSS, niin siinä voisi olla sen tilalla jotain objektiivisesti hyödyllistäkin.Se ei olisi ollut keneltäkään pois, jis Rift Brakerissä olisin ollut DLSS.
Follow along with the video below to see how to install our site as a web app on your home screen.
Huomio: This feature may not be available in some browsers.
Samat kehitysresurssit voisi käyttää ihan hyvin johonkin muuhun. Eli siis jos pelistä löytyy DLSS, niin siinä voisi olla sen tilalla jotain objektiivisesti hyödyllistäkin.Se ei olisi ollut keneltäkään pois, jis Rift Brakerissä olisin ollut DLSS.
Se DLSS ei edelleenkään ole mikään tekoälykiihdytys. Sen kun laittaa päälle peli renderöidään pienemmällä resoluutiolla. Todennäköisesti 1080p noissa testeissä.
Oletko trolli vai etkö oikeasti ymmärrä mistä tuossa DLSS:ssä on kyse?![]()
Ei tässä nyt mitään hattuvakioita heitetä vaan näytönohjainvalmistajan listaamia ominaisuuksia.
Syyttelijöiden on ensin syytä katsoa rehellisesti peiliin ennenkuin alkaa muita sormella osoittamaan.
AMD:lla nuo tehdään jollain softakikkareella niin kyllä se on ihan AMD:n omassa kädessä että ei ole tässä 3v aikana pistänyt paukkuja uusiin tekniikoihin.
käsitin että superresolution hoidettaisiin sitten compute uniteilla?
DirectML pitäisi toimia lähes kaikilla DX12 näytönohjaimilla GitHub sivujen mukaan.Missä näin? Super Resolutionin (sen tulevan) teknisestä toteutuksesta en ole nähnyt edes huhuja. Microsoftilta löytyy tietoa tuosta Direct ML:stä, mutta tuon ja Super Resolutionin välisestä teknisestä toteutuksesta en ole löytänyt mitään tietoa.
Olisi myös mielenkiintoista tietää, että onko Nvidialla jotain tuohon Direct ML:ään liittyvää työn alla, vai luottaako Nvidia DLSS:än leviämiseen sataprosenttisesti.
Sitä varten AMD:lla on siellä (Microsoftin Xboxiinkin haluamat) 4:1 INT8 ja 8:1 INT4 tuet laskentayksiköissä.DirectML pitäisi toimia lähes kaikilla DX12 näytönohjaimilla GitHub sivujen mukaan.
AMD:n tämän hetkisissä pelikorteissa ei ole mitään NVIDIA:n tensori neuroverkkolaskentayksiköitä vastaavaa eli AMD:n korteilla ei ole muuta vaihtoehtoa kuin kiihdyttää normaaleilla shader-ytimillä. NVIDIA:lla voi periaattessa olla mukava suorituskyky etu DirectML toteutuksissa jos siellä on asioita mitä voidaan kiihdyttää tensori-ytimillä.
Niin tiedän, mutta eikö tuo jää silti kaus tensoriytimien INT4 JA INT8 suorituskyvystä?Sitä varten AMD:lla on siellä (Microsoftin Xboxiinkin haluamat) 4:1 INT8 ja 8:1 INT4 tuet laskentayksiköissä.
Sitä varten AMD:lla on siellä (Microsoftin Xboxiinkin haluamat) 4:1 INT8 ja 8:1 INT4 tuet laskentayksiköissä.
RDNA2:ssa on (myös Xbox-versiossa), juuri siitä puhuin kun tässä näistä uusimman sukupolven vehkeistä on kerran ollut puhe.Radeon VIIssä on, RDNA1ssä ei ole, onko RDNA2ssa, siitä en ole varma.
Ja raaka nopeus näillä AMDn matalan tarkuuden konvoluutio-/pistetulokäskyillä on selvästi hitaampi kuin nVidian tensoriytimillä.
CDNAssa on sitten matriisikiihdytinyksiköt jotka vastaavat nvidian tensoriytimiä, tosin ne on enemmän optimoitu fp32- ja fp16-tarkkuuksille
Jos kyse on tensorilaskuista niin kyllä, mutta NVIDIA ei tainnut mainostella mitään lukuja muille ko. tarkkuuden laskuille.Niin tiedän, mutta eikö tuo jää silti kaus tensoriytimien INT4 JA INT8 suorituskyvystä?
.
Sinulla tuntuu nyt olevan jotenkin sellainen kuva, että minä haluaisin "kieltää DLSS:n" tai muuta vastaavaa, mikä ei missään nimessä pidä paikkaansa. Minä olen vain sitä vastaan miten jotkut yleistävät sen jotenkin ehdottomaksi plussaksi (ja vastaavasti puutteen miinukseksi) sekä näitä aivopieruja mitä porukka on heitellyt, kuten että DLSS pitäisi olla suorituskykytesteissä päällä![]()

Tässä DLSS ei ole mitään muuta ongelmaa kuin että se on Nvidian.Mites sellainen hypoteettinen "kuvanhuononnustekniikka", joka skaalaa resoa esim. 99%:iin ja nostaa ruudunpäivityksen kymmenkertaiseksi?![]()
Juuri näinhän se on. DLSS on täydellinen tekniikka jossa ei ole mitään ongelmia. /sTässä DLSS ei ole mitään muuta ongelmaa kuin että se on Nvidian.
Tämä yksistään aiheuttaa sen että asiasta ei välttämättä voi saada neutraalia keskustelua tai neutraalia näkökantaa toisen merkin kannattajilta.
Lisäksi kun ominaisuus on On/Off tyylinen niin ihmeen paljon se tekee joissakin henkilöissä sitä kuuluisaa peppukipuilua vaikka sen voisi pistää OFF halutessaan jos omistaa sen Nvidian ohjaimen.
Tosin osa joka tuostakin kipuilee ei edes omista Nvidian ohjainta joten DLSS tuskin on heille edes todellinen ongelma käytännössä.
Se muodostuu ongelmaksi siksi koska DLSS oikeasti toimii ja sen avulla suorituskyky voi olla selvästi kilpailijaa nopeampi jolloin kovimmat kannattajat ottavat sen mahdollisesti uhkana ja yrittävät "damagecontrolin" avulla keksiä syitä miksi se olisi kaikkea muuta kuin hyvä.
Eli ihan perus kannatus diipadaapaa.
Kyllä, mutta kun se paskoo omilla artifakteillaan ja bugeillaan kuvaa tulos on kuitenkin huonompi. Jos ei artifaktit häiritse niin toki se silloin on hyvä.
En nyt parempaakaan ketjua keksinyt, mutta tässä hieno esimerkki siitä miten mennään perse edellä puuhun säteenseurannan kanssa.
Pelissä joka paikka kiiltää kuin peili, paitsi vessan peiliVideo timestampattu.
Kuvanlaatu on subjektiivinen kokemus. Vaikea tuosta on mitään objektiivista testiä tehdä, etenkin kun mitattavien metriikoiden valitseminen olisi kunnon paskamyrsky.Onko tälle lähdettä vai onko se omaa mutua? Eli missä löytyy testi jossa DLSS päällä tuottaa huonomman kuvan kuin asetuksia tiputtamalla?
En katsonut mitä kaikkea on mutta kun tota alkua selasi kaikki kadut ja junat kiilsi kuin viimeistä päivää, ehkä nekin oli sitten screenspacessa vain.Tossa pelissähän on vain RT varjot + RT ambient occlusion, ei RT heijastuksia.
Et voi verrata appelsiineja ja omenoita. DLSS:n artifaktit ovat kuitenkin kiistattomia ja niistä löytyy materiaalia tästäkin ketjusta sivukaupalla.Onko tälle lähdettä vai onko se omaa mutua? Eli missä löytyy testi jossa DLSS päällä tuottaa huonomman kuvan kuin asetuksia tiputtamalla?
DLSS on erittäin hyväksi käytännössä todettu tekniikka. Jos pitää sen huonoja puolia pelikelvottomuuden aiheuttajana, niin sen voi pistää poispäältä, joten se ei ole ongelma sillekään, joka sitä ei halua käyttää.Juuri näinhän se on. DLSS on täydellinen tekniikka jossa ei ole mitään ongelmia. /s
Huoh. Ei olisi varmaan ihan kauheasti kauemmin mennyt toteuttaa tuo vaikka direct ML:llä ja dumpata kyseinen dll lähdekoodeineen githubiin. Avoin lähdekoodi tai avoimet tekniikat ei tarkoita etteikö softan kehittämistä voisi tehdä yksityisenä tahona miten haluaa. Vai yritätkö sanoa että direct ML on niin paljon huonompi API, että nvidian insinöörillä menee huomattavasti enemmän aikaa softan koodaamiseen sillä vs. että käyttäisi cudaa?JOS DLSS olisi avoin tekniikka, niin sen kehittäminen olisi huomattavasti hitaampaa, kun samaa kattilaa olisi hämmentämässä useampi taho. Se ilmiöhän on nähty open sitä ja tätä virityksissä kerta toisensa jälkeen.
DLSS on erittäin hyväksi käytännössä todettu tekniikka. Jos pitää sen huonoja puolia pelikelvottomuuden aiheuttajana, niin sen voi pistää poispäältä, joten se ei ole ongelma sillekään, joka sitä ei halua käyttää.
JOS DLSS olisi avoin tekniikka, niin sen kehittäminen olisi huomattavasti hitaampaa, kun samaa kattilaa olisi hämmentämässä useampi taho. Se ilmiöhän on nähty open sitä ja tätä virityksissä kerta toisensa jälkeen.
Jos kaikki valmistajat saavat joskus aikaan rautaa, jolla vastaava avoin tekniikka toimii, niin sitten käytetään varmasti siinä vaiheessa sitä.
MS:llä on kova paine kehitellä sitä kun nyt on käynyt ilmi, että AMD:n RT suorituskyky on "haasteellinen" ja MS:n uusi konsoli on sen kanssa naimisissa, eikä muuksi muutu. Voi olla hikistä hommaa konsolien nysä AMD GPUilla koittaa puristella enepiä RT efektejä sinne sekaan ja kun resoluutioksikin on hehkutettu 4K:ta.. Voipi FPS olla sitten 10:nen luokkaa, jos ei "oikota" enemmän ja vähemmän.. DLSS2 olisi niissä hyvä, mutta taitaa olla teknisesti mahdoton. (GPU ei ole sopiva ko hommaan).
Melkoisen suurella todennäköisyydellä valmistajan oma alusta (olkoon se sitten cuda tai joku muu) toimii valmistajan omalla raudalla parhaiten. Jollain kolmannen osapuolen alustalla menetetään osa suorituskyvystä hyvinkin helposti.. Muutenkin noiden "open" systeemien kanssa tahtoo aina olle ihan mahdotonta vänkäystä ja hommat ei oikein etene VS kun käytetään omia, niin muilta ei tarvitse kysyä yhtään mitään.Huoh. Ei olisi varmaan ihan kauheasti kauemmin mennyt toteuttaa tuo vaikka direct ML:llä ja dumpata kyseinen dll lähdekoodeineen githubiin. Avoin lähdekoodi tai avoimet tekniikat ei tarkoita etteikö softan kehittämistä voisi tehdä yksityisenä tahona miten haluaa. Vai yritätkö sanoa että direct ML on niin paljon huonompi API, että nvidian insinöörillä menee huomattavasti enemmän aikaa softan koodaamiseen sillä vs. että käyttäisi cudaa?
Juuri näin! Sillä olisi nyt mahdollisuus luoda tuosta defacto skaalaustekniikka omien vahvuuksiensa mukaisesti. Jostain syystä nvidia vaan ei noin halua toimia ja DLSS jää suurella varmuudella kananlennoksi siinä missä aiemmatkin vastaavat proprietaariviritykset.nVidian nimenomaan KANNATTAISI avata DLSS kaikelle raudalle, että se voisi sen jälkeen mainostaa, kuinka paljon nopeampia Ampere ja Turing on kun rauta jossa ei ole matriisiyksi9köitä.
keneltä mun pitää kysyä ja mitä jos haluan tehdä jonkin kikkareen direct ML:llä?Melkoisen suurella todennäköisyydellä valmistajan oma alusta (olkoon se sitten cuda tai joku muu) toimii valmistajan omalla raudalla parhaiten. Jollain kolmannen osapuolen alustalla menetetään osa suorituskyvystä hyvinkin helposti.. Muutenkin noiden "open" systeemien kanssa tahtoo aina olle ihan mahdotonta vänkäystä ja hommat ei oikein etene VS kun käytetään omia, niin muilta ei tarvitse kysyä yhtään mitään.
Kukin tyylillään, mutta mielestäni melko lapsellista piikittelyä alkaa yleisnimittämää ominaisuutta "kuvanhuononnustekniikaksi". Tottakai faktoissa pitää pysytellä, mutta sellanen tahallinen piikittely ominaisuuden heikkouksesta eikä yhtään yritä tuoda esille sitä mihin sitä on oikeasti suunniteltu käytettäväksi.
Ei ymmärrä.
Vänkäystä voisi esim esiintyä pelikehittäjiä kohtaan, siitä, miten ko laajennusta tulisi käyttää, Nyt sitäkään mahdollisuutte ei ole. Samoin olisi todennäköisesti nillitystä siellä käytetyistä ratkaisusta, jos ja kun ne toimivat jollain tietyllä raudalla paremmin ja jokainen koittaisi vängätä sinne omat virityksesnsä, joka puolestaan heikentisi tilannetta....
keneltä mun pitää kysyä ja mitä jos haluan tehdä jonkin kikkareen direct ML:llä?
Et voi verrata appelsiineja ja omenoita. DLSS:n artifaktit ovat kuitenkin kiistattomia ja niistä löytyy materiaalia tästäkin ketjusta sivukaupalla.
Ei se ole mitään "piikittelyä" vaan faktaa.
Se, että tätä kutsuu "piikittelyksi" on melko typerää firman mainoshömpän kriitikitöntä uskomista.
DLSS renderöi kuvan matalammalla resoluutiolla, se tuottaa vähemmän informaatiota.
Sen jälkeen se tämän matalaresoluutiosen kuvan perusteella neuroverkon avustuksella "arpoo" sinne puuttuvat kohdat.
Kuvasit juuri DLSS:n suurimmat ongelmat. Miten avoimuus heikentää tilannetta?Samoin olisi todennäköisesti nillitystä siellä käytetyistä ratkaisusta, jos ja kun ne toimivat jollain tietyllä raudalla paremmin ja jokainen koittaisi vängätä sinne omat virityksesnsä, joka puolestaan heikentisi tilannetta.
Ei se ole mitään "piikittelyä" vaan faktaa.
Se, että tätä kutsuu "piikittelyksi" on melko typerää firman mainoshömpän kriitikitöntä uskomista.
DLSS renderöi kuvan matalammalla resoluutiolla, se tuottaa vähemmän informaatiota.
Sen jälkeen se tämän matalaresoluutiosen kuvan perusteella neuroverkon avustuksella "arpoo" sinne puuttuvat kohdat.
Usein se onnistuu tuottamaan melko kauniin kuvan(joka silti ei vastaa alkuperäistä yksityiskohdiltaan), välillä se mokaa ja kuvaan tulee hassuja artefakteja,.
Keskimäärin se sijoittuu kuvanlaadultaan täyden resoluution natiivikuvan ja yksinkertaisimmilla algoritmeilla ylösskaalatun matalaresoluutiokuvan välille.
Joo, sen tällaisista kommenteista kyllä huomaa.
Se, että kuvittelee että neuroverkko on taikakapine jolla voitaisiin vajaasta infromaatiosta generoitua enemmän oikeaa informaatiota osoittaa melkoista ymmärtämättömyyttä.

Millainen tälläisen testin sinusta tulisi olla menetelmiltään?Eli ei löytynyt ensimmäistäkään testiä joka tukisi väitettäsi.
Katsoppa vaikka miten OPEN GL kehittyi VS Direct X ja hyvällä tuurilla asia härmistyy sinulle. Jos ei selviä, niin en osaa auttaa ongelmasi kanssa.Kuvasit juuri DLSS:n suurimmat ongelmat. Miten avoimuus heikentää tilannetta?
Siis mitä ihmettä nyt taas? DLSS aiheuttaa kuvaan artifakteja, jotka eivät siihen kuulu, mikä tekee siitä objektiivisesti huonomman automaattisesti. Subjektiivisesti vastauksia on tasan yhtä monta kuin vastaajia.Eli ei löytynyt ensimmäistäkään testiä joka tukisi väitettäsi.
Eli ei löytynyt ensimmäistäkään testiä joka tukisi väitettäsi.
En ole missään kohtaa ehdottanut että nvidian pitäisi joku consortium perustaa asian ympärille. Se riittäisi täysin että käyttäisivät directML apia, tai tekisivät sille oman koodipolun. Näin toimiessaan nvidia saisi tuosta nykyhypen siivittämänä defacto standardin (jota he itse hallinnoisivat) alalle, surullisen kananlennon sijaan.Katsoppa vaikka miten OPEN GL kehittyi VS Direct X ja hyvällä tuurilla asia härmistyy sinulle. Jos ei selviä, niin en osaa auttaa ongelmasi kanssa.
Millainen tälläisen testin sinusta tulisi olla menetelmiltään?
Siis mitä ihmettä nyt taas? DLSS aiheuttaa kuvaan artifakteja, jotka eivät siihen kuulu, mikä tekee siitä objektiivisesti huonomman automaattisesti. Subjektiivisesti vastauksia on tasan yhtä monta kuin vastaajia.
Gooletapas vaikka dlss moire, sillä löytyy esim. tämä
On.Heinäkuulta, onko tämä nyt sitten rtx3000 ja dlss2 juttuja. Samat kaivetaan vielä vuosienkin päästä vaikka pelin ja ajurin päivitykset korjannu ongelmat.
Gooletapas vaikka dlss moire, sillä löytyy esim. tämä
Eli haluat että joku muka-meritoitunut henkilö subjektiivisesti arvioi tota humpuukia ilman alan (kuvatekniikka) erikoisosaamista?Esim. ihan samanlainen kuin ne n+1 testiä joita jo nyt on olemassa joissa sitä verrataan natiiviin ja (yleensä) suositellaan laittamaan se päälle, eli arvostettu/puolueeton sivusto testaa ja antaa arvionsa.
Gooletapas vaikka dlss moire, sillä löytyy esim. tämä
Enemmän taitaa kirjoitella yksityishenkilönä hyvin punaisten lasien läpi, kuin puolueettomana sisällöntuottajanaKaotik on arvostetun tietotekniikkasivuston sisällöntuottaja ja on tässä ketjussa antanut oman subjektiivisen arvionsa aiheesta, mutta se ei nyt jostain syystä sinulle kelpaa?
Asiat kehittyvät. Nvidia teki DLSS:n joka on pirun hyvä juttu. Nyt, kun AMD:tä ja Inteliä potkitaan perseelle Nvidian taholta DLSS:n muodossa, niin niillä on painetta kehitellä joku toimiva ratkaisu mahdollisimman äkkiä. Sillävälin loput voivat nauttia DLSS:stä. Ei ole aikaa kiistellä ja vääntää suuntaan ja toiseen tai Nvidia pysyy asiassa edellä..En ole missään kohtaa ehdottanut että nvidian pitäisi joku consortium perustaa asian ympärille. Se riittäisi täysin että käyttäisivät directML apia, tai tekisivät sille oman koodipolun. Näin toimiessaan nvidia saisi tuosta nykyhypen siivittämänä defacto standardin alalle surullisen kananlennon sijaan.
Taas kunnon whataboutismia. Huono TAA toteutus ei tarkoita etteikö DLSS:ssä olisi mainittuja virheitä, joita täällä monet jostain syystä tykkää kieltää. Kyseisessä pelissä DLSS on objektiivisesti huono optio, sillä se ei ole käytettävissä valtaosalla pelaajista.Death strandingissa dlss2.0 on paras optio. Se perus TAA blurraa kuvan ihan sutuksi, näkyy esim. hiuksissa. Ilman taa/dlss2.0 kamala shimmeröinti. Harmittavasti death strandingissä ei ole renderöintimoodia, joka olisi täysin virheetön. Tai no, toki vois renderöidä SSAA:lla, jos on kortti joka jaksaa isompia resoluutioita.
Subjektiiviset kokemukset (joiden perään @AvatarX kuulutti) on aina subjektiivisia kokemuksia. Niistä ei voi henkilöä ottaa pois.Enemmän taitaa kirjoitella yksityishenkilönä hyvin punaisten lasien läpi, kuin puolueettomana sisällöntuottajana
Kunnon romaanin kirjoitit taas ja sisältöä pyöreät nolla. Nvidialla olisi avaimet käsissä olla se taho joka määrittää nuo tulevat avoimet tai puoliavoimet skaalaustekniikat omilla ehdoillaan. Sen sijaan se nyt onanoi nurkassaan ja sen tekniikka tullaan unohtamaan parin vuoden kuluttua.Asiat kehittyvät. Nvidia teki DLSS:n joka on pirun hyvä juttu. Nyt, kun AMD:tä ja Inteliä potkitaan perseelle Nvidian taholta DLSS:n muodossa, niin niillä on painetta kehitellä joku toimiva ratkaisu mahdollisimman äkkiä. Sillävälin loput voivat nauttia DLSS:stä. Ei ole aikaa kiistellä ja vääntää suuntaan ja toiseen tai Nvidia pysyy asiassa edellä..
Lisäksi on tietysti konsolien liian suorituskyvyttömät GPU:t (kun mainostivat 4K:ta) , jotka vaativat myös kipeästi jotain vastaavaa ja vielä enemmän. Tämä pitää huolen, että MS telkee DX:n kanssa parhaansa..
Sitten kun on joku enemmän tai vähemmän "open" / DX versio olemassa ja jos ja kun se on toimiva, niin pidän miltei varmana, että Nvidiakin tukee sitä.
----------------------
Valmistustekniikka asettaa kokoajan pahempia rajoitteita isommille piireille. Lisäksi höperöt mielipuolet ovat vaatimassa monitoreihin 8K resoja ja suuria virkistystaajuuksia (eihan nyt kukaan alle 240 FPS:n pelaa!, jos tiettyihin threadeihin täällä katsotaan). On täysin selvää, että mikään näyttis ei tule noihin kykenemään. Skaalauksia tullaan käyttämään tulevaisuudessa enenevässä määrin.
----------------------
Oma lukunsa on tietysti sitten läppärit, joissa on tiukat TDP rajat ja GPU:t ovat huomattavan mopoja VS pöytäkoneet..
On DLSS 2.0 ja pätee myös 3000 sarjaan ja on edelleen. Samassa pelissä on myös mm tällaista pientä (timestamp)Heinäkuulta, onko tämä nyt sitten rtx3000 ja dlss2 juttuja. Samat kaivetaan vielä vuosienkin päästä vaikka pelin ja ajurin päivitykset korjannu ongelmat.
Taas kunnon whataboutismia. Huono TAA toteutus ei tarkoita etteikö DLSS:ssä olisi mainittuja virheitä, joita täällä monet jostain syystä tykkää kieltää. Kyseisessä pelissä DLSS on objektiivisesti huono optio, sillä se ei ole käytettävissä valtaosalla pelaajista.
On DLSS 2.0 ja pätee myös 3000 sarjaan ja on edelleen. Samassa pelissä on myös mm tällaista pientä (timestamp)
Unohtamatta halo-artifakteja terävöityksen vuoksi ja partikkeliefektitkin se hajottaa:
Tältä pitäisi näyttää (tämäkin on itseasiassa upscalettu kuva mutta ei DLSS:llä)
![]()
Tältä näyttää:
![]()
Käytämme välttämättömiä evästeitä, jotta tämä sivusto toimisi, ja valinnaisia evästeitä käyttökokemuksesi parantamiseksi.