Virallinen: NVIDIA vs AMD (vs Intel) keskustelu- ja väittelyketju

  • Keskustelun aloittaja Keskustelun aloittaja Sampsa
  • Aloitettu Aloitettu
Liittyi jotenkin ponte vechioon, mutta joo. Kyllä siellä liikkui puheita noista 6 ja 7nm myös. Itsellä on kyllä se kokemus noista intelin ajureista, että niistä ei ole vieläkään ollut juuri mihinkään kevyessäkään peli käytössä.

Ei niin iris pro -aikoina, kuin nytkään. Välillä pelit ei käynnisty lainkaan ja välillä tulee kesken peliä aivan järjettömiä artifakteja, repeilyä jne. On tullut googleteltua aika paljon apua erinäisiin ongelmiin ja välillä ei ole ihan varma edes onko integroitu piiri rikki vai mitä.

En itseasiassa yllättyisi jos suurin osa noista integroiduista intelin grafiikkasiruista olisi viallisia joiltain osin. Käyttäjät vaan harvemmin käyttävät niitä pelaamiseen.
Se että kaikki pelit eivät toimi ei tarkoita etteikö niihin panostettaisi ja olisi nostettu panostusta jo hyvissä ajoin ennakkoon ennen Xe:tä, johon on vielä panostettu lisää.
 
  • Tykkää
Reactions: VmH
Se että kaikki pelit eivät toimi ei tarkoita etteikö niihin panostettaisi ja olisi nostettu panostusta jo hyvissä ajoin ennakkoon ennen Xe:tä, johon on vielä panostettu lisää.

Verrattuna siis AMD:n ja Nvidiaan, siellä on panostettu ihan oikeasti näihin asioihin. Ja siis jos nyt haluaisi integroidulla näytönohjaimella pelailla jotain pientä, niin suosittelisin ehdottomasti ennemmin AMD:tä, koska ajurit.
 
Liittyi jotenkin ponte vechioon, mutta joo. Kyllä siellä liikkui puheita noista 6 ja 7nm myös. Itsellä on kyllä se kokemus noista intelin ajureista, että niistä ei ole vieläkään ollut juuri mihinkään kevyessäkään peli käytössä.

Ei niin iris pro -aikoina, kuin nytkään. Välillä pelit ei käynnisty lainkaan ja välillä tulee kesken peliä aivan järjettömiä artifakteja, repeilyä jne. On tullut googleteltua aika paljon apua erinäisiin ongelmiin ja välillä ei ole ihan varma edes onko integroitu piiri rikki vai mitä.

En itseasiassa yllättyisi jos suurin osa noista integroiduista intelin grafiikkasiruista olisi viallisia joiltain osin. Käyttäjät vaan harvemmin käyttävät niitä pelaamiseen.
Eipä omalle kohdalle ole sattunut pelejä missä ei intelin integroitu olisi toiminut. Hitaita kyllä mutta toimineet aina. En siis itse käytä mutta lasten koneissa on ollut alkuun käytössä, jos siitä pelaamisesta ovat alkaneet tykkäämään niin erillinen hankittu. Yllättävän moni niitä käyttää satunnaiseen pelaamiseen.
 
Eipä omalle kohdalle ole sattunut pelejä missä ei intelin integroitu olisi toiminut. Hitaita kyllä mutta toimineet aina. En siis itse käytä mutta lasten koneissa on ollut alkuun käytössä, jos siitä pelaamisesta ovat alkaneet tykkäämään niin erillinen hankittu. Yllättävän moni niitä käyttää satunnaiseen pelaamiseen.

Itsellä on. Mm. War thunder, world of tanks, world of warships (tietyillä pätseillä), ja aika yllättävän moni muu f2p peli.
 
Itsellä on. Mm. War thunder, world of tanks, world of warships (tietyillä pätseillä), ja aika yllättävän moni muu f2p peli.
Eipä ole wot.issa ollut itsellä mitään ongelmia intelin integroidun kanssa mitä on läppärillä tullut pelattua
 
Eipä ole wot.issa ollut itsellä mitään ongelmia intelin integroidun kanssa mitä on läppärillä tullut pelattua

Jolloin päästäänkin mielenkiintoiseen keskusteluun, että onko intelin grafiikkapiirit "yksilöitä" (kuten intel niitä kutsuu) vaiko mäsänä. Vai pitääkö ajurit poistaa rekisteristä lähtien. Sitäkin on joutunut tekemään.
 
Ei tarvi edes vaivautua asentamaan ajureita, kun pelikohtaiset optimoinnit tippuu pilvestä. :cigar:

Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.
 
Ei tarvi edes vaivautua asentamaan ajureita, kun pelikohtaiset optimoinnit tippuu pilvestä. :cigar:

Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.


Tuo ''Game Tuning'' kuulostaa joltain Nvidian Gefore Experiencen tapaiselta jossa softa ''optimoi'' pelien sisäisiä grafiikka-asetuksia. Jollekkin totaali-amatööreille ehkä hyödyllinen, muille ei. Voihan sieltä tulla myös jotain AMD Softwaren tapaisia ajureiden omia ''texture filtering -> Performance / Quality'' -tapaisia valinnan mahdollisuuksia.

Ajureiden asennukseen en itse kaipaa mitään mullistavia asioita. Sekä Nvidialla että AMD:lla ajureiden asennus hoituu parissa minuutissa ilman säätöjä. Näin itsellä 15 vuoden aikana. Kauhutarinoitakin liikkuu molemmista leireistä ;) Yleisesti hyvällä tasolla molemmilla.
 
  • Tykkää
Reactions: VmH
Tuo ''Game Tuning'' kuulostaa joltain Nvidian Gefore Experiencen tapaiselta jossa softa ''optimoi'' pelien sisäisiä grafiikka-asetuksia. Jollekkin totaali-amatööreille ehkä hyödyllinen, muille ei. Voihan sieltä tulla myös jotain AMD Softwaren tapaisia ajureiden omia ''texture filtering -> Performance / Quality'' -tapaisia valinnan mahdollisuuksia.

Ajureiden asennukseen en itse kaipaa mitään mullistavia asioita. Sekä Nvidialla että AMD:lla ajureiden asennus hoituu parissa minuutissa ilman säätöjä. Näin itsellä 15 vuoden aikana. Kauhutarinoitakin liikkuu molemmista leireistä ;) Yleisesti hyvällä tasolla molemmilla.
Se voi kuulostaa ihan miltä tahansa, mutta jos olisit lukenut io-techin uutisia tietäisit että kyse on viimeisimpien pelikohtaisten korjausten ja optimointien toimittamisesta käyttäjille ilman, että koko ajureita tarvitsee päivittää. Tai oikeastaan siihen olisi riittänyt tuon yhden dian lukeminenkin.

edit: ja se ei ole siis mikään "ajureiden asennusta mullistava asia" vaan yksinkertaisesti toimitetaan ne optimoinnit ja korjaukset nimenomaan ilman mitään ajuripäivityksiä, bootteja tai muuta.
 
Se voi kuulostaa ihan miltä tahansa, mutta jos olisit lukenut io-techin uutisia tietäisit että kyse on viimeisimpien pelikohtaisten korjausten ja optimointien toimittamisesta käyttäjille ilman, että koko ajureita tarvitsee päivittää.

Joo näköjään tullut uutinen siitä, pitää käydä lukasemassa.
 
Kyllä nuo Intelin suunnitelmat vaikuttavat ihan lupaavilta. Seuraava vuosi tulee olemaan mielenkiintoinen.
 
Mutta siis AMD:llähän on aina paremmat kortit, pelintekijät on vaan kaikki nvidian maksettuja kätyreitä ja ne ei käytä niitä tehoja.

Nvidia on likaisiin temppuihin turvautunut saamatta siitä mitään penaltyy joten miksei turvautuisi myös jatkossa?

Lähes aina kun näytönohjain valmistaja syytää rahaa jollekin pelifirmalle niin silloin ajatuksena on saada jotain hyötyä omalle firmalle. Ei pelintekijät ala RTX ja DLSS hässäköitä väsäämään peliin jos ne eivät toimi kaikilla korteilla. Mutta Nvidialla toki on oman edun mukaista syytää fyrkkaa taloille että ne lisää noita ominaisuuksia jotta omat tuotteet näyttää paremmilta kilpailijoihin nähden.

Noh, RayTracing on nyt saanut ihan speksatun rajapinnan ja DLSS ominaisuudet isommassa mittakaavassa tullaan varmaan toteuttamaan DirectML rajapinnan kautta ja Vulkanin vastaavalla joten noi RTX ja DLSS viritykset tulee todennäköisesti jäämään unholaan tulevaisuudessa.

Sitä vaan ihmettelen että miksi se jensen setä upeassa nahkatakissaan jaksaa edelleen yrittää puskea noita suljettuja paskeita läpitte kun se on jo nähty aika montas kertaa että ei ne ota sen suuremmin tuulta alleen ja tilalle tulee aina joku jota kaikki voi käyttää.
Kai siinä sitten on se että pienikin kampitus jensenin mielestä on kotiinpäin.
 
  • Tykkää
Reactions: VmH
Nvidia on likaisiin temppuihin turvautunut saamatta siitä mitään penaltyy joten miksei turvautuisi myös jatkossa?

Lähes aina kun näytönohjain valmistaja syytää rahaa jollekin pelifirmalle niin silloin ajatuksena on saada jotain hyötyä omalle firmalle. Ei pelintekijät ala RTX ja DLSS hässäköitä väsäämään peliin jos ne eivät toimi kaikilla korteilla. Mutta Nvidialla toki on oman edun mukaista syytää fyrkkaa taloille että ne lisää noita ominaisuuksia jotta omat tuotteet näyttää paremmilta kilpailijoihin nähden.

Noh, RayTracing on nyt saanut ihan speksatun rajapinnan ja DLSS ominaisuudet isommassa mittakaavassa tullaan varmaan toteuttamaan DirectML rajapinnan kautta ja Vulkanin vastaavalla joten noi RTX ja DLSS viritykset tulee todennäköisesti jäämään unholaan tulevaisuudessa.

Sitä vaan ihmettelen että miksi se jensen setä upeassa nahkatakissaan jaksaa edelleen yrittää puskea noita suljettuja paskeita läpitte kun se on jo nähty aika montas kertaa että ei ne ota sen suuremmin tuulta alleen ja tilalle tulee aina joku jota kaikki voi käyttää.
Kai siinä sitten on se että pienikin kampitus jensenin mielestä on kotiinpäin.
Nvidia on tukenut kehittäjiä AMD:tä paremmin. AMD:llä ei ko hommaan ollut yksikertaisesti varaa tässä muutama vuosi sitten, pidempään aikaan. Itse firmastakin potkittiin porukkaa pois sen verran hanakasti, että jäätiin Nvidiasta kehityksessä jälkeen.

Mitä tarkoitat RTX vrityksellä?
Nvidia on toteuttanut plien RT:n RTX korteillaan ihan DirectX:n kautta. (Myös vulcanille löytyy tuki). Ei peleissä ole käytetty mitään Nvidian omia RT rajapintoja. Hyötyohjelmat on sitten täysin asia erikseen..

DLSS on myös käsittääkseni mennyt kokoajan helpommaksi implementoida, joten koska tuo vaikuttaa oikein pätevältä ominaisuudelta, halvemman pään korteille varsinkin, niin tuo tulee varmasti yleistymään tulevaisuudessa.
 
Lähes aina kun näytönohjain valmistaja syytää rahaa jollekin pelifirmalle niin silloin ajatuksena on saada jotain hyötyä omalle firmalle. Ei pelintekijät ala RTX ja DLSS hässäköitä väsäämään peliin jos ne eivät toimi kaikilla korteilla. Mutta Nvidialla toki on oman edun mukaista syytää fyrkkaa taloille että ne lisää noita ominaisuuksia jotta omat tuotteet näyttää paremmilta kilpailijoihin nähden.

Mun mielestä tää on pelkästään positiivista. Eri asia sitten, jos maksetaan ettei kilpailijan kortilla toimi vaikka antialiasointi. Muistaakseni joku Batman-keissi oli tällainen.
 
Mun mielestä tää on pelkästään positiivista. Eri asia sitten, jos maksetaan ettei kilpailijan kortilla toimi vaikka antialiasointi. Muistaakseni joku Batman-keissi oli tällainen.

Eikös se sitä yleistymistä edesauttaisi kun tehtäisiin sellaisia niistä että kaverikin voi niitä halutessaan tukea?

Mitä tarkoitat RTX vrityksellä?

Kyllähän noi ekat RTX viritykset oli jotain muuta kuin DXR kamaa kun ei DXR rajapintaa ollut silloin olemassa.

DLSS on myös käsittääkseni mennyt kokoajan helpommaksi implementoida, joten koska tuo vaikuttaa oikein pätevältä ominaisuudelta, halvemman pään korteille varsinkin, niin tuo tulee varmasti yleistymään tulevaisuudessa.

Ei tule yleistymään vaan kuten sanoin DirectML on se minkä kautta toi tulee yleistymään. Toki nvidia saa sitä edelleen kutsua miksi haluaa, mutta peleissä tulee olemaan joku muu paitsi tietty niissä peleissä joissa jensen setä kaivaa taskusta vihreää että saa yksinomaan sen DLSS:n sinne.
 
Kyllähän noi ekat RTX viritykset oli jotain muuta kuin DXR kamaa kun ei DXR rajapintaa ollut silloin olemassa.
DXR-rajapinta julkaistiin ennen NVIDIAn RTX-näytönohjaimia, vaikka se yleiseen jakoon tulikin vasta julkaisun jälkeisessä Windows-päivityksessä.
 
  • Tykkää
Reactions: VmH
Eikös se sitä yleistymistä edesauttaisi kun tehtäisiin sellaisia niistä että kaverikin voi niitä halutessaan tukea?

Varmaan, mutta ymmärrän myös, ettei kaupallinen yritys halua auttaa kilpailijoitaan omalla panoksellaan.
 
Missä olisi tietoa siitä että dlss 3.0 on pelkkä uutisankka?
en löydä....
"Lähde" sille oli Moore's Law is Dead minkä ennustukset ovat olleet ennustuksesta riippuen mitä sattuu, puhdasta potaskaa ja täysin järjettömiä.
Ja se mitä se satuili "DLSS 3.0":sta on sellaista että se vaatii aika tavalla enemmän kuin tuollaisen tyhjää puhuvan huhumaakarin väitteen ennen kuin pitäisi lähteä kenenkään kumoamaan sitä, päin vastoin siihen uskovien olisi löydettävä tässä kohtaa uskottavia selityksiä miksi juuri se huhu pohjaisi millään tasolla todellisuuteen.
 
"Lähde" sille oli Moore's Law is Dead minkä ennustukset ovat olleet ennustuksesta riippuen mitä sattuu, puhdasta potaskaa ja täysin järjettömiä.
Ja se mitä se satuili "DLSS 3.0":sta on sellaista että se vaatii aika tavalla enemmän kuin tuollaisen tyhjää puhuvan huhumaakarin väitteen ennen kuin pitäisi lähteä kenenkään kumoamaan sitä, päin vastoin siihen uskovien olisi löydettävä tässä kohtaa uskottavia selityksiä miksi juuri se huhu pohjaisi millään tasolla todellisuuteen.
Varmaan joku vanhempi video minkä postannut....mutta luulisin että ovat parantelemassa dlss kuitenkin vielä.
 
Varmaan joku vanhempi video minkä postannut....mutta luulisin että ovat parantelemassa dlss kuitenkin vielä.
Tietenkin parantelevat ja parannettavaa on vielä paljonkin, mutta se ei tee niitä DLSS 3.0 -huhuja yhtään sen todellisemmiksi
 
Se on ihan sama milloin julkaistiin. Peleissä se on RTX on eikä DXR on.
Tietenkin, koska NVIDIA kaataa rahaa markkinointiin ja markkinoilla ei muita DXR:ää tukevia tällä hetkellä ole.
Tällä hetkellä ainut DirectX-peli säteenseurannalla, josta tiedetään että on tehty muuta kuin ihan standardia DXR-settiä on Minecraft, jossa on estetty toiminta Voltalla ja Pascaleilla vaikka nekin tukevat DXR:ää, mutta siitäkään ei tiedetä onko kyse blacklist vai whitelist metodista ennen kuin AMD ja/tai Intel tuo DXR-rautaa markkinoille.
 
Se on ihan sama milloin julkaistiin. Peleissä se on RTX on eikä DXR on.
Mitä oikein sekoilet?
Peleissä on directX tuki.
RTX On Nvidia näytönohjamen alatyyppi.
Se on täysin sama, mitä siellä peleissä lukee, kun se rajapinta on se DirectX.

En ymmärrä, mitä oikein haet tuolla alleviivatulla lauseella takaa, voisitko nyt jotenkin avata sitä?
 
Mitä oikein sekoilet?
Peleissä on directX tuki.
RTX On Nvidia näytönohjamen alatyyppi.
Se on täysin sama, mitä siellä peleissä lukee, kun se rajapinta on se DirectX.

En ymmärrä, mitä oikein haet tuolla alleviivatulla lauseella takaa, voisitko nyt jotenkin avata sitä?

1598395920436.png
 
Kannattaa nyt hahmottaa, että kun tuo peli tehtiin niin muuta PC puolella ei ollut, eikä ollut edes tiedossa, kuin tuo RTX, kun haluttiin ilmoittaa, että käytetään säteenseurantaa. Ominaisuus toimii silti DX:m kautta. Edelleenkään PC puolella ei ole muuta RT rautaa, kuin Nvidian RTX kortit..
 
Itsellä ostohousut jalassa ja yritin valistaa itseäni tulevien näyttisten osalta nykyaikaan lukemalla viimeiset kymmenen sivua. Eihän siitä jäänyt käteen muuta kuin hupiukkojen väittelyä. Itsellä ei minkään valmistajan laseja löydy, hienoa kun tekniikka kehittyy. Milloin näiden tulevien AMD-korttien julkaisu on? Onko siitä edes mitään tietoa....?
 
Itsellä ostohousut jalassa ja yritin valistaa itseäni tulevien näyttisten osalta nykyaikaan lukemalla viimeiset kymmenen sivua. Eihän siitä jäänyt käteen muuta kuin hupiukkojen väittelyä. Itsellä ei minkään valmistajan laseja löydy, hienoa kun tekniikka kehittyy. Milloin näiden tulevien AMD-korttien julkaisu on? Onko siitä edes mitään tietoa....?
Veikkaan että siitä valuu tietoa Amperen julkaisupäivänä tai viimeistään pari päivää myöhemmin. Tällä hetkellä aikaisimmat ennusteet sanovat syyskuun lopppua, seuraavat lokakuun alkua ja myöhäisimmät ihan vuoden loppua ja saatavuutta ensi vuodelle (ainakin AIB-mallien osalta), mutta nuo ovat ihan puhdasta arvailua, AMD on sanonut (virallisesti) vain että "loppuvuodesta" mikä voi tarkoittaa käytännössä ihan mitä vaan, mutta yleensä Q4:ää eli loka-joulukuuta. Toisaalta jos AMD laskee XSX:n ja PS5:n sirut "omiksi tuotteiksiin" julkaisun pitäisi tapahtua ennen kumpaakaan noista, koska ovat sanoneet myös että "Big Navi" tulee olemaan heidän ensimmäinen RDNA2-tuote (mutta jos eivät laske konsolisiruja "omikseen" niin sitten tietenkin ne voivat tulla ennenkin)
 
Omasta mielestä ainakin DLSS on tulevaisuudessa lähinnä budjettikorteille suunnattu "ominaisuus" jolla RT -päällä saa pelit rullaamaan hieman paremmin. Mitään nvidian propagandaa en kyllä usko siitä, että tuo jotenkin parantaisi kuvan/renderöinnin jälkeä. Päinvastoin jotain pitää jättää renderoimatta, jos meinataan saada parempia fps:iä.

Nyt Nvidia sentään hoitaa asian avoimemmin mutta voisivat jättää sanan "enchancing" dlss hössötyksistään pois, kun se on asiakkaan harhaanjohtamista.
 
Veikkaan että siitä valuu tietoa Amperen julkaisupäivänä tai viimeistään pari päivää myöhemmin. Tällä hetkellä aikaisimmat ennusteet sanovat syyskuun lopppua, seuraavat lokakuun alkua ja myöhäisimmät ihan vuoden loppua ja saatavuutta ensi vuodelle (ainakin AIB-mallien osalta), mutta nuo ovat ihan puhdasta arvailua, AMD on sanonut (virallisesti) vain että "loppuvuodesta" mikä voi tarkoittaa käytännössä ihan mitä vaan, mutta yleensä Q4:ää eli loka-joulukuuta. Toisaalta jos AMD laskee XSX:n ja PS5:n sirut "omiksi tuotteiksiin" julkaisun pitäisi tapahtua ennen kumpaakaan noista, koska ovat sanoneet myös että "Big Navi" tulee olemaan heidän ensimmäinen RDNA2-tuote (mutta jos eivät laske konsolisiruja "omikseen" niin sitten tietenkin ne voivat tulla ennenkin)
Kiitos tästä! Yksi kirjoitus vastasi kysymykseen johon tulin täältä vastausta etsimään.
 
Kannattaa nyt hahmottaa, että kun tuo peli tehtiin niin muuta PC puolella ei ollut, eikä ollut edes tiedossa, kuin tuo RTX, kun haluttiin ilmoittaa, että käytetään säteenseurantaa. Ominaisuus toimii silti DX:m kautta. Edelleenkään PC puolella ei ole muuta RT rautaa, kuin Nvidian RTX kortit..

Toimii DX kautta mutta ei ollut tiedossa... Mitä hemmettiä? Jos se toimii DX:n kautta niin eikö se silloin käytä DXR joten eiköhän se ole silloin ollut tiedossa. Koita nyt päättää.
 
Omasta mielestä ainakin DLSS on tulevaisuudessa lähinnä budjettikorteille suunnattu "ominaisuus" jolla RT -päällä saa pelit rullaamaan hieman paremmin. Mitään nvidian propagandaa en kyllä usko siitä, että tuo jotenkin parantaisi kuvan/renderöinnin jälkeä. Päinvastoin jotain pitää jättää renderoimatta, jos meinataan saada parempia fps:iä.

Nyt Nvidia sentään hoitaa asian avoimemmin mutta voisivat jättää sanan "enchancing" dlss hössötyksistään pois, kun se on asiakkaan harhaanjohtamista.

DLSS ihan oikeasti parantaa kuvanlaatua joissain suhteissa verrattuna natiiviin. Poikkeuksetta tämä johtuu siitä, että natiivilla resoluutiolla käytetään TAA-antialiasointia, joka aiheuttaa potentiaalisesti kaikenlaista hämminkiä liikkeessä, ja pehmentää kuvaa. DLSS:ään kuuluu sen oma antialiasointi, jonka kanssa lopputulos on hyvin siistitty rosoisuuksista, mutta silti terävä.
 
Toimii DX kautta mutta ei ollut tiedossa... Mitä hemmettiä? Jos se toimii DX:n kautta niin eikö se silloin käytä DXR joten eiköhän se ole silloin ollut tiedossa. Koita nyt päättää.
Keskimääräisellä pelaajalla ei ole mitään käryä DXR:stä, vielä vähemmän oli silloin kun ensimmäiset pelit tulivat. RTX-nimen sen sijaan tuntee paljon useampi, joten se yhdessä NVIDIAn markkinointirahojen kanssa on itsestäänselvä syy siihen, miksi monissa tapauksissa markkinoinaan RTX:nä eikä DXR:nä.

DLSS ihan oikeasti parantaa kuvanlaatua joissain suhteissa verrattuna natiiviin. Poikkeuksetta tämä johtuu siitä, että natiivilla resoluutiolla käytetään TAA-antialiasointia, joka aiheuttaa potentiaalisesti kaikenlaista hämminkiä liikkeessä, ja pehmentää kuvaa. DLSS:ään kuuluu sen oma antialiasointi, jonka kanssa lopputulos on hyvin siistitty rosoisuuksista, mutta silti terävä.
Joissain tapauksissa kyllä, joissain tapauksissa ei, esimerkkinä tuorein DLSS 2.0 -peli F1 2020 missä DLSS on kaikkea muuta kuin terävä verrattuna TAA:han
Toki jotkut peleistä hoitaa homman paremmin, mutta jokaista vaivaa tietyt samat ongelmat (ringing-artifaktit, ylikorostuneet pintojen rajat/viivat jne) ja pelikohtaiset ongelmat päälle
 
Joissain tapauksissa kyllä, joissain tapauksissa ei, esimerkkinä tuorein DLSS 2.0 -peli F1 2020 missä DLSS on kaikkea muuta kuin terävä verrattuna TAA:han
Toki jotkut peleistä hoitaa homman paremmin, mutta jokaista vaivaa tietyt samat ongelmat (ringing-artifaktit, ylikorostuneet pintojen rajat/viivat jne) ja pelikohtaiset ongelmat päälle

En ollutkaan perillä tästä. Tuossa on kyllä mennyt pahasti mönkään.

Kaikissa mun kokeilemissa peleissä DLSS:llä peli on näyttänyt yleensäottaen paremmalta kuin natiivilla. Sen lisäksi ne on pyörinyt huomattavasti paremmin. Jos vertailee DLSS:ää sellaiseen skaalattuun resoluutioon, joka pyörii yhtä hyvin kuin se DLSS, niin ero on jo aika kolossaalinen.
 
DLSS ihan oikeasti parantaa kuvanlaatua joissain suhteissa verrattuna natiiviin. Poikkeuksetta tämä johtuu siitä, että natiivilla resoluutiolla käytetään TAA-antialiasointia, joka aiheuttaa potentiaalisesti kaikenlaista hämminkiä liikkeessä, ja pehmentää kuvaa. DLSS:ään kuuluu sen oma antialiasointi, jonka kanssa lopputulos on hyvin siistitty rosoisuuksista, mutta silti terävä.

Nimenomaan joissain suhteissa eli lähinnä niissä harvoissa tilanteissa joissa Nvidia on mainostellut kyseistä ominaisuutta. Se ei kumminkaan toimi joka tilanteessa niin, kuin Nvidia antaa ymmärtää eli mainonta on harhaanjohtavaa. Lopputuloksena toki on lisää fps, mutta useimmiten kuvanlaatu huononee.

Nvidialta on unohtunut perusasiat tämän filtterin teossa, eli käyttäjätkin osaavat huonontaa kuvalaatua, tai vaikka ottaa reunanpehmennykset pois. Nyt DLSS 2.0:ssa on siirtytty siihen että keskitytään huonontamaan kohtia niistä paikoista, joihin pelaajan silmä ei katso.

Keinotekoinen kuvamanipulointi on jotenkin vähän tökeröä touhua Nvidian kokoiselta firmalta.
 
Viimeksi muokattu:
"Lähde" sille oli Moore's Law is Dead minkä ennustukset ovat olleet ennustuksesta riippuen mitä sattuu, puhdasta potaskaa ja täysin järjettömiä.
Ja se mitä se satuili "DLSS 3.0":sta on sellaista että se vaatii aika tavalla enemmän kuin tuollaisen tyhjää puhuvan huhumaakarin väitteen ennen kuin pitäisi lähteä kenenkään kumoamaan sitä, päin vastoin siihen uskovien olisi löydettävä tässä kohtaa uskottavia selityksiä miksi juuri se huhu pohjaisi millään tasolla todellisuuteen.

Minähän se kuittaisin tuohon Ampere ketjuun, että DLSS3.0 on uutisankka. Sen huhun alkuperä on tosiaan tuo Moore's Law is Dead, mikä laskee heti odotuksia. DLSS3.0 tulee kyllä joskus, ehkä Amperen julkaisussakin. Se muoto missä se esitettiin on: DLSS3 toimii kaikilla TAA:ta tukevilla peleillä, se olisi oletuksena päällä ja arvostelijoita ohjeistettaisiin käyttämään sitä.

Mikä tuossa sitten mättää? TAA:ta ei pystytä tekemään peliajureissa, se on enginen tekemä anti-aliasointi. Eli jos huhu pitää paikkansa nvidia olisi toteuttanut ajurit, jotka tunnistaa TAA:n käytön, ei sekoita sitä mihinkään muuhun operaatioon, jättää enginen käskyt toteuttamatta ja siirtyy omalle poikkeuskoodipolulleen, joka onkii pelin rendauspyynnöistä suuntavektorit ja toteuttaa sitten DLSS prosessoinnin. Joo, tuo on aika kaukaa haettu.
 
Nimenomaan joissain suhteissa eli lähinnä niissä harvoissa tilanteissa joissa Nvidia on mainostellut kyseistä ominaisuutta. Se ei kumminkaan toimi joka tilanteessa niin, kuin Nvidia antaa ymmärtää eli mainonta on harhaanjohtavaa. Lopputuloksena toki on lisää fps, mutta useimmiten kuvanlaatu huononee.

Nvidialta on unohtunut perusasiat tämän filtterin teossa, eli käyttäjätkin osaavat huonontaa kuvalaatua, tai vaikka ottaa reunanpehmennykset pois. Nyt DLSS 2.0:ssa on siirtytty siihen että keskitytään huonontamaan kohtia niistä paikoista, joihin pelaajan silmä ei katso.

Keinotekoinen kuvamanipulointi on jotenkin vähän tökeröä touhua Nvidian kokoiselta firmalta.
Minun mielestäni DLSS on kuin tekonahka auton penkeissä.
Joitakin ostajia voi hämätä, mutta ei tunnu eikä näytäkään aidolta. Hyvä kangasverhoilu (=karsitut asetukset) on parempi vaihtoehto. Täysin turha kaiken kaikkiaan. (Myyjäkään ei aina muista kertoa eroa).
 
Minun mielestäni DLSS on kuin tekonahka auton penkeissä.
Joitakin ostajia voi hämätä, mutta ei tunnu eikä näytäkään aidolta. Hyvä kangasverhoilu (=karsitut asetukset) on parempi vaihtoehto. Täysin turha kaiken kaikkiaan. (Myyjäkään ei aina muista kertoa eroa).
kyllä nvidia sitä verhoilua parantelee ja vaikka olisikin ns. feikki totuus on että fps saa helpommin sinne golden zone 144hz--185hz.
ps. kokeilkaa karsitut eli custom asetukset ja rtx dlss päälle---golden 200+fps zone ja saattaa fake nvidia yllättää joskus tunkemalla ai ydintensä kautta fake quality pikseliä.
 
Viimeksi muokattu:
Minun mielestäni DLSS on kuin tekonahka auton penkeissä.
Joitakin ostajia voi hämätä, mutta ei tunnu eikä näytäkään aidolta. Hyvä kangasverhoilu (=karsitut asetukset) on parempi vaihtoehto. Täysin turha kaiken kaikkiaan. (Myyjäkään ei aina muista kertoa eroa).

Jospa näemme jensenin kohta tekonahkatakissa myös?
 
Sinänsä kyllä nvidialta aika typerä päätös tehdä tosta DLSS:stä proprietaaritoteutus. Niiden tensor ytimet laskee ton paskan niin paljon nopeammin kuin AMD:n tuotteet, että ne hyötyisivät tuosta merkittävästi enemmän joka tapauksessa (jos olen oikein lukenut, niin toi DLSS osuus saataisiin suoritettua n. 1/4 ajassa vrt. RDNA1). Tekemällä tosta avoimen ne saisi netin täyteen DLSS testejä joissa nvidian tuotteet löisi amd:n tuotteet ihan mennen tullen eikä kellään olisi mitään valittaa kuvanlaadun osalta, sillä se olisi molemmilla sama. Nykytilassa mikään isompi tekniikkasaitti ei tule ajamaan mitään testejä joissa verrattaisiin nvidian suorituskykyä DLSS päällä AMD:n korkeamman resoluution suorituskykyyn vaikka nahkatakkimies näin kuinka toivoisi.

Sit jos kuvanlaatua haluttaisiin optimoida ihan oikeasti eteenpäin, niin ton voisi irroittaa omaksi softakomponentiksi joka ladattaisiin DLL tyyliin ajon aikana. Näin kuka vaan voisi kehitellä parempia ja nopeampia versioita haluamillaan preferensseillä ja ei oltaisi minkään yksittäisen firman armoilla esim. noiden terävöitysartefaktien suhteen.
 
Sinänsä kyllä nvidialta aika typerä päätös tehdä tosta DLSS:stä proprietaaritoteutus. Niiden tensor ytimet laskee ton paskan niin paljon nopeammin kuin AMD:n tuotteet, että ne hyötyisivät tuosta merkittävästi enemmän joka tapauksessa (jos olen oikein lukenut, niin toi DLSS osuus saataisiin suoritettua n. 1/4 ajassa vrt. RDNA1). Tekemällä tosta avoimen ne saisi netin täyteen DLSS testejä joissa nvidian tuotteet löisi amd:n tuotteet ihan mennen tullen eikä kellään olisi mitään valittaa kuvanlaadun osalta, sillä se olisi molemmilla sama. Nykytilassa mikään isompi tekniikkasaitti ei tule ajamaan mitään testejä joissa verrattaisiin nvidian suorituskykyä DLSS päällä AMD:n korkeamman resoluution suorituskykyyn vaikka nahkatakkimies näin kuinka toivoisi.

Mua kiinnostaisi enemmän nähdä kuvanlaatuvertailua, kun on vaikka DLSS2.0 2560x1440->4K vastaan TAA 3200x1600->4K, tai yleensäkin sellaiset resoluutiot joilla suorituskyky olisi sama. Jostain syystä kuvanlaatua verrataan aina vain natiiviin.
 
Mua kiinnostaisi enemmän nähdä kuvanlaatuvertailua, kun on vaikka DLSS2.0 2560x1440->4K vastaan TAA 3200x1600->4K, tai yleensäkin sellaiset resoluutiot joilla suorituskyky olisi sama. Jostain syystä kuvanlaatua verrataan aina vain natiiviin.
Tyypilliset PC pelien TAA implementaatiot (myös DLSS on teknisesti TAA implementaatio) eivät tue eriäviä input ja output resoluutioita, joten vertailun lopputulos on vähän ikävä nestekidenäyttöjen skaalausongelmien takia. Vertaile mielummin 27" 2560x1440 ja 27" 4k näyttöjä joissa 4k:lle rendataan DLSS päällä ja toiselle natiiviresolla.
 
Tyypilliset PC pelien TAA implementaatiot (myös DLSS on teknisesti TAA implementaatio) eivät tue eriäviä input ja output resoluutioita, joten vertailun lopputulos on vähän ikävä nestekidenäyttöjen skaalausongelmien takia. Vertaile mielummin 27" 2560x1440 ja 27" 4k näyttöjä joissa 4k:lle rendataan DLSS päällä ja toiselle natiiviresolla.

Mutta tämä ei ole realistinen skenaario käyttäjän kannalta. Mulla esim. on se 4K telkkari ja se ei 2560x1440 näytöksi muutu. Jos mulla ei 4K pyöri, niin vaihtoehdot on skaalata matalempi resoluutio joko bilineaarisesti TAA:lla, tai DLSS:llä. Mun mielestä DLSS:llä tulee paljon parempaa jälkeä.

Joissain DLSS2.0 peleissä on ihan resolution slider, jolla voidaan säätää renderöintiresoa outputin pysyessä 4K:na. Vertailua voisi suorittaa niillä. Olen itse suorittanutkin.
 
UE4:n TAAU vs DLSS olis aikalailla se mitä @Divvy hakee. Tota voi testata esim. Nvidian NVRTX UE4 branchillä.

Makuasioita, mutta omien testailujen perusteella DLSS ihan selvä voittaja noista kahdesta silloinkin kun TAAU:lle annetaan sen verran enemmän pikseleitä että suorituskyky on molemmilla sama.
 
Mutta tämä ei ole realistinen skenaario käyttäjän kannalta. Mulla esim. on se 4K telkkari ja se ei 2560x1440 näytöksi muutu. Jos mulla ei 4K pyöri, niin vaihtoehdot on skaalata matalempi resoluutio joko bilineaarisesti TAA:lla, tai DLSS:llä. Mun mielestä DLSS:llä tulee paljon parempaa jälkeä.

Joissain DLSS2.0 peleissä on ihan resolution slider, jolla voidaan säätää renderöintiresoa outputin pysyessä 4K:na. Vertailua voisi suorittaa niillä.
Joo eihän se käyttäjän kannalta köytännöllisin vertailutapa ole, mutta toisi parhaiten esille sen että tuottaako se DLSS oikeasti paremman kuvan vai ei kun muut kuvan esittämiseen liittyvät ongelmakohdat poistetaan.
Se resolution slider on tehty useimmiten aika käppäisesti siten että se tehdään rendauspipelinessä viimeisenä operaationa ja lopputuloksena kuva on aina aika pehmeä. Jos vertaat verrattaen hyvää TAA toteutusta (DLSS) verrattaen huonoon TAA toteutukseen (useimmat pelit), niin ei ole varmaan yllätys että suurimmassa osassa tilanteista se parempi TAA toteutus voittaa. Mitä nyt typeryyttään ovat ne terävöitysartefaktit päättäneet tuottaa kuvaansa. Etenkin skaalattuna ero on iso jos se heikompi TAA toteutus ei tue eriäviä input ja output resoluutioita ollenkaan (useimmat PC pelit).
 
UE4:n TAAU vs DLSS olis aikalailla se mitä @Divvy hakee. Tota voi testata esim. Nvidian NVRTX UE4 branchillä.

Makuasioita, mutta omien testailujen perusteella DLSS ihan selvä voittaja noista kahdesta silloinkin kun TAAU:lle annetaan sen verran enemmän pikseleitä että suorituskyky on molemmilla sama.
Siinä unrealin TAAU:ssa ei toisaalta ole niitä terävöitysartefakteja mitä DLSS pumppaa ulos, ts. kuva ei ole "tarkempi" kuin natiivi. Mutta kuten sanoit, makuasioita. Kehittämistä toi TAAU vaan kaipaa, tekniikkanahan se on käytännössä identtinen DLSS:n kanssa, mitä nyt pikkasen eri tavalla suodatetaan niitä yksityiskohtia esille pisteparviaikasarjasta.
 
Joo eihän se käyttäjän kannalta köytännöllisin vertailutapa ole, mutta toisi parhaiten esille sen että tuottaako se DLSS oikeasti paremman kuvan vai ei kun muut kuvan esittämiseen liittyvät ongelmakohdat poistetaan.
Se resolution slider on tehty useimmiten aika käppäisesti siten että se tehdään rendauspipelinessä viimeisenä operaationa ja lopputuloksena kuva on aina aika pehmeä. Jos vertaat verrattaen hyvää TAA toteutusta (DLSS) verrattaen huonoon TAA toteutukseen (useimmat pelit), niin ei ole varmaan yllätys että suurimmassa osassa tilanteista se parempi TAA toteutus voittaa. Mitä nyt typeryyttään ovat ne terävöitysartefaktit päättäneet tuottaa kuvaansa. Etenkin skaalattuna ero on iso jos se heikompi TAA toteutus ei tue eriäviä input ja output resoluutioita ollenkaan (useimmat PC pelit).

Juu, teknisesti olisi varmaan mielenkiintoista suorittaa kaikenlaisia teoreettisempia vertailuja, mutta käytännössä se loppukäyttäjäkokemus määrittelee ominaisuuden hyödyllisyyden. Oli ne syyt pelien oman skaalauksen huonouteen mitkä tahansa, niin jos DLSS:llä tulee parempi lopputulos niin sillä on käyttäjälle arvoa.
 
Juu, teknisesti olisi varmaan mielenkiintoista suorittaa kaikenlaisia teoreettisempia vertailuja, mutta käytännössä se loppukäyttäjäkokemus määrittelee ominaisuuden hyödyllisyyden. Oli ne syyt pelien oman skaalauksen huonouteen mitkä tahansa, niin jos DLSS:llä tulee parempi lopputulos niin sillä on käyttäjälle arvoa.
Jep tuo on ihan totta, tosin tässäkin joku avoin(ei vendor lockattu) standardi tulee lopulta viemään potin ja nää nykyiset DLSS pelit jäävät muutamaksi yksittäistapaukseksi ajan havinassa. Syynä on konsolit, joihin nvidialla ei ole asiaa mutta joissa erilaisilla skaalauksilla on paljon isompi merkitys kuin PC peleissä. Käytännössä kaikkiin moottoreihin tullaan konsoleilla tekemään joku skaalaustoteutus, jossa todennäköisesti on jotain ML magiaa mukana DLSS:n tavoin, ja niitä samoja moottoreita tullaan käyttämään PC:llä myös. DLSS integraatioita tullaan varmaan vielä hetki näkemään kun namusetä makselee sen toteuttamisesta johtuvia kuluja, kunnes tämä lakkaa kannattamattomana (eli kun jotakuinkin sama tai parempi laatu saavutetaan noilla moottorien omilla skaalauspaskeilla).

Nvidialla olisi ollut mahdollisuus tehdä DLSS:stä heidän kannalta otollinen ja heidän hallinnoima defacto standardi koko alalle jos ne olis ymmärtäny julkaista sen direct ml tai opencl toteutuksena.
 

Statistiikka

Viestiketjuista
297 646
Viestejä
5 073 976
Jäsenet
81 354
Uusin jäsen
RoWell

Hinta.fi

Back
Ylös Bottom