Virallinen: NVIDIA vs AMD (vs Intel) keskustelu- ja väittelyketju

  • Keskustelun aloittaja Keskustelun aloittaja Sampsa
  • Aloitettu Aloitettu
Ei kyse DLSS:stä eikä neuroverkosta vaan siitä, miten peräkkäisistä freimeistä onnistutaan rakentamaan dataa, mitä periaatteessa yhdessäkään niistä ei ole. Joskus värkkäilin kaukoputkeni kanssa Jupiterista kuvaa ja yksittäiset freimit näyttivät pääasiassa tältä:
jupi.jpg


Kun otin videota ja tämän käsittelin ohjelmalla, joka useista ruuduista yhdistelemällä (käsittääkseni jonkinlaista ylinäytteistämistä), niin sain lopputulokseksi:
11979816866_9a9153d090_o.jpg


Tosin tässäkin näkyy artefaktina erittäin rankat terävöittämiset.

En DLSS:n tekniikoihin ole perehtynyt, mutta hyvin voin uskoa usean freimin tuovan todellisia yksityiskohtia, jotka yhdestä yksittäisest puuttuvat. Tässä munkin kuvassa punainen pilkku oli käytännössä poissa näkyvistä, mutta ylinäytteistämällä useaa peräkkäistä ruutua se saatiin näkyviin. Pilvien muodoista puhumattakaan.


Yleisesti tämä ketju (ja vastaavat) kyllä ihmetyttää. En vain pysty ymmärtämään, miten joku voi tällaisista asioista ottaa näin pahasti kierroksia.
 
Yleisesti tämä ketju (ja vastaavat) kyllä ihmetyttää. En vain pysty ymmärtämään, miten joku voi tällaisista asioista ottaa näin pahasti kierroksia.
Näinhän se on, tuntuu että osaa kiinnostaa muiden korttivalinnat enemmän kuin omat.

Itsellä oli tällä näytönohjainkierroksella valittavina Nvidian ja AMD:n tuotteet, 6800XT vs 3080. Päädyin 3080 kolmesta syystä:
  • Nvidian halvempi Suomi-hinta.
  • DLSS. Tämä toimi yllättävän hyvin 2070-kortilla, joten hyvä syy pysyä samassa leirissä.
  • Henkilökohtainen huono kokemus 5700-sarjan ajuriongelmista.
  • (RTX:n tehokkuus verrattuna AMD).
Jos 6800XT olisi maksanut vaikka sen 100 euroa vähemmän, niin valinta olisi ollut selvä punaisen leirin eduksi.
 
Näinhän se on, tuntuu että osaa kiinnostaa muiden korttivalinnat enemmän kuin omat.

Itsellä oli tällä näytönohjainkierroksella valittavina Nvidian ja AMD:n tuotteet, 6800XT vs 3080. Päädyin 3080 kolmesta syystä:

Niimpä. Itsellä homma on kohtalon varassa. Useampi 3080 ja 6800xt tilauksessa, se mikä saapuu ensimmäisenä pääsee koneeseen.
 
Yleisesti tämä ketju (ja vastaavat) kyllä ihmetyttää. En vain pysty ymmärtämään, miten joku voi tällaisista asioista ottaa näin pahasti kierroksia.
Näitä väittelyketjuja on olemassa siksi, että joitakin korporaatioita tai niiden tuotteita fanittavat eivät paskoisi muita (asia)ketjuja.

Helpostihan näissä näkee kuka fanittaa ja mitä. Lopuille 99% jotka ketjuun eksyy, vaikutelma on toki outo ja herättää ihmetystä. Joskus kirjoitukset lähtee lapasesta.

Itse luen näitä sen vuoksi, että näissä on usein asiaakin mukana ja sattumoisin eri leirien korttien vertailu on juuri nyt melko relevantti asia, mihin täältä voi löytää vastauksia. Toki samalla pitää sitten skrollailla nuo puhtaat fanitukset (sekä tahalliset toisen tuotteen dumaamiset) ohitse.
 
Näitä väittelyketjuja on olemassa siksi, että joitakin korporaatioita tai niiden tuotteita fanittavat eivät paskoisi muita (asia)ketjuja.

Helpostihan näissä näkee kuka fanittaa ja mitä. Lopuille 99% jotka ketjuun eksyy, vaikutelma on toki outo ja herättää ihmetystä. Joskus kirjoitukset lähtee lapasesta.

Itse luen näitä sen vuoksi, että näissä on usein asiaakin mukana ja sattumoisin eri leirien korttien vertailu on juuri nyt melko relevantti asia, mihin täältä voi löytää vastauksia. Toki samalla pitää sitten skrollailla nuo puhtaat fanitukset (sekä tahalliset toisen tuotteen dumaamiset) ohitse.
Siis toki asiallinen väittely tästä on mielenkiintoista. Se, mitä en ymmärrä on henkilökohtaisuuksiin meneminen. Joskus tuntuu, että pelkkä nimimerkki on jollekin niin punainen vaate, että välittömästi kiihdytään nollasta sataan. Tällainen ei ole väittelyä.

Perusteltu keskustelu esimerkkeineen ja faktoihin tai edes uskottavahan mutuun pohjaavat mielipiteet on se, miksi tätä jaksan lukea.

Edit: Ja jos nyt minuun viittasit satunnaisella kävijällä, niin en tosiaan kirjoittele juurikaan, mutta lukenut olen kyllä jos en koko ketjua, niin ainakin suurimman osan.
 
Näitä väittelyketjuja on olemassa siksi, että joitakin korporaatioita tai niiden tuotteita fanittavat eivät paskoisi muita (asia)ketjuja.

Helpostihan näissä näkee kuka fanittaa ja mitä. Lopuille 99% jotka ketjuun eksyy, vaikutelma on toki outo ja herättää ihmetystä. Joskus kirjoitukset lähtee lapasesta.

Itse luen näitä sen vuoksi, että näissä on usein asiaakin mukana ja sattumoisin eri leirien korttien vertailu on juuri nyt melko relevantti asia, mihin täältä voi löytää vastauksia. Toki samalla pitää sitten skrollailla nuo puhtaat fanitukset (sekä tahalliset toisen tuotteen dumaamiset) ohitse.
Ihmiset saattavat kytkeä identiteettinsä mitä kummallisimpiin asioihin, esimerkiksi piirikortteihin. Objektiin kohdistuva implisiittinenkin arvostelu koetaan silloin ikään kuin hyökkäyksenä henkilöä itseään vastaan, ja tästä seuraa kummallisia defenssimekanismien ilmentymiä.
 
Yleisesti tämä ketju (ja vastaavat) kyllä ihmetyttää. En vain pysty ymmärtämään, miten joku voi tällaisista asioista ottaa näin pahasti kierroksia.
Olen samoilla linjoilla ja koneessa on 6800xt. DLSS on selvästi hieno menetelmä ja odotan innolla AMD:n vastinetta sille. Näillä uusilla korteilla tehoa on riittävästi eikä se ole nyt mitenkään välttämätön. Tulevat keski- ja matalamman kategorian kortit voisivat hyötyä siitä paljonkin ja itsekin arvostan jos sen kanssa saisi vaikka tehonkulutusta alemmas.
 
Mutta samaa mieltä, tästä DLSS:stä on turha jauhaa koska kyseessä on täysin niche-feature. Sille on reaalimaailman applikaatioissa hyötynsä murto-osassa caseja (se 0,0001% peleistä jotka sitä tukee, 8k ja vanhemmat kortit) eikä sitä toivonmukaan koskaan tarvitse pakosta käyttää. Kukaan ei mielestäni ole väittänyt että ominaisuus ei olisi missään tilanteessa hyödyllinen. Toivon kuitenkin että uudella genillä kenenkään ei tarvitse hetkeen tuota pakon edessä lyödä päälle ja ihan oikeasti läheskään kaikki vihreän leirin kaveritkaan ei liputa DLSS-puolesta :)
Katsellaan mitä tulevaisuus tuo tullessaan sen osalta, tekniikka yleistyy, mutta millä nimellä.

Todennäkäisesti NVIDIA joutuu ennenpitkää hyppäämään suljetun DLSS sijaan tukemaan avoimiarajapintoja, koska AMD on tuomassa omaan fidelityFX kittiinsä vastavan toiminnon avoimena rajapintana, joka toimii samalla toteutuksella sekä konsoleissa, että PC-puolella. Pelikehittäjien ei oikein kannata tukea useampaa eri tekniikkaa, joka tekee samaa jos yhdellä tekniikalla saa pelin toimimaan kaikkialla ja toisella vain NVIDIAN korteilla PC-puolella.

Näinhän periaatteessa kävi myös freesync tekniikan kanssa NVIDIA joutui ottamaan sen käyttöön myös omissa korteissaan. Kun Freesync levisi lähes joka monitoriin ja uhkasi tulla tilanne missä joka poika saa repeilemätöntä kuvanlaatua vain AMD korteilla, koska freesync monitoreita on käytössä valtavasti enemmän kuin kalliimpia g-sync monitoreja.
 
En DLSS:n tekniikoihin ole perehtynyt, mutta hyvin voin uskoa usean freimin tuovan todellisia yksityiskohtia, jotka yhdestä yksittäisest puuttuvat. Tässä munkin kuvassa punainen pilkku oli käytännössä poissa näkyvistä, mutta ylinäytteistämällä useaa peräkkäistä ruutua se saatiin näkyviin. Pilvien muodoista puhumattakaan.

Tosin sinulla on periaatteessa monta still kuvaa jotka yhdistetään tarkemmaksi yhdeksi kuvaksi. En DLSS tiedä mitään, mutta voisin kuvitella että helpompi piirrellä kuvaan jotain mitä sinne ei kuulu kun kyseessä on liikkuva kuva.
 
Todennäkäisesti NVIDIA joutuu ennenpitkää hyppäämään suljetun DLSS sijaan tukemaan avoimiarajapintoja, koska AMD on tuomassa omaan fidelityFX kittiinsä vastavan toiminnon avoimena rajapintana, joka toimii samalla toteutuksella sekä konsoleissa, että PC-puolella. Pelikehittäjien ei oikein kannata tukea useampaa eri tekniikkaa, joka tekee samaa jos yhdellä tekniikalla saa pelin toimimaan kaikkialla ja toisella vain NVIDIAN korteilla PC-puolella.
Voi olla että näin käy tai sitten ei. Nvidia tekoäly ja ylipäätään softateknologinen ylivoima on aivan murskaavaa kilpailuun nähden, joten ei ole mitään takeita että AMD:n vastaavat viritelmät pystyvät vuosiin tai edes koskaan haastamaan Nvidiaa.

Näinhän periaatteessa kävi myös freesync tekniikan kanssa NVIDIA joutui ottamaan sen käyttöön myös omissa korteissaan.
Joku hertsien synkkaus ja AI renderöinti on sama kuin vertaisi polkupyörän ja avaruussukkulan operointia.

Kun Freesync levisi lähes joka monitoriin ja uhkasi tulla tilanne missä joka poika saa repeilemätöntä kuvanlaatua vain AMD korteilla, koska freesync monitoreita on käytössä valtavasti enemmän kuin kalliimpia g-sync monitoreja.
? Freesynkkiä löytyy muutamia poikkeuksia lukuunottamatta lähinnä SER-jäte pirkkamonitoreista, mutta jos mitään oikeata gaming ruutua kunnon spekseillä hakee niin melkein kaikissa on Gsync.
 
? Freesynkkiä löytyy muutamia poikkeuksia lukuunottamatta lähinnä SER-jäte pirkkamonitoreista, mutta jos mitään oikeata gaming ruutua kunnon spekseillä hakee niin melkein kaikissa on Gsync.
Oliko tämä nyt tahallinen provo/trolli?

Tiedät varmaan että suurin osa näytöistä on G-Sync Compatible joka on Nvidian käyttämä nimi Freesyncille?
 
näytönohjaimissa voitais hyvin mennä eri valmistajien yksinoikeuspeleihin kuten konsoleillakin. Olisi pelejä jotka toimisi vain DLSS päällä ja pelejä jotka toimisi vainRadeonin vastaava yksinoikeustekniikka päällä. Jokainen voisi ostaa sen näyttiksen joka tarjoaa parempaa pelattavaa ja aina olisi pelit varmatoimisia, eikä tarvisi miettiä artifakteista tai ettei peli pyöri kunnolla. Konsolipelit tietysti satais AMDn laariin, mutta nvidiallakin on aika paljon niitä TWIMTP tms nimikkeitä.

tätähän nvidia on jo pitkään yrittänyt ajaa, mutta AMD ei ole lähtenyt tuohon mukaan. Pitäisikö tuohon mennä?
 
näytönohjaimissa voitais hyvin mennä eri valmistajien yksinoikeuspeleihin kuten konsoleillakin. Olisi pelejä jotka toimisi vain DLSS päällä ja pelejä jotka toimisi vainRadeonin vastaava yksinoikeustekniikka päällä. Jokainen voisi ostaa sen näyttiksen joka tarjoaa parempaa pelattavaa ja aina olisi pelit varmatoimisia, eikä tarvisi miettiä artifakteista tai ettei peli pyöri kunnolla. Konsolipelit tietysti satais AMDn laariin, mutta nvidiallakin on aika paljon niitä TWIMTP tms nimikkeitä.

tätähän nvidia on jo pitkään yrittänyt ajaa, mutta AMD ei ole lähtenyt tuohon mukaan. Pitäisikö tuohon mennä?
Onko sulla jotain näyttöä tuolle väitteellesi vai ihan lämpimiksesi lätiset?
 
näytönohjaimissa voitais hyvin mennä eri valmistajien yksinoikeuspeleihin kuten konsoleillakin. Olisi pelejä jotka toimisi vain DLSS päällä ja pelejä jotka toimisi vainRadeonin vastaava yksinoikeustekniikka päällä. Jokainen voisi ostaa sen näyttiksen joka tarjoaa parempaa pelattavaa ja aina olisi pelit varmatoimisia, eikä tarvisi miettiä artifakteista tai ettei peli pyöri kunnolla. Konsolipelit tietysti satais AMDn laariin, mutta nvidiallakin on aika paljon niitä TWIMTP tms nimikkeitä.

tätähän nvidia on jo pitkään yrittänyt ajaa, mutta AMD ei ole lähtenyt tuohon mukaan. Pitäisikö tuohon mennä?
On kyllä huonoin idea mitä olen kuullut pitkään aikaan...
 
Onko sulla jotain näyttöä tuolle väitteellesi vai ihan lämpimiksesi lätiset?
Onhan noita lukuisia Nvidian yksinoikeustekniikoita jo olemassa näytön virkistystaajuuden synkronoimisesta alkaen, aina yksittäisiin hiusanimaatioihin jne.
 
On kyllä huonoin idea mitä olen kuullut pitkään aikaan...
Älä suoraan tuomitse. Saatais laadukkaampia pelejä, kun olisi paremmin optimoitu raudalle, pelit valmistuisi lyhyemmässä ajassa. Kuluttajalle olisi helpompi valinta konetta hankkiessa kun olisi selvä pelivalikoima. Ei siinä pelkkää huonoa ole.

tämähän ei missään nimessä ollut mikään 100% trollaus, vaan enemmän keskustelun herätys. Nyt on jauhettu kuitenkin useampi kymmenen sivua samasta asiasta, niin voisihan tuoltakin kannalta asiaa miettiä.
 
Viimeksi muokattu:
Onhan noita lukuisia Nvidian yksinoikeustekniikoita jo olemassa näytön virkistystaajuuden synkronoimisesta alkaen, aina yksittäisiin hiusanimaatioihin jne.
Ja mikään noista ei estä pelaamasta mitään peliä AMD raudalla?

Ja eikös uudet G-sync moduulit tue myös VESA Adaptive Synciä, jolloin niiden pitäisi toimia myös AMD:lla? Esim. Alienware AW3420DW taitaa sisältää G-sync moduulin ja toimii myös AMD Freesyncillä?
 
Älä suoraan tuomitse. Saatais laadukkaampia pelejä, kun olisi paremmin optimoitu raudalle, pelit valmistuisi lyhyemmässä ajassa. Kuluttajalle olisi helpompi valinta konetta hankkiessa kun olisi selvä pelivalikoima. Ei siinä pelkkää huonoa ole.

tämähän ei missään nimessä ollut mikään 100% trollaus, vaan enemmän keskustelun herätys. Nyt on jauhettu kuitenkin useampi kymmenen sivua samasta asiasta, niin voisihan tuoltakin kannalta asiaa miettiä.
Ja tämähän on jo olemassa: Sitä kutsutaan konsoliksi.
 
Ja mikään noista ei estä pelaamasta mitään peliä AMD raudalla?

Ja eikös uudet G-sync moduulit tue myös VESA Adaptive Synciä, jolloin niiden pitäisi toimia myös AMD:lla? Esim. Alienware AW3420DW taitaa sisältää G-sync moduulin ja toimii myös AMD Freesyncillä?
Taisi olla että kaikissa marraskuun 2019 jälkeen tulleissa g-sync näytöissä toimii myös adaptive sync/ freesync.
 
tätähän nvidia on jo pitkään yrittänyt ajaa, mutta AMD ei ole lähtenyt tuohon mukaan. Pitäisikö tuohon mennä?

Ei missään tapauksessa. Pikemminkin nvidian täytyisi ymmärtää että silloin kun pelataan pelikentällä jossa se ei ole ainoa pelaaja, niin olisi parempi tehdä kikottimet standardien kanssa ja avoimena. Se että kaikki tekee omia suljettuja kikottimia jarruttaa kehitystä. Tai jos on haluton tekemään yhteistyötä, niin sitten on parempi siirtyä pelaamaan kentälle jossa yhteistyötä ei tartte tehdä.

Esim. nyt tää DLSS kikotin, sen nvidia voisi muuttaa aivan hyvin avoimeksi tai ylipäätään olisi voinut heti julkaista sen avoimena. Se tuli jokatapauksessa puskista AMD:lle, joten heillä olisi edelleen etulyöntiasema siinä ja todennäköisesti koko kikotin olisi jo paljon laajemmin tuettu.

Mutta suljettuna pelintekijät hyvin nihkeästi alkaa sitä käyttämään ilman lahjontarahaa nvidialta. Kohta myös Intel pukkaa samalle pelikentälle ja jos esim. Intel ja AMD kykenee paremmin tekemään yhteistyötä ja kehittämään vastaavan avoimen kikottimen niin on täysin selvää että DLSS tulee häviämään ja nvidia joutuu joka tapauksessa tukemaan sitä avointa ratkaisua.


EDIT: Ja sitten kun tuosta saatavuudesta on tapeltu niin:

amyxi5vw10361.jpg


Onko leikkiraha tehtaat taas viemässä kaikki kortit kuitenkin vaikka puhuttiin että nää ei olis hyviä kortteja leikkirahan valmistukseen...
 
Viimeksi muokattu:
EDIT: Ja sitten kun tuosta saatavuudesta on tapeltu niin:

amyxi5vw10361.jpg


Onko leikkiraha tehtaat taas viemässä kaikki kortit kuitenkin vaikka puhuttiin että nää ei olis hyviä kortteja leikkirahan valmistukseen...

Kuvassa Taiwanilainen ilma-kryptolämpöpumppu lämmittämässä covid/flunssapotilaita.
 
Voi olla että näin käy tai sitten ei. Nvidia tekoäly ja ylipäätään softateknologinen ylivoima on aivan murskaavaa kilpailuun nähden, joten ei ole mitään takeita että AMD:n vastaavat viritelmät pystyvät vuosiin tai edes koskaan haastamaan Nvidiaa.


Joku hertsien synkkaus ja AI renderöinti on sama kuin vertaisi polkupyörän ja avaruussukkulan operointia.


? Freesynkkiä löytyy muutamia poikkeuksia lukuunottamatta lähinnä SER-jäte pirkkamonitoreista, mutta jos mitään oikeata gaming ruutua kunnon spekseillä hakee niin melkein kaikissa on Gsync.

Freesyncillä taidettiin viitata adaptive syncciin joka on tänä päivänä käsittääkseni sama. Melkein kaikissa ei todellakaan ole g-sync mutta ne saattaa tuurilla olla g-sync compatible eli testattu että toimii g-syncin kanssa yhteen. Ei mun lompsalla ollut ainakaan mitään saumaa hakea oikeaa g-syncciä jossa ois se rauta näytössäkin, mutta tää compatible on testattu jo.

Niimpä. Itsellä homma on kohtalon varassa. Useampi 3080 ja 6800xt tilauksessa, se mikä saapuu ensimmäisenä pääsee koneeseen.

Itsellähän kävi tuossa sellainen että kyllästyin molempien valmistajien korttien odotteluun ja vaikka olen pyrkinyt pitämään Amd:n puolia keskustelussa niin RTX3090 lähti postiin kun verkkiksen outletissa oli Tuffia 1 kappale tarjolla.
Toivonmukaan ton tason kortilla ei tartte hetkeen DLSS koskea ;) Kaipa yleinen mielipide raytracingista kuitenkin alkoi tykyttää otsalohkossa vaikka en sitä itse koekaan mitenkään mullistavana juttuna, onpahan sitten paremmat valmiudet siihenkin jos siihen mennään, Radeonilla kun se olisi nykytiedon valossa jäänyt siihen 60fps hujakoille 1440p:llä. Hintataso alkaa olla noissa 6800xt ja 3080-lapuissakin jo sitä luokkaa että 3090, vaikka senkin hinnat noussut, oli suht helppo perustella itselle, enää kolmannes lisää vrt strix white.
 
Freesyncillä taidettiin viitata adaptive syncciin joka on tänä päivänä käsittääkseni sama. Melkein kaikissa ei todellakaan ole g-sync mutta ne saattaa tuurilla olla g-sync compatible eli testattu että toimii g-syncin kanssa yhteen. Ei mun lompsalla ollut ainakaan mitään saumaa hakea oikeaa g-syncciä jossa ois se rauta näytössäkin, mutta tää compatible on testattu jo.



Itsellähän kävi tuossa sellainen että kyllästyin molempien valmistajien korttien odotteluun ja vaikka olen pyrkinyt pitämään Amd:n puolia keskustelussa niin RTX3090 lähti postiin kun verkkiksen outletissa oli Tuffia 1 kappale tarjolla.
Toivonmukaan ton tason kortilla ei tartte hetkeen DLSS koskea ;) Kaipa yleinen mielipide raytracingista kuitenkin alkoi tykyttää otsalohkossa vaikka en sitä itse koekaan mitenkään mullistavana juttuna, onpahan sitten paremmat valmiudet siihenkin jos siihen mennään, Radeonilla kun se olisi nykytiedon valossa jäänyt siihen 60fps hujakoille 1440p:llä. Hintataso alkaa olla noissa 6800xt ja 3080-lapuissakin jo sitä luokkaa että 3090, vaikka senkin hinnat noussut, oli suht helppo perustella itselle, enää kolmannes lisää vrt strix white.

No suosittelen nyt sitä DLSS:ää edes testaamaan, niin ei tarvi muiden kuulopuheiden ja 800% zoomattujen still kuvien perusteella väitellä. ;)

Esim. siinä ilmasessa bright memory RT benchmarkissa on DLSS 2.0 tuki, jos ei yksikään DLSS 2.0 peli kiinnosta.
 
No suosittelen nyt sitä DLSS:ää edes testaamaan, niin ei tarvi muiden kuulopuheiden ja 800% zoomattujen still kuvien perusteella väitellä. ;)

Esim. siinä ilmasessa bright memory RT benchmarkissa on DLSS 2.0 tuki, jos ei yksikään DLSS 2.0 peli kiinnosta.
Eiköhän se testattua tule juu, tällä hetkellä pelit ei kuitenkaan houkutelleet, toivonmukaan jotain tulevaisuudessa tulee joku jonka kirjastoonkin hyväksyy. Tietty ehkä vois tota minecraft rtxää käydä ihmettelemässä kans, siinä tuskin dlss:kään voi mennä kovin pahasti huti :)

Edit: Ei oo kylläkään pelkästään zoomattujen stillkuvien perusteella väitelty, kyllä noita videoita tuli aiheesta tarkasteltua, joskin zoomillahan ne erot paremmin tuli siinäkin esille
 
Eiköhän se testattua tule juu, tällä hetkellä pelit ei kuitenkaan houkutelleet, toivonmukaan jotain tulevaisuudessa tulee joku jonka kirjastoonkin hyväksyy. Tietty ehkä vois tota minecraft rtxää käydä ihmettelemässä kans, siinä tuskin dlss:kään voi mennä kovin pahasti huti :)

Edit: Ei oo kylläkään pelkästään zoomattujen stillkuvien perusteella väitelty, kyllä noita videoita tuli aiheesta tarkasteltua, joskin zoomillahan ne erot paremmin tuli siinäkin esille

Joo minecraftissa ilmeisesti hyvin toimiva DLSS toteutus. Tosin se RTX versio on erillinen maksullinen versio.

No ei niistä videoistakaan pysty sitä ihan oikeasti näkemään, mille se näyttää siinä silmien edessä, koska YouTube laatu.
 
Joo minecraftissa ilmeisesti hyvin toimiva DLSS toteutus. Tosin se RTX versio on erillinen maksullinen versio.

No ei niistä videoistakaan pysty sitä ihan oikeasti näkemään, mille se näyttää siinä silmien edessä, koska YouTube laatu.
Hmm eiks se minecraft Rtx beta oo ilmainen? Mikäs hiton maksettu mainos se tällane on josta pitää vielä käyttäjänki maksaa.
 
Ja mikään noista ei estä pelaamasta mitään peliä AMD raudalla?

Ja eikös uudet G-sync moduulit tue myös VESA Adaptive Synciä, jolloin niiden pitäisi toimia myös AMD:lla? Esim. Alienware AW3420DW taitaa sisältää G-sync moduulin ja toimii myös AMD Freesyncillä?

Ei estäkään, mutta selkeitä askelia siihen suuntaan on nähty jo useita. Olisihan se mielenkiintoista, kun tuo uskallettais viedä maaliin asti.

Ei missään tapauksessa. Pikemminkin nvidian täytyisi ymmärtää että silloin kun pelataan pelikentällä jossa se ei ole ainoa pelaaja, niin olisi parempi tehdä kikottimet standardien kanssa ja avoimena. Se että kaikki tekee omia suljettuja kikottimia jarruttaa kehitystä. Tai jos on haluton tekemään yhteistyötä, niin sitten on parempi siirtyä pelaamaan kentälle jossa yhteistyötä ei tartte tehdä.

Mutta suljettuna pelintekijät hyvin nihkeästi alkaa sitä käyttämään ilman lahjontarahaa nvidialta. Kohta myös Intel pukkaa samalle pelikentälle ja jos esim. Intel ja AMD kykenee paremmin tekemään yhteistyötä ja kehittämään vastaavan avoimen kikottimen niin on täysin selvää että DLSS tulee häviämään ja nvidia joutuu joka tapauksessa tukemaan sitä avointa ratkaisua.
Tottakai standardiratkaisut tulee aina voittamaan tuollaiset rajaavat ratkaisut jos vain on kilpailua Ja jos ei aleta rajaamaan esim juuri pelejä tietylle raudalle.
 
Jos että käytä DLSS olette kyllä melko pihalla näin suoraan sanotusti! En voi ymmärtää käyttäjää joka menee ja ostaa ylivertaisen tuotteen verrattuna "vastaavaan" kilpailijan tuotteeseen. Sitten prossesoi niin että ei käytä edes näitä ylivertaisia ominaisuuksia vaan kaartaa niitä kuin ruttoa! Ihmettelen vain suuresti tätäkin tapausta taas en voi käsittää vain mitenkään miten tälläiseen pisteeseen joutuu!
 
Jos että käytä DLSS olette kyllä melko pihalla näin suoraan sanotusti! En voi ymmärtää käyttäjää joka menee ja ostaa ylivertaisen tuotteen verrattuna "vastaavaan" kilpailijan tuotteeseen. Sitten prossesoi niin että ei käytä edes näitä ylivertaisia ominaisuuksia vaan kaartaa niitä kuin ruttoa! Ihmettelen vain suuresti tätäkin tapausta taas en voi käsittää vain mitenkään miten tälläiseen pisteeseen joutuu!
Missä vitussa sitä voi ees käyttää? Ei mulla ainakaan oo ainuttakaan softaa missä se ois tuettuna niin siitä on iloa jopa vähemmän kuin siitä rutosta.
Viestisi informaatioarvo lähellä nollaa, oisit nyt vähän perustellut edes että miksi se on niin ylivertainen ominaisuus vaikka oikeasti kyseessä on täysin triviaali ominaisuus tällä hetkellä? Mopoihin ihan ok, ylivertaisen kortin pitäis piirtää ilmankin.
 
Jos että käytä DLSS olette kyllä melko pihalla näin suoraan sanotusti! En voi ymmärtää käyttäjää joka menee ja ostaa ylivertaisen tuotteen verrattuna "vastaavaan" kilpailijan tuotteeseen. Sitten prossesoi niin että ei käytä edes näitä ylivertaisia ominaisuuksia vaan kaartaa niitä kuin ruttoa! Ihmettelen vain suuresti tätäkin tapausta taas en voi käsittää vain mitenkään miten tälläiseen pisteeseen joutuu!
No mä kyllä vaan ostin nvidian tällä kertaa kun en jaksanu venaa amd:tä syyskuussa. Kävi niin, että 3090 sain melkein samantien niin sillä on menty. Ja nyt voi olla tyytyväinen valintaan, koska amd:tä venaamalla korttia tuskin ois vieläkään.

Dlss olen käyttänyt controllissa ja jälki siinä ihan jees, muita dlss pelejä en sitten olekaan pelannut (paitsi f1 2020, mutta tässä tulee niin suuri fps ettei tarvi käyttää dlss).

Nää yläpään kortit ainakin on niin jytkyjä, ettei dlss ole vielä automaattisesti tarpeen, mutta esim. Nyt julkaistun 3060ti kanssa voi olla jo paljon hyödyllisempi ominaisuus.
 
No esim. uusi AC Valhalla ei pyöri 4k resolla hyvin tuolla 3090:lla. Benchmark kyllä menee koko ajan yli 60FPS 4K Ultralla, mutta ainakin alun lumimaisemissa dippilee varsinkin veden lähellä 40 nurkille. Eikä auta asetuatw laskeminenlaan high asentoon kunnolla ratkaisemaan ongelmaa. DLSS 2.0 olisi todella tervetullut tuohon kyllä.
 
No esim. uusi AC Valhalla ei pyöri 4k resolla hyvin tuolla 3090:lla. Benchmark kyllä menee koko ajan yli 60FPS 4K ´Ultralla, mutta ainakin alun lumimaisemissa dippilee varsinkin veden lähellä 40 nurkille. Eikä auta asetuatw laskeminenlaan high asentoon kunnolla ratkaisemaan ongelmaa. DLSS 2.0 olisi todella tervetullut tuohon kyllä.

Oleellinen sana boldattu.

Väännetään kaikki muut kuvanlaatunupit kaakkoon, mutta sitten kytketään päälle optio joka renderöi lopputuloksen huonommalla resoluutiolla :facepalm:
 
No juu, olisi tervetullut ei tarkoita että sellainen ominaisuus on käytössä. Iso ongelmahan on juuri tuossa että DLSS-tukea ei ole juuri missään.
Eiköhän 3090 sentään 1440p yllä riittäviin graffoihin, onneksi...
 
No esim. uusi AC Valhalla ei pyöri 4k resolla hyvin tuolla 3090:lla. Benchmark kyllä menee koko ajan yli 60FPS 4K Ultralla, mutta ainakin alun lumimaisemissa dippilee varsinkin veden lähellä 40 nurkille. Eikä auta asetuatw laskeminenlaan high asentoon kunnolla ratkaisemaan ongelmaa. DLSS 2.0 olisi todella tervetullut tuohon kyllä.
Enemmän tämän pelin kohdalla syyttäisin ubisoftia huonosta optimoinnista. Yllättävän vähän saa buustia edes asetuksia laskemalla.
 
Huonommalla resoluutiolla mutta paremmalla kuvanlaadulla. Väliäkös sillä sitten?

Ja jos halutaan raakoja objektiviisia numeroita eikä subjektiivisia mielipiteitä, niin jotkut pienimmän neliösumman metodit todennäköisesti ei anna sille DLSS-tulokselle pienempää virhettä vaan suuremman virheen kuin natiivirendeus vähän pienemmillä muilla karkeilla; Ei ole mitään sellaista järkevää objektiivista mittaria, minkä mukaan se kuvanlaatu olisi "parempi". On vain subjektiivisia mielipiteitä, molempiin suuntiin.

Ja riippuu myös täysin siitä, mihin tarkkaan ottaen verrataan.


Tuntuu, että suurin osa porukasta ei nyt näe kokonaiskuvaa: DLSS rendattuna eletusasetuksilla (matalammasta resosta upskaalaus) on keino treidata kuvanlaatua nopeuteen. Olisi myös monta muutakin tapaa jolla kuvanlaaatua voisi treidata nopeuteen. Mikä on paras tapa, riippuu tilanteesta.

DLSSn (ja nVidian) fanit kieltäytyy kytkemästä päälle niitä muita kuvanlaatua huonontavia ja nopeutta parantavia asetuksia, ja tarkastelee DLSS erillään näistä ("pakko pelata kaikki muut nupit kaakossa, koska kuvanlaadusta ei tingitä" ja sitten "tämä DLSS antaa näin paljon FPSiä lisää ja tekee pelistä pelattava, mitä siitä jos inasen huonontaa kuvanlaatua" tajuamatta yhtään kuinka ristiriidassa nämä kaksi lausetta on keskenään. Tässä tapauksessa tosin alkup postaaja oli kokeillut myös joitain pienempiä asetuksia, eli hän ei syyllistynyt siihen.

DLSSn täysin turhaksi julistavat taas samalla tavalla failaavat kokonaiskuvan. Jos suorituskykyä ei riitä natiiviresolla rendaamiseen edes järkevän tasoisilla muilla asetuksilla, ja joudutaan joka tapauksessa rendaamaan vajaaresolla, DLSS skaalaa kuvan siitä vajaaresosta suureeen resoon paremmalla kuvanlaadulla kuin normaalit skaalausalgoritmit, ja on tällöin selvästi hyödyllinen tekniikka.


Itse olen omalla 1070llä pelannut tasan yhtä peliä vajaaresolla ylösskaalattuna, kun se ei vaan millään muuten pyöri 4k-resolla järkevästi; (Muut pyörii, kun ymmärrän että kaikkien muiden nuppien ei tarvi olla kaakossa, ja 60 Hz ruudun takia hirveän suurista FPSistä ei ole iloa enkä muutenkaan juuri pelaa refleksitähtäys-FPSiä). Tässä yhdessä pelissä DLSS todennäköisesti antaisi minulle paremman kuvanlaadun siihen skaalattuun kuvaan, jota joka tapauksessa joudun käyttämään, mutta eipä ole tällä 1070llä tuettu.



Ongelma on siinä, miten DLSSää markkinoidaan: nVidia mainostaa sitä vähän "eat your cake and have it" -keinona sekä
1) Saada nopeutta lisää (jollain resoluutiolla), kertomatta tarpeeksi suoraan(*), että se nopeus saadaan rendaamisesta matalammalla resolla ja kuvanlaatu pakosti kärsii siitä;
2) parantaa kuvanlaatua (jolloin se ei verrokkiin, esim. saman matalan resoluution rendaus huonommalla skaalauksella verrattuna anna lisää nopeutta vaan on hiukan hitaampi.)

"Tarpeeksi suoraan" siis tarkoitan mm. sitä, että esim. pelien asetuksissa kun on DLSS-ruksi, siellä ei usein sen ruksin vieressä lue, millä resolla se DLSS sen kuvan rendaa, vaan se ottaa jonkun puolet pienemmän tai 4x pienemmän pikselimäärän eikä käyttäjä pääse vaikuttamaan tähän.

Tosiasiassa näistä voi valita toisen, ei molempia; Se DLSS tekniikkana suoraan auttaa siihen, että matalalla resoluutiolla rendaamisesta ja sen upskaalaamisesta otetaan pienempi kuvanlaatuhitti eikä anna mitään nopeutta lisää ellei samalla vaihdeta huonommalla resoluutiolla rendaamiseen (minkä se pelin asetusruudun DLSS-ruksi tyypillisesti tekee), mutta jos se siihen yhdistetään, se antaa selvän kuvanlaatuhitin.


Pitäisi valita selvät vertailukohteet eri optioiden välillä ja verrata kaikkia keskenään sekä kuvanlaadussa että nopeudessa eikä napsia erillisiä vertailukohtia ignoraten toinen puoli.

Järkeviä vertailukohtia on tyyliin

1) täysi resouutio, DLSSää ei tarvita. Täydet karkit
2) täysi resoluuto, DLSSää ei käytetä, mutta muita karkkeja laitetaan hiukan pienemmälle, pyritään löytämään järkevä kompromissi kuvanlaadun ja nopeuden välillä.
3) täysi resoluutio, DLSSää ei käytetä, melko matalat karkit jotta pyörii suurella resolla ilman mitään skaalausta.
4) vajaa reso, täydet karkit, DLSSllä skaalattuna
5) vajaa reso, täydet karkit, skaalattuna tyhmemmillä keinoilla
6) vajaa reso, DLSSllä skaalattuna, karkkeja säädetty pienemmälle jotta nopeus samaa luokkaa kuin tyhmemmällä nopeammalla skaalauksella.
7) vajaa reso, tyhmä skaalaus, pienemmät karkit.

Ja DLSSn kannalta mielenkiintoista, että mitkä näistä on pareto-pisteitä nopeuden ja kuvanlaadun välillä. Ääripäät 1 ja 7 on varmasti pareto-pisteitä,
mutta ovatko 4 ja 6 pareto-pisteitä on aika oleellisia kysymyksiä.
 
Viimeksi muokattu:
Jos että käytä DLSS olette kyllä melko pihalla näin suoraan sanotusti! En voi ymmärtää käyttäjää joka menee ja ostaa ylivertaisen tuotteen verrattuna "vastaavaan" kilpailijan tuotteeseen. Sitten prossesoi niin että ei käytä edes näitä ylivertaisia ominaisuuksia vaan kaartaa niitä kuin ruttoa! Ihmettelen vain suuresti tätäkin tapausta taas en voi käsittää vain mitenkään miten tälläiseen pisteeseen joutuu!
Huonompi kuvanlaatu ei minusta ole mitenkään ylivertainen ominaisuus
 
Enemmän tämän pelin kohdalla syyttäisin ubisoftia huonosta optimoinnista. Yllättävän vähän saa buustia edes asetuksia laskemalla.

Juu paskaa on optimointi ja tosiaan noi graffiika optiot ei hirveästi tosiaan vaikuta. Juuri sen takia DLSS olisi tässä pelissä oikeasti todella hyödyllinen.
 
Kyllähän sitä DLSS nyt voi käyttää, jos haluaa sulavamman pelikokemuksen. Se on kuitenkin pitkälle kehitetty tekoäly, eikä jätepuristin mikä pakottaa resoluution toisesta toiseen hinnalla millä hyvänsä. Onhan se FPS kuitenkin pelikokemukseen vaikuttava tekijä siinä missä texturen laatukin.

Niitä eroja voi sitten kummastella jokainen itsekseen, että kuinka paljon lähti kuvanlaadusta vai lähtikö silminnähden ollenkaan.
 
Huonompi kuvanlaatu ei minusta ole mitenkään ylivertainen ominaisuus
Kopioin nyt törkeästi esimerkkikuvat toiselta foorumilta, mutta valkkaappa näistä omasta mielestäsi paras vaihtoehto ja perustele miksi (piti piilottaa suorituskykylukemat, kun DLSS päällä +80% fps):
1.png

2.png

3.png
 
Kopioin nyt törkeästi esimerkkikuvat toiselta foorumilta, mutta valkkaappa näistä omasta mielestäsi paras vaihtoehto ja perustele miksi (piti piilottaa suorituskykylukemat, kun DLSS päällä +80% fps):
1.png

2.png

3.png
Miksi minun pitäisi sotkeutua sinun kirsikanpoimintaasi?
 
Kopioin nyt törkeästi esimerkkikuvat toiselta foorumilta, mutta valkkaappa näistä omasta mielestäsi paras vaihtoehto ja perustele miksi (piti piilottaa suorituskykylukemat, kun DLSS päällä +80% fps):
1.png

2.png

3.png
Natiivi, natiivi reunanpehmennys, dlss, kaksi alinta kuitenkin selvästi parhaimmat.
 
Esitit väitteen huonommasta kuvanlaadusta, luulisi että tuossa olisi sulle erittäin helppo poimia selkeästi paras ja huonoin ja perustella miksi näin?
Joka ainoa henkilö tietää, että tuo dlss jälki ei ole lähelläkään täydellista kaikissa peleissä. Erona on, että sinä et pysty myöntämään sitä faktaa. Siksi tuo kirsikanpoimintasi lähinnä tuhlaa muiden aikaa
 
Joka ainoa henkilö tietää, että tuo dlss jälki ei ole lähelläkään täydellista kaikissa peleissä. Erona on, että sinä et pysty myöntämään sitä faktaa. Siksi tuo kirsikanpoimintasi lähinnä tuhlaa muiden aikaa
Ööh, et vissiin ole lukenut viestejäni muissa ketjussa. Hyvin toteutettuna, kuten tuossa Deliver Us The Moonissa ja Controllissa jälki on loistavaa, mutta esim. CoD CW:ssä tulee häntimistä joistain objekteista (liikevektorit puuttuu?).
 
Ööh, et vissiin ole lukenut viestejäni muissa ketjussa. Hyvin toteutettuna, kuten tuossa Deliver Us The Moonissa ja Controllissa jälki on loistavaa, mutta esim. CoD CW:ssä tulee häntimistä joistain objekteista (liikevektorit puuttuu?).
Ja pointtihan nimenomaan oli, että se ei ole hyvin toteutettu tai bugaa osassa pelejä. Kiitos kun lopultakin näit valon
 
DLSS:ää pitää mielestäni arvioida sen perusteella, millaisen ruudunpäivitysnopeuden se mahdollistaa. Jos käyttäjän targettina on vaikka 30-60fps, lukittu 60fps tai vaikka 100-120fps, niin millaisilla asetuksilla se saavutetaan samalla tinkien vähiten (subjektiivisesta) kuvanlaadusta. Tässä kohtaa ei näytönohjaimesta riippuen välttämättä mikään grafiikka-asetus tarjoa "täydellistä" kuvaa, koska puhti ei vaan riitä. Käyttäjä sitten subjektiivisesti arvioi, mikä kompromissi on hänelle sopivin.

EDIT: Nykypeleissä on muutenkin välillä ihmeellisiä grafiikka-asetuksia, jotka kytken itse aina pois päältä vaikka se tarkoittaisi että ei ole enää "Ultra"-asetukset. En tajua, kenen neronleimaus on ollut esim. lisätä chromatic aberration peleihin.
 
Viimeksi muokattu:

Statistiikka

Viestiketjuista
297 600
Viestejä
5 075 786
Jäsenet
81 336
Uusin jäsen
jorskaattori

Hinta.fi

Back
Ylös Bottom