Virallinen: NVIDIA vs AMD (vs Intel) keskustelu- ja väittelyketju

  • Keskustelun aloittaja Keskustelun aloittaja Sampsa
  • Aloitettu Aloitettu
Samoin olisi todennäköisesti nillitystä siellä käytetyistä ratkaisusta, jos ja kun ne toimivat jollain tietyllä raudalla paremmin ja jokainen koittaisi vängätä sinne omat virityksesnsä, joka puolestaan heikentisi tilannetta.
Kuvasit juuri DLSS:n suurimmat ongelmat. Miten avoimuus heikentää tilannetta?
 
Ei se ole mitään "piikittelyä" vaan faktaa.

Se, että tätä kutsuu "piikittelyksi" on melko typerää firman mainoshömpän kriitikitöntä uskomista.

DLSS renderöi kuvan matalammalla resoluutiolla, se tuottaa vähemmän informaatiota.

Sen jälkeen se tämän matalaresoluutiosen kuvan perusteella neuroverkon avustuksella "arpoo" sinne puuttuvat kohdat.

Usein se onnistuu tuottamaan melko kauniin kuvan(joka silti ei vastaa alkuperäistä yksityiskohdiltaan), välillä se mokaa ja kuvaan tulee hassuja artefakteja,.

Keskimäärin se sijoittuu kuvanlaadultaan täyden resoluution natiivikuvan ja yksinkertaisimmilla algoritmeilla ylösskaalatun matalaresoluutiokuvan välille.



Joo, sen tällaisista kommenteista kyllä huomaa.

Se, että kuvittelee että neuroverkko on taikakapine jolla voitaisiin vajaasta infromaatiosta generoitua enemmän oikeaa informaatiota osoittaa melkoista ymmärtämättömyyttä.
:speak:
Nyt kyllä meni sultakin koko pointini ohi. Missäs kohtaa mä väitän noita Nvidian mainoslauseita?

Tai ehkä parempi ettet vastaa kun et ekaa viestiä osanut tulkita muutenkaan.
 
Eli ei löytynyt ensimmäistäkään testiä joka tukisi väitettäsi.
Siis mitä ihmettä nyt taas? DLSS aiheuttaa kuvaan artifakteja, jotka eivät siihen kuulu, mikä tekee siitä objektiivisesti huonomman automaattisesti. Subjektiivisesti vastauksia on tasan yhtä monta kuin vastaajia.
 
Katsoppa vaikka miten OPEN GL kehittyi VS Direct X ja hyvällä tuurilla asia härmistyy sinulle. Jos ei selviä, niin en osaa auttaa ongelmasi kanssa.
En ole missään kohtaa ehdottanut että nvidian pitäisi joku consortium perustaa asian ympärille. Se riittäisi täysin että käyttäisivät directML apia, tai tekisivät sille oman koodipolun. Näin toimiessaan nvidia saisi tuosta nykyhypen siivittämänä defacto standardin (jota he itse hallinnoisivat) alalle, surullisen kananlennon sijaan.

edit: jopa se riittäisi, että dokumentoisivat dlss dll:n apikutsut ja mahdollistaisivat option enabloimisen myös muilla alustoilla jos joku toimiva dlss dll löytyy järjestelmästä.
 
Viimeksi muokattu:
Millainen tälläisen testin sinusta tulisi olla menetelmiltään?

Esim. ihan samanlainen kuin ne n+1 testiä joita jo nyt on olemassa joissa sitä verrataan natiiviin ja (yleensä) suositellaan laittamaan se päälle, eli arvostettu/puolueeton sivusto testaa ja antaa arvionsa.

Siis mitä ihmettä nyt taas? DLSS aiheuttaa kuvaan artifakteja, jotka eivät siihen kuulu, mikä tekee siitä objektiivisesti huonomman automaattisesti. Subjektiivisesti vastauksia on tasan yhtä monta kuin vastaajia.

No ei tee, voit toki väittää, että kuva ei ole oikea, mutta huonompaa se ei siitä millään muotoa automaattisesti tee, se on oma subjektiivinen näkemyksesi johon löytyy aika heikosti perusteluja.
 
Esim. ihan samanlainen kuin ne n+1 testiä joita jo nyt on olemassa joissa sitä verrataan natiiviin ja (yleensä) suositellaan laittamaan se päälle, eli arvostettu/puolueeton sivusto testaa ja antaa arvionsa.
Eli haluat että joku muka-meritoitunut henkilö subjektiivisesti arvioi tota humpuukia ilman alan (kuvatekniikka) erikoisosaamista?

Kaotik on arvostetun tietotekniikkasivuston sisällöntuottaja ja on tässä ketjussa antanut oman subjektiivisen arvionsa aiheesta, mutta se ei nyt jostain syystä sinulle kelpaa?
 
Gooletapas vaikka dlss moire, sillä löytyy esim. tämä

Death strandingissa dlss2.0 on paras optio. Se perus TAA blurraa kuvan ihan sutuksi, näkyy esim. hiuksissa. Ilman taa/dlss2.0 kamala shimmeröinti. Harmittavasti death strandingissä ei ole renderöintimoodia, joka olisi täysin virheetön. Tai no, toki vois renderöidä SSAA:lla, jos on kortti joka jaksaa isompia resoluutioita.
 
En ole missään kohtaa ehdottanut että nvidian pitäisi joku consortium perustaa asian ympärille. Se riittäisi täysin että käyttäisivät directML apia, tai tekisivät sille oman koodipolun. Näin toimiessaan nvidia saisi tuosta nykyhypen siivittämänä defacto standardin alalle surullisen kananlennon sijaan.
Asiat kehittyvät. Nvidia teki DLSS:n joka on pirun hyvä juttu. Nyt, kun AMD:tä ja Inteliä potkitaan perseelle Nvidian taholta DLSS:n muodossa, niin niillä on painetta kehitellä joku toimiva ratkaisu mahdollisimman äkkiä. Sillävälin loput voivat nauttia DLSS:stä. Ei ole aikaa kiistellä ja vääntää suuntaan ja toiseen tai Nvidia pysyy asiassa edellä..
Lisäksi on tietysti konsolien liian suorituskyvyttömät GPU:t (kun mainostivat 4K:ta) , jotka vaativat myös kipeästi jotain vastaavaa ja vielä enemmän. Tämä pitää huolen, että MS telkee DX:n kanssa parhaansa..

Sitten kun on joku enemmän tai vähemmän "open" / DX versio olemassa ja jos ja kun se on toimiva, niin pidän miltei varmana, että Nvidiakin tukee sitä.
----------------------
Valmistustekniikka asettaa kokoajan pahempia rajoitteita isommille piireille. Lisäksi höperöt mielipuolet ovat vaatimassa monitoreihin 8K resoja ja suuria virkistystaajuuksia (eihan nyt kukaan alle 240 FPS:n pelaa!, jos tiettyihin threadeihin täällä katsotaan). On täysin selvää, että mikään näyttis ei tule noihin kykenemään. Skaalauksia tullaan käyttämään tulevaisuudessa enenevässä määrin.
----------------------
Oma lukunsa on tietysti sitten läppärit, joissa on tiukat TDP rajat ja GPU:t ovat huomattavan mopoja VS pöytäkoneet..
 
Death strandingissa dlss2.0 on paras optio. Se perus TAA blurraa kuvan ihan sutuksi, näkyy esim. hiuksissa. Ilman taa/dlss2.0 kamala shimmeröinti. Harmittavasti death strandingissä ei ole renderöintimoodia, joka olisi täysin virheetön. Tai no, toki vois renderöidä SSAA:lla, jos on kortti joka jaksaa isompia resoluutioita.
Taas kunnon whataboutismia. Huono TAA toteutus ei tarkoita etteikö DLSS:ssä olisi mainittuja virheitä, joita täällä monet jostain syystä tykkää kieltää. Kyseisessä pelissä DLSS on objektiivisesti huono optio, sillä se ei ole käytettävissä valtaosalla pelaajista.
Enemmän taitaa kirjoitella yksityishenkilönä hyvin punaisten lasien läpi, kuin puolueettomana sisällöntuottajana
Subjektiiviset kokemukset (joiden perään @AvatarX kuulutti) on aina subjektiivisia kokemuksia. Niistä ei voi henkilöä ottaa pois.
Asiat kehittyvät. Nvidia teki DLSS:n joka on pirun hyvä juttu. Nyt, kun AMD:tä ja Inteliä potkitaan perseelle Nvidian taholta DLSS:n muodossa, niin niillä on painetta kehitellä joku toimiva ratkaisu mahdollisimman äkkiä. Sillävälin loput voivat nauttia DLSS:stä. Ei ole aikaa kiistellä ja vääntää suuntaan ja toiseen tai Nvidia pysyy asiassa edellä..
Lisäksi on tietysti konsolien liian suorituskyvyttömät GPU:t (kun mainostivat 4K:ta) , jotka vaativat myös kipeästi jotain vastaavaa ja vielä enemmän. Tämä pitää huolen, että MS telkee DX:n kanssa parhaansa..

Sitten kun on joku enemmän tai vähemmän "open" / DX versio olemassa ja jos ja kun se on toimiva, niin pidän miltei varmana, että Nvidiakin tukee sitä.
----------------------
Valmistustekniikka asettaa kokoajan pahempia rajoitteita isommille piireille. Lisäksi höperöt mielipuolet ovat vaatimassa monitoreihin 8K resoja ja suuria virkistystaajuuksia (eihan nyt kukaan alle 240 FPS:n pelaa!, jos tiettyihin threadeihin täällä katsotaan). On täysin selvää, että mikään näyttis ei tule noihin kykenemään. Skaalauksia tullaan käyttämään tulevaisuudessa enenevässä määrin.
----------------------
Oma lukunsa on tietysti sitten läppärit, joissa on tiukat TDP rajat ja GPU:t ovat huomattavan mopoja VS pöytäkoneet..
Kunnon romaanin kirjoitit taas ja sisältöä pyöreät nolla. Nvidialla olisi avaimet käsissä olla se taho joka määrittää nuo tulevat avoimet tai puoliavoimet skaalaustekniikat omilla ehdoillaan. Sen sijaan se nyt onanoi nurkassaan ja sen tekniikka tullaan unohtamaan parin vuoden kuluttua.
 
Heinäkuulta, onko tämä nyt sitten rtx3000 ja dlss2 juttuja. Samat kaivetaan vielä vuosienkin päästä vaikka pelin ja ajurin päivitykset korjannu ongelmat.
On DLSS 2.0 ja pätee myös 3000 sarjaan ja on edelleen. Samassa pelissä on myös mm tällaista pientä (timestamp)


Unohtamatta halo-artifakteja terävöityksen vuoksi ja partikkeliefektitkin se hajottaa:
Tältä pitäisi näyttää (tämäkin on itseasiassa upscalettu kuva mutta ei DLSS:llä)
1606693865138.png


Tältä näyttää:
1606693895513.png
 
Taas kunnon whataboutismia. Huono TAA toteutus ei tarkoita etteikö DLSS:ssä olisi mainittuja virheitä, joita täällä monet jostain syystä tykkää kieltää. Kyseisessä pelissä DLSS on objektiivisesti huono optio, sillä se ei ole käytettävissä valtaosalla pelaajista.

Mun pointti asiassa oli, että kun tästä keskustellaa niin asiaa voi katsoa monesta kulmasta. Yksi kulma on teoreettinen mikä on paras mahdollinen asia maailmassa. Toinen kulma voi olla, että haluan pelata peliä X, mikä on pelissä X paras mahdollinen optio. Se miksi halusin asiasta mainita on, että esim. death stranding pelissä dlss2.0 on se realistinen paras vaihtoehto, kun ne muut vaihtoehdot ovat vielä huonompia. Toki kolmas kulma on skipata kaikki pelit, missä ei ole täydelliset grafiikat. Täällä vääntäessä vaan monesti unohtuu se realismi pelien kohdalla, että mitä vaihtoehtoja pelissä on tarjolla ja niistä se pienimmän pahan valitseminen. Toisinaan paraskaan pelissä tarjolla oleva vaihtoehto ei ole täydellinen. Eikä ne viat mitä löytyy välttämättä yleisty koko peliin vaan niitä on tuntikausia metsästetty, että löydetään paikka mistä voi valittaa.
 
On DLSS 2.0 ja pätee myös 3000 sarjaan ja on edelleen. Samassa pelissä on myös mm tällaista pientä (timestamp)


Unohtamatta halo-artifakteja terävöityksen vuoksi ja partikkeliefektitkin se hajottaa:
Tältä pitäisi näyttää (tämäkin on itseasiassa upscalettu kuva mutta ei DLSS:llä)
1606693865138.png


Tältä näyttää:
1606693895513.png

Aivan pelikelvotonta kertakaikkiaan
 
Mun pointti asiassa oli, että kun tästä keskustellaa niin asiaa voi katsoa monesta kulmasta. Yksi kulma on teoreettinen mikä on paras mahdollinen asia maailmassa. Toinen kulma voi olla, että haluan pelata peliä X, mikä on pelissä X paras mahdollinen optio. Se miksi halusin asiasta mainita on, että esim. death stranding pelissä dlss2.0 on se realistinen paras vaihtoehto, kun ne muut vaihtoehdot ovat vielä huonompia. Toki kolmas kulma on skipata kaikki pelit, missä ei ole täydelliset grafiikat. Täällä vääntäessä vaan monesti unohtuu se realismi pelien kohdalla, että mitä vaihtoehtoja pelissä on tarjolla ja niistä se pienimmän pahan valitseminen. Toisinaan paraskaan pelissä tarjolla oleva vaihtoehto ei ole täydellinen. Eikä ne viat mitä löytyy välttämättä yleisty koko peliin vaan niitä on tuntikausia metsästetty, että löydetään paikka mistä voi valittaa.
Kyseinen peli onneksi on aika kevyt ajaa ja rullaa 4k resollakin keskitason näyttiksellä hieman vajaat 100fps. En koe että moisessa yksinpelissä kovemmista ruudunpäivitysnopeuksista on kovin paljon hyötyä.
 
Kyseinen peli onneksi on aika kevyt ajaa ja rullaa 4k resollakin keskitason näyttiksellä hieman vajaat 100fps. En koe että moisessa yksinpelissä kovemmista ruudunpäivitysnopeuksista on kovin paljon hyötyä.

Se natiivi 4k on blurrinen taa:n kanssa ja shimmeröi ilman taa/dlss2.0:aa myös 4k:na. Digital Foundry on purkanut tuon pelin hyvin palasiksi ja tehnyt argumentin miksi dlss2.0:aa kannattaa tuon pelin kanssa käyttää. Toki jos voit 8k:ksi renderöidä ja siitä skaalata 4k:ksi niin ei tarvi miettiä asiaa sen pidemmälle kompromissien kanssa.
 
Se natiivi 4k on blurrinen taa:n kanssa ja shimmeröi ilman taa/dlss2.0:aa myös 4k:na. Digital Foundry on purkanut tuon pelin hyvin palasiksi ja tehnyt argumentin miksi dlss2.0:aa kannattaa tuon pelin kanssa käyttää. Toki jos voit 8k:ksi renderöidä ja siitä skaalata 4k:ksi niin ei tarvi miettiä asiaa sen pidemmälle kompromissien kanssa.
Tai 4k:sta 1440p resolle?
 
Taas kunnon whataboutismia. Huono TAA toteutus ei tarkoita etteikö DLSS:ssä olisi mainittuja virheitä, joita täällä monet jostain syystä tykkää kieltää. Kyseisessä pelissä DLSS on objektiivisesti huono optio, sillä se ei ole käytettävissä valtaosalla pelaajista.

Subjektiiviset kokemukset (joiden perään @AvatarX kuulutti) on aina subjektiivisia kokemuksia. Niistä ei voi henkilöä ottaa pois.

Kunnon romaanin kirjoitit taas ja sisältöä pyöreät nolla. Nvidialla olisi avaimet käsissä olla se taho joka määrittää nuo tulevat avoimet tai puoliavoimet skaalaustekniikat omilla ehdoillaan. Sen sijaan se nyt onanoi nurkassaan ja sen tekniikka tullaan unohtamaan parin vuoden kuluttua.
Jos avaat silmät ja katsot ympärillesi, niin asioiden kehittely itsekseen on hyvinkin yleinen ilmiö. Katso vaikka MS, APPLE, Sony ym ym.
Ei ole kertakaikkisen mitään järkeä antaa uusia ideoita kilpailijoille mitensattuu, jos niillä voi hyödyttää itseään. Firmojen on tarkoitus tehdä voittoa mahdollisimman paljon, ei auttaa yleisesti kehittelyssä (Jos se sei tuota enemmän voittoa) Nvidia on tuossa kisassa vielä hyvin pieni tekijä ja AMD:llä taas on ollut se ongelma, että se oli altavastaaja asemassa sekä CPU, että GPU puolella, niin sen oli pakko tehdä yhteistyötä ja mielistellä muita. Nyt kun lopulta saatiin pelipuolellekin hyvä CPU, niin hintakin nousi heti selkeästi (ja tämä on vasta alkua, jos asetelma säilyy). GPU puoli taas vaatii vielä mielistelyä ym.. Faneja, joille kelpaa kaikki kun ei ole loputtomasti..
 
Toimii toki niille joilla on vain 1440p monitori ja 4k kelpoinen gpu.
Hyvälaatuiset 4k 120hz ruudut on niin kalliita, että siinä vaiheessa kun moinen on alla niin se näyttiskin on toivottavasti vähän keskitasoa rivakampi. Muutenkaan 4k resolla pieni pehmeys ei kauheasti haittaa, noi TAA:n ongelmat on paljon validimpeja 1080p resolla pelattaessa.
 
Enemmän taitaa kirjoitella yksityishenkilönä hyvin punaisten lasien läpi, kuin puolueettomana sisällöntuottajana
Vain jos elää mustavalkoisessa maailmassa, missä kaikki mikä ei ole vihreiden lasien läpi on sitten punaisten lasien läpi :kippis:
 
Hyvälaatuiset 4k 120hz ruudut on niin kalliita, että siinä vaiheessa kun moinen on alla niin se näyttiskin on toivottavasti vähän keskitasoa rivakampi. Muutenkaan 4k resolla pieni pehmeys ei kauheasti haittaa, noi TAA:n ongelmat on paljon validimpeja 1080p resolla pelattaessa.

Jokainen hakee omalle kohdalle sopivan kompromissin. Mä lähden omissa pelailuissa digital foundryn ja muiden arvostelijoiden suosituksesta liikkeelle. Jos ei miellytä niin haen paremmat asetukset. Viikon päästä päästään vääntämään cyberpunk2077:en säteenseuranta ja dlss2.0(?) toteutuksesta. Aika monen dlss2.0 pelin kohdalla digital foundry&co on suosittelee laittamaan dlss2.0:an päälle.
 
Siis yritetäänkö täällä puolustella jotain DLSS kuvanhuononnustekniikkaa ihan kirkkain silmin ja väittää, että se toimii suunnitellusti? Toki jos ei häiriinny immersion tuhoavista artefakteista ja kuvahäröistä (moire yms), niin ihan hyvä. Osaisipa itsekin olla näkemättä kaikkia artefakteja kuvissa ja voisi nauttia pelistä vääristyneillä grafiikoilla.
 
Digital foundryn tuomio death strandingin kuvanhuononnustekniikoista. Ja tuo niistä linnuista ja moire efekteistä huolimatta.

if you are not utilising DLSS, I can only recommend TAA as this is a modern game engine - the TAA in Decima engine is most similar to the SMAA T2x you might have seen in other games, so it is not overly soft but it still ghosts at times like other TAA implementations. It is cheap in performance terms and has better coverage than FXAA. Seriously though, DLSS is where it's at for Death Stranding.

 
Siis yritetäänkö täällä puolustella jotain DLSS kuvanhuononnustekniikkaa ihan kirkkain silmin ja väittää, että se toimii suunnitellusti? Toki jos ei häiriinny immersion tuhoavista artefakteista ja kuvahäröistä (moire yms), niin ihan hyvä. Osaisipa itsekin olla näkemättä kaikkia artefakteja kuvissa ja voisi nauttia pelistä vääristyneillä grafiikoilla.
Täällä on todettu, että se on tekniikka, joka tekee senverran hyvää jälkeä monissa peleissä, että porukka pistää sen mielellään päälle ja pelailee sen kanssa tyytyväisenä, ennemmin, kuin menee karsimaan muuten asetuksista. Lisäksi sille ei ole toistaiseksi, eikä ole tiedossa, milloin on, mitään vaihtoehtoa kilpailijoilla. Lisäksi on todettu, että sitä ei ole pakko pitää päällä, jos on sitä mieltä, että jälki on huonoa.
 
...väitätkö sä oikeasti, ettetkö olis minkäänvertaa sinne punaseen leiriin kallellaan?
@Kaotik aina perustelee kantansa lähteillä, kuvilla, videoilla yms. Vähän heikommalta tuntuu kyllä tuo ”toisen puolen” lähteiden käyttö, enemmänkin heitellään vaan mutulla ja mielipiteellä kaikennäköistä tauhkaa ketjut täyteen ja viitataan kintaalla oikeille faktoille ja lähteille. Helppohan se on huudella ja viljellä pitämättömiä ”faktoja” ja yrittää vierittää todistustaakka toiselle.
 
Siis yritetäänkö täällä puolustella jotain DLSS kuvanhuononnustekniikkaa ihan kirkkain silmin ja väittää, että se toimii suunnitellusti? Toki jos ei häiriinny immersion tuhoavista artefakteista ja kuvahäröistä (moire yms), niin ihan hyvä. Osaisipa itsekin olla näkemättä kaikkia artefakteja kuvissa ja voisi nauttia pelistä vääristyneillä grafiikoilla.
No kuka puolustaa ja mitä. Pelikohtaisesti kannattaa katsoa itseä miellyttävät asetukset. Ei dlss ole suunniteltu tietääkseeni olemaan kuvanparannustekniikka? Vaan tuomaan lisää fps minimaalisella huononnuksella.

Oletko pelannut mitään oikeasti dlss päällä ja verrannut samaa peliä dlss pois vai mutuiletko?
 
@Kaotik aina perustelee kantansa lähteillä, kuvilla, videoilla yms. Vähän heikommalta tuntuu kyllä tuo ”toisen puolen” lähteiden käyttö, enemmänkin heitellään vaan mutulla ja mielipiteellä kaikennäköistä tauhkaa ketjut täyteen ja viitataan kintaalla oikeille faktoille ja lähteille. Helppohan se on huudella ja viljellä pitämättömiä ”faktoja” ja yrittää vierittää todistustaakka toiselle.

Riittääkö toi mun ylle linkkaama digital foundryn death stranding arvostelu siihen, että ainakin yhdessä pelissä dlss2.0 on se paras optio? Ja jos se kelpaa niin eikun katsomaan mitä digital foundry tai vaikka io-tech on sanonut minecraft:sta, control:sta ja muista dlss2.0 peleistä. Muutama niistä on mätiä kuten f12020, jossa dlss:aa ei kannata laittaa päälle. Control:ssa pitää tietty muistaa, että julkaisussa oli huonompi dlss kuin mitä myöhemmin tuotiin päivityksellä sisään. Kaikki arvostelijat eivät tuota pätsiä ole testanneet ja päivittäneet arvostelua.
 
Riittääkö toi mun ylle linkkaama digital foundryn death stranding arvostelu siihen, että ainakin yhdessä pelissä dlss2.0 on se paras optio? Ja jos se kelpaa niin eikun katsomaan mitä digital foundry tai vaikka io-tech on sanonut minecraft:sta, control:sta ja muista dlss2.0 peleistä. Muutama niistä on mätiä kuten f12020, jossa dlss:aa ei kannata laittaa päälle. Control:ssa pitää tietty muistaa, että julkaisussa oli huonompi dlss kuin mitä myöhemmin tuotiin päivityksellä sisään. Kaikki arvostelijat eivät tuota pätsiä ole testanneet ja päivittäneet arvostelua.
Jotkut ihmiset on eri tavalla herkkiä erilaisille kuvahäiriöille. Esimerkiksi tuossa death strandingissa vastakkain on shimmeröinti sekä halot + rikkinäiset partikkelit. Se että DF:n joku rando valitsee näistä jälkimmäisen ei tarkoita että kyseessä olisi mitään muuta kuin yhden henkilön subjektiivinen preferenssi. Henkilökohtaisesti pidän hänen tekemää valintaa vääränä.

edit:
Väärä sen takia, että itse en voi yleisesti sietää haloja ja mulla on nollatoleranssi rikkinäisten grafiikkaefektien kohdalla. DF:n tapauksessa häiritsee lisäksi se, että nvidia tuskin korjaa paskaansa jos sitä sen ilmiselvistä heikkouksista riippumatta kehutaan ylivertaisena.
 
Digital foundryn tuomio death strandingin kuvanhuononnustekniikoista. Ja tuo niistä linnuista ja moire efekteistä huolimatta.
Se nimenomaan alleviivaa sitä, että tuollaisten subjektiiviseen kokemukseen perustuvaa suositusta ei pitäisi tehdä korostamatta että kyse on arvostelijan subjektiivisesta mielipiteestä. Kun noin päivänselvät ongelmat eivät häiritse, mitä kaikkea muuta paskaa voi saada samoilta kavereilta lämpimät suositukset?
Riittääkö toi mun ylle linkkaama digital foundryn death stranding arvostelu siihen, että ainakin yhdessä pelissä dlss2.0 on se paras optio? Ja jos se kelpaa niin eikun katsomaan mitä digital foundry tai vaikka io-tech on sanonut minecraft:sta, control:sta ja muista dlss2.0 peleistä. Muutama niistä on mätiä kuten f12020, jossa dlss:aa ei kannata laittaa päälle. Control:ssa pitää tietty muistaa, että julkaisussa oli huonompi dlss kuin mitä myöhemmin tuotiin päivityksellä sisään. Kaikki arvostelijat eivät tuota pätsiä ole testanneet ja päivittäneet arvostelua.
Kuten löytyy myös arvostelijoita, jotka eivät niistä pidä. Miksi yhden subjektiivinen kanta on toista arvokkaampi? Juuri tämän vuoksi tällaiset subjektiiviset asiat pitäisi aina korostaa vilkkuvaloin ja sireenein että kyse on vain ko. arvostelijan subjektiivisesta kokemuksesta.
 
Se nimenomaan alleviivaa sitä, että tuollaisten subjektiiviseen kokemukseen perustuvaa suositusta ei pitäisi tehdä korostamatta että kyse on arvostelijan subjektiivisesta mielipiteestä. Kun noin päivänselvät ongelmat eivät häiritse, mitä kaikkea muuta paskaa voi saada samoilta kavereilta lämpimät suositukset?

Siellä on ne päivänselvät shimmeröinti(natiivi) ja blurrisuudet(taa) jos ei käytä dlss2.0:aa.. Ikävä kyllä tuossa pelissä ei ole täydellistä implementaatiota ellei sitten mene ssaa:lla. Ikävästi virheitä kuvasta löytyy natiivi ja taa moodeissakin death strandingissä. dlss2.0 ei ole yksin ongelmiensa kanssa. Se on sitten jokaisen oma asia minkä kokee pienimmän pahan kompromissiksi. Ihan sama pätee myös minecraftiin, control:iin jne. Ja reilun viikon päästä sitten sama ralli uusiksi cyberpunk2077:en kanssa.

Kyllähän nuo digital foundryn tyypit ansiokkaasti purkaa palasiksi pelit. Jos jaksaa kuunnella ja ymmärtää koko niiden sisällön per peli niin aika nopeasti pääsee jäljille mikä olisi se itselle mieluisin asetus pelissä. Ikävä kyllä se ei selviä yhdestä zoomatusta kuvasta tai videosta, jonka ottamiskohta on vaivalla haettu. Unohtuu se metsä, kun keskitytään puidenoksiin.
 
On DLSS 2.0 ja pätee myös 3000 sarjaan ja on edelleen. Samassa pelissä on myös mm tällaista pientä (timestamp)


Unohtamatta halo-artifakteja terävöityksen vuoksi ja partikkeliefektitkin se hajottaa:
Tältä pitäisi näyttää (tämäkin on itseasiassa upscalettu kuva mutta ei DLSS:llä)
1606693865138.png


Tältä näyttää:
1606693895513.png


Kerrassaan karmean näköistä. Taidankin valita 100FPS DLSS:n tilalle 20FPS ilman näitä kuvanhuononnuksia.
 
Kerrassaan karmean näköistä. Taidankin valita 100FPS DLSS:n tilalle 20FPS ilman näitä kuvanhuononnuksia.

Tai jos vaikka vaihdat sen 1650:n oikeaan näytönohjaimeen, niin saat death strandingissa yli 20fps. (no liioittelua, ei 1650:ssa ole dlss tukea, mutta ei dlss tuo myöskään huutelemaasi 5x nopeuslisää).

stranding.PNG
 
Asiat kehittyvät. Nvidia teki DLSS:n joka on pirun hyvä juttu. Nyt, kun AMD:tä ja Inteliä potkitaan perseelle Nvidian taholta DLSS:n muodossa, niin niillä on painetta kehitellä joku toimiva ratkaisu mahdollisimman äkkiä. Sillävälin loput voivat nauttia DLSS:stä. Ei ole aikaa kiistellä ja vääntää suuntaan ja toiseen tai Nvidia pysyy asiassa edellä..
Lisäksi on tietysti konsolien liian suorituskyvyttömät GPU:t (kun mainostivat 4K:ta) , jotka vaativat myös kipeästi jotain vastaavaa ja vielä enemmän. Tämä pitää huolen, että MS telkee DX:n kanssa parhaansa..
Eivät voi, koska kyseinen höpöhöpötekniikka taitaa olla käytössä peräti kourallisessa pelejä joista suurin osa on henkilökohtaisella tasolla ihan puhdasta paskaa. Osa voi siitä nauttia ja kyllähän tuo voi olla houkutteleva vaihtoehto Raytracingin kanssa yhtäaikaa kytkeä päälle. Kauhea määrä kallista rautaa tungettuna kortille muutaman sekundatitlen takia, mikä tulee olemaan se suurin syy miksi en itsekään näe DLSS:ää kuin kananlentona. Tiedän myös jengiä jotka katselee maailmaa täysin vihreiden lasien läpi, mutta eivät pitkällä tikullakaan koskisi moisiin featureihin, mielenkiinnosta haluaisin itse testata ja hetken aikaa RTX-kortin kanssa olinkin kiinnostunut, mutta kun katsoin listan tukevista peleistä totesin että antaapa olla.
Kauhean pitkä vääntö featuresta joka on tällä hetkellä erittäin triviaali, ja raytracingin (vaikka tämä yleisempi onkin) tapaan enemmän tech-demo-asteella kuin oikeasti käytössä oleva ominaisuus.
"Future is here old man" - voi olla että tällainen on tulevaisuutta, toisaalta taas jos kortit kehittyy tehojen suhteen niin tarvitaanko tällaista enää vai saadaanko natiiviresoluutiot pyörimään ilman kikkailuja?
 
Enemmän tunteita pintaan nostattaa tuon ominaisuuden suhteeton esiin nostaminen. Arvostelujen 10 pelistä yleensä n. 50% tuntuu tukevan DLSS + RT, kun edes uusista peleistä mututuntumalla alle 10% tukevat niitä ja vanhemmista ei käytännössä yksikään.

Ainakin niistä peleistä joita itse odotan pelaavani lähitulevaisuudessa tasan nollassa on nämä käytössä. WoW shadowlandsissa haluaisin testata miten tuo muuttaa ulkoasua, mutta siltikään tuskin tulen peliä pelaamaan. Muissa peleissä FPS on jo valmiiksi niin huono, ettei RT:tä voi kuvitella vielä ensi generaatioonkaan. Mieluummin otan lisää resoluutiota (VR).
 
Jännästi se höpöhöpö tekniikka silti nostaa tunteet pintaan, niillä joilla sitä ei ole. Testaamatta paskaa. :lol:
Ei se tunteita pintaan nosta, mutta 2 sivua vääntöä jostain täysin turhasta tekniikasta, oikeastaan ei ole edes Topicin mukaista kun kyse ei ole amd vs intel väittelystä. En odota tuosta MS ja Amd kötöstyksestä yhtään sen parempaa, mutta siinä olen samaa mieltä kuin moni että Nvidia ampuu itseään polveen sillä että dlss on suljettu tekniikka tai sitten pelintekijöille pitää tunkea taalereita että moista aletaan peleihin lisäämään

EDIT: Oikeastaan enemmän huvittaa miten koko vihreä leiri yhtenä rintamana rummuttaa DLSS 2.0 puolesta. Moniko teistä on edes testannut ko ominaisuutta?
EDIT2: En ole kallellaan kummallekaan värille, vaikka tällä hetkellä AMD:n kortti kiinnostaisi itseasiassa enemmän, mutta otan sen leirin kortin joka ensin minulle toimitetaan. Ensimmäinen 3080 jonka sain oli huono ja lähti jatkamaan sitä huonouttaan muualle
 
Asiaton käytös
Jännästi se höpöhöpö tekniikka silti nostaa tunteet pintaan, niillä joilla sitä ei ole. Testaamatta paskaa. :lol:
Se tässä koko kinassa taitaakin olla pointti. Joku sanoikin jossain että tämä on arvostettu foorumi, mutta niin kauan kun tuollainen täysin sairas ihminen huutelee täällä ja vielä modenatsat päällä niin jokainen tietää ettei tämä foorumi voi olla mitenkään arvostettu. Minusta on hyvä että käydään keskustelua aiheesta, mutta tuon yhden tyyli keskustella on täysin mahdoton. Milloin on kyseessä kuvanhuononnustekniikka ja milloin on nvidian sponsoroima peli. Sit kun joku kaivaa pelin joka on optimoitu amd:lle niin se vaan koitetaan ohittaa mahdollisimman nopesti, varsinki kun ei se oma kultapuppelifirma pärjännyt sen kanssa
 
Eivät voi, koska kyseinen höpöhöpötekniikka taitaa olla käytössä peräti kourallisessa pelejä joista suurin osa on henkilökohtaisella tasolla ihan puhdasta paskaa. Osa voi siitä nauttia ja kyllähän tuo voi olla houkutteleva vaihtoehto Raytracingin kanssa yhtäaikaa kytkeä päälle. Kauhea määrä kallista rautaa tungettuna kortille muutaman sekundatitlen takia, mikä tulee olemaan se suurin syy miksi en itsekään näe DLSS:ää kuin kananlentona. Tiedän myös jengiä jotka katselee maailmaa täysin vihreiden lasien läpi, mutta eivät pitkällä tikullakaan koskisi moisiin featureihin, mielenkiinnosta haluaisin itse testata ja hetken aikaa RTX-kortin kanssa olinkin kiinnostunut, mutta kun katsoin listan tukevista peleistä totesin että antaapa olla.
Kauhean pitkä vääntö featuresta joka on tällä hetkellä erittäin triviaali, ja raytracingin (vaikka tämä yleisempi onkin) tapaan enemmän tech-demo-asteella kuin oikeasti käytössä oleva ominaisuus.
"Future is here old man" - voi olla että tällainen on tulevaisuutta, toisaalta taas jos kortit kehittyy tehojen suhteen niin tarvitaanko tällaista enää vai saadaanko natiiviresoluutiot pyörimään ilman kikkailuja?
Sitä on kokoajan tulossa uusiin peleihin, joten ei ole ongelma.
Ja se rauta on sillä kortissa käytössä myös muissa sovellutuksissa, eikä vain tuossa DLSS:ssä (Nvidialla on esim ihan hyvä taustahälyn poistosovellus). Ja jos ko rautaa ei olsi, mentäisiin selvästi hitaammin,. koska shaderit olisivat varattuna osan ajasta sitten tuohon hommaan..
 
Sitä on kokoajan tulossa uusiin peleihin, joten ei ole ongelma.
Ja se rauta on sillä kortissa käytössä myös muissa sovellutuksissa, eikä vain tuossa DLSS:ssä (Nvidialla on esim ihan hyvä taustahälyn poistosovellus). Ja jos ko rautaa ei olsi, mentäisiin selvästi hitaammin,. koska shaderit olisivat varattuna osan ajasta sitten tuohon hommaan..
Tämä on itseasiassa hyvä tieto, mulla oli jotenkin oletus että noi on "nimeä juuri nyt en muista" on puhtaasti vain tuohon AI-touhuun ja RT-coret vain raytracingille. Onkos RT-coreillakin muuta funktiota?
Voiskohan Nvidia tehdä sellaista korttia millä saisi ostettua puhtaasti rasterointitehoa mutta jätettäisiin nämä kalliit lisäominaisuudet niille jotka niitä kaipaa :)
 
Tämä on itseasiassa hyvä tieto, mulla oli jotenkin oletus että noi on "nimeä juuri nyt en muista" on puhtaasti vain tuohon AI-touhuun ja RT-coret vain raytracingille. Onkos RT-coreillakin muuta funktiota?
Voiskohan Nvidia tehdä sellaista korttia millä saisi ostettua puhtaasti rasterointitehoa mutta jätettäisiin nämä kalliit lisäominaisuudet niille jotka niitä kaipaa :)
No kallis ja kallis.. Kummasti amd:n kortit on kalliimpia käytännössä samalla rasterointiteholla. Sitä kait tässä nyt ihmetellään kun kilpailijalla puuttuu extrat ja silti kallista, osta amd jos et halua kalliita lisäominaisuuksia kalliimmalla...

Ja ilman extroja tulee jossain kohti halpismallit varmaan taas olisikohan nyt gtx 2660 super jne. Kyllä kait high end tuotteissa pitää olla mukana viimeisintä tekniikkaa.
 
Tämä on itseasiassa hyvä tieto, mulla oli jotenkin oletus että noi on "nimeä juuri nyt en muista" on puhtaasti vain tuohon AI-touhuun ja RT-coret vain raytracingille. Onkos RT-coreillakin muuta funktiota?
Voiskohan Nvidia tehdä sellaista korttia millä saisi ostettua puhtaasti rasterointitehoa mutta jätettäisiin nämä kalliit lisäominaisuudet niille jotka niitä kaipaa :)
Tarkoittanet tensori yksiköitä, joita on noissa pelinäyttiksissä huomattavasti karsittu määrä..
Ai puolen käyttöä on tutkittu nyt jonkinaikaa asim sovellutuksissa, jossa pelihahmo saadaan näyttämään halutessa joltain tietyltä ihmiseltä. Tämä lisäisi esim morppeihin huomattavasti näyttävyyttä ja jokainen voisi heilua siellä halutessaan vaikka omalla pärställään. Samoin on tehty kokonaisia keinotekoisia kaupunkimaisemia, joissa on voinut ajella AI :n avulla, ilmeisesti yhtä korttiä käyttäen siinä koneessa, jolla maisema on generoitu.

Nyt on tuossa asiassa vata tutkimus menossa, mutta potentiaalisia sovellutuksia tulee varmasti kokoajan lisää, myös peli puolelle.
 

Uusimmat viestit

Statistiikka

Viestiketjuista
257 112
Viestejä
4 469 390
Jäsenet
73 894
Uusin jäsen
sampo_af

Hinta.fi

Back
Ylös Bottom