Virallinen: NVIDIA vs AMD (vs Intel) keskustelu- ja väittelyketju

  • Keskustelun aloittaja Keskustelun aloittaja Sampsa
  • Aloitettu Aloitettu
Ehkä sitten olen puusilmä, mutta en kyllä näe edes etsien etsimällä mitään merkittävää eroa kuvien välillä, puhumattakaan että pitäisi kesken pelin huomata:hmm: Ehkä sen sitten näkee paremmin liikkeessä kuin still-kuvista?

Tuskin sun silmissä vikaa on. Lähinnä erojen merkittävyydessä näkemykset eroaa. Hoksasithan ottaa kuvista alkuperäiset 4K-versiot vertailuun noiden forumin pienentämien sijasta?

Kyllähän se peli olisi tullut tuolla normiskaalauksellakin pelattua läpi, jos ei DLSS:ää olisi. Mutta kun se on niin tietenkin sitä käytän, kun lopputulos on parempi.
 
Ja tietenkään et ajatellut sitä, että se voi olla ja luultavimmin onkin pelin tekijöiden tarkoituksella rakentama ominaisuus niihin grafiikoihin? Monissa peleissä grafiikassa on tarkoituksella erikoisuuksia ja säröä (vaikka Borderlands ja Outerwords esimerkiksi). Kun poistat ne, niin muutat pelin ilmapiiriä samalla suuntaan johon sen ei ole tarkoitus mennä.

Juu, pelin tekijät varmasti haluavat, että AA tekee huonoa jälkeä tai että shimmeröintiä esiintyy. Eiköhän siellä aika paljon vedetä mutkia suoraksi, että ylipäätään saadaan peli valmiiksi.
 
Monissa peleissä grafiikassa on tarkoituksella erikoisuuksia ja säröä (vaikka Borderlands ja Outerwords esimerkiksi). Kun poistat ne, niin muutat pelin ilmapiiriä samalla suuntaan johon sen ei ole tarkoitus mennä.
Poistan kyllä jatkossakin esim. chromatic aberrationin tyyppiset paskeet peleistäni vaikka se olisikin pelintekijän ylevän artistillisen vision mukaisesti oletuksena päällä. Saa ihan vapaasti katsoa nenänvartta pitkin ja tuohtua kultturellista moukkamaisuudestani. :kahvi:

Ylipäätään tämä artistin erehtymätön visio on kyllä harvinaisen paska argumentti. Todellisuudessa pelien reaaliaikaisessa renderöinnissä joudutaan tekemään paljon teknisiä kompromisseja, joista TAA on hyvä esimerkki blurreineen ja haamuineen. Väitän että jos pelintekijöiltä kysytään, nuo ovat teknisten ratkaisujen rajoitteista johtuvia lieveilmiöitä, ei mitään tarkoituksenmukaisua erikoisuuksia tai säröjä.
 
Ja tietenkään et ajatellut sitä, että se voi olla ja luultavimmin onkin pelin tekijöiden tarkoituksella rakentama ominaisuus niihin grafiikoihin? Monissa peleissä grafiikassa on tarkoituksella erikoisuuksia ja säröä (vaikka Borderlands ja Outerwords esimerkiksi). Kun poistat ne, niin muutat pelin ilmapiiriä samalla suuntaan johon sen ei ole tarkoitus mennä.

Usein peleissä jotkut yksityiskohdat on tarkoituksella epäselviä, jolloin niiden selkeytyminen ei ole hyvä juttu, vaan artefakti. Sama juttu yksityiskohtaisuuden ja häröttömyyden kohdalla. Jos vaikka joku terävöitysfiltteri kaivaa sumusta yksityiskohtia esille, niin vaikka kuva on selkeämpi, niin se on objektiivisesti vähemmän se kuva mitä on pelin kehityksen aikana toivottu. Ei toki päde mitenkään universaalisti että TAA tuottaisi parempaa kuvaa, mutta toi ”selkeämpi on aina parempi” ei vaan pidä paikkaansa.


Niin tekö tosissanne väitätte, että graafikko miettii, muten se TAA blurraa tekstuureita ja piirtää ne texturet sen mukaan...

Suurimmalti osin DLSS:n kuvan parannus liittyy juuri tuohon TAA blurrin selkeyttämiseen ja sitä ei ole yksikään graafikko/pelinkehittäjä suunnitellut peliinsä.

Se in sitten eri asia, jos DLSS tuhoaa esim DOF efektin tms. Silloin ei tietenkään ole kyse kuvanlaadun parantamisesta.

Sanokaapa nyt edes yksi esimerkki, missä DLSS on tuhonnut tämmöistä, mystistä artistien tahallaan luomaa "säröä"...

Alkaa taas mennä jutut aika levottomaksi.
 
Niin tekö tosissanne väitätte, että graafikko miettii, muten se TAA blurraa tekstuureita ja piirtää ne texturet sen mukaan...

Suurimmalti osin DLSS:n kuvan parannus liittyy juuri tuohon TAA blurrin selkeyttämiseen ja sitä ei ole yksikään graafikko/pelinkehittäjä suunnitellut peliinsä.

Se in sitten eri asia, jos DLSS tuhoaa esim DOF efektin tms. Silloin ei tietenkään ole kyse kuvanlaadun parantamisesta.

Sanokaapa nyt edes yksi esimerkki, missä DLSS on tuhonnut tämmöistä, mystistä artistien tahallaan luomaa "säröä"...

Alkaa taas mennä jutut aika levottomaksi.
Eiköhän jokainen isompi peli ole testattu molempien valmistajien tuotteilla ennenkuin se julkaistaan, joten tekijöillä on taatusti selkeä kuva siitä miltä se näyttää ns. luonnossa
 
4k:lla, RT käytössä (kaikki päällä, valaistus Ultra) ja Digital Foundryn suositusasetuksilla 3090 kortilla VRAM käyttö (afterburnerissa, ei allokaatio vaan käyttö) 10,5GB.

Hardware Unboxed oli saanut käytöksi myös lähelle 10 gigaa, mutta yleisesti noin pieni muistin ylitys ei muutenkaan tiputa vielä suorituskykyä juurikaan. Tähän vaaditaan yleensä se gigan verran muistin ylikäyttöä ennen kuin se suorituskyky tippuu reilusti (näin siis taas Hardware Unboxedin mukaan, pienempikin ylitys saattaa aiheuttaa muita pieniä ongelmia). Todennäköisesti 3080 kortti pysyy 10 gigan alla yleisesti.
Hardware unboxed sanoi itse videollansa että 4K:lla VRAM käyttö on n. 8GB. Onko tähän nyt olemassa mitään muuta konkretiaa kuin sinun luvut?

Edelleenkin on täysin mahdotonta, että se parantaa kuvanlaatua, koska jos se kuva "paranee" natiiviin verrattuna, niin se ei ole enää pelin tekijän vaan nVidian näkemys asiasta ja silloin ollaan menty metsään.

Vähän kuin väittäisi monkey jesuksen olevan alkuperäistä Ecce Homo teosta parempi: Ecce Homo (Martínez and Giménez) - Wikipedia
"Nvidian näkemys". Tämä on jo aivan historiallista bullshittiä koko io-techin tasolla. Vittu mitä paskaa sitä ihminen kuuleekin. :rofl2:

DLSS ylösskaalaa renderöintiresoluutiosta, tarkentaa kuvaa ja poistaa säröjä, virheitä yms. eikä muuta taidesuuntaa tai tyyliä joten se ei vaikuta _yhtään_ milläänlailla mihinkään "näkemykseen". Saattaa tulla yllätyksenä, mutta kukaan peli- tai graafinen -suunnittelija ei tarkoituksellisesti suunnittele peliin renderöintivirheitä yms. kiistattoman haitallisia asioita.

Jos nyt hetkeksi leikitään että tuossa hevonpaskassa olisi jotain järkeä niin miksi ihmeessä pelintekijät sitten laittaisivat DLSS mukaan peliin jos se kerta ei enää edustaisi heidän näkemystään tai rikkoo sitä? Miksi oikeastaan ylipäätään antaisi minkäänlaisia grafiisia asetuksia edes loppukäyttäjälle? Kukaan ei pakota sitä DLSS tai mitään muutakaan vipua sinne pelin asetuksiin laittamaan joten se että se on siellä saatavilla ja käytettävissä tarkoittaa sitä että ko. ominaisuudella on 100% kiistaton pelintekijän siunaus.

Nyt kun tämä höpötys on kumottu niin voidaan samaan hintaan vaihtaa analogiasi. Tämä DLSS välttely on hiukan kuin olet ravintolassa ja tilaamasi kananrinta saapuu raakana eteesi, mutta silti kokin ja tarjoilijan anteeksipyynnöistä ja annoksen palauttamisen pyytämisestä huolimatta väkisillä survot annoksen naamaasi ja kävelet pakotettu hymy naamallasi ulos salmonellan kanssa. Sitten infektion iskiessä 40c kuumeessa ripuloidessasi hoet itsellesi "kokin näkemys, kokin näkemys, kokin näkemys..."

Alkaa taas mennä jutut aika levottomaksi.
Tää on kyllä jotain ihan next level totuuden kiistämistä. Kuin yrittäisi puolustaa itsensä ampumista jalkaan.
"No tavallaan se luodin uppoaminen jalkaan voidaan tulkita ilmaisena hierontana!" :sholiday:
 
Ottamatta sen kummemmin kantaa kenen näkemys on paras itse tykkään pc:llä nimenomaan siitä, että voin muuttaa ja sorkkia asetuksia jos tarvii/tuntuu siltä. Jos haluaa pelata samoilla asetuksilla, kun kaikki muut olisikohan ps5 ym. Ratkaisu? kun siellä ei voi edes vaihtaa asetuksia.
 
Ei, sekoittanet sen ilmeisesti Virtual Super Resolutioniin mikä on ihan eri asia kuin tuleva FidelityFX Super Resolution, mikä on nimenomaan DLSS:n kaltainen skaalainsetti.

Joo sekoitin tuohon Virtual Super Resolution. Joo ja FidelityFX Super Resolutionista se Scott Herkelman tosiaan puhui, kun mainitsi AMD:n työskentelevän sen parissa ja ''more performance when using raytracing''. Eli sillä nimellä se kai tulee ulos.

Itse vieläkin käytän Reshadea ,kun sen saa helpommin pelikohtaisesti laitettua.

Sama täällä. Tästä löytyy terävöityksiä ja värimuokkauksia yms, joita voi vielä verrata itse pelatessa kuva vs kuva, toisinkuin AMD:n tai Nvidian terävöityksiä yms. Image Sharpening on AMD:lla ihan jees, mutta osa peleistä on mun makuun liiankin teräviä, jolloin joku pieni pehmennys olisi pikemminkin tarpeen. Mutta tässähän tämä kiteytyy, subjektiivista viidakkoa nämä säätimet lopulta on. Nexus Modista löytyy valmiita reshade paketteja, joista osa kyllä parantaa pelien visuaalisuutta jopa selkeästi. Imo. Jossain peleissä on niin kulahtaneet värit, että ei näytä hyvältä edes IPS-paneelilla.
 
DLSS ylösskaalaa renderöintiresoluutiosta, tarkentaa kuvaa ja poistaa säröjä, virheitä yms. eikä muuta taidesuuntaa tai tyyliä joten se ei vaikuta _yhtään_ milläänlailla mihinkään "näkemykseen". Saattaa tulla yllätyksenä, mutta kukaan peli- tai graafinen -suunnittelija ei tarkoituksellisesti suunnittele peliin renderöintivirheitä yms. kiistattoman haitallisia asioita.

Kyllä DLSS:llä 4k:ksi ylösskaalattu 1080p on huomattavasti parempi kuin natiivi 1080p. Ja joiltain osilta voi olla joidenkin mielestä miellyttävämpi kuin natiivi 4k. Riippuu pelistä miten hyvin tuo on toteutettu ja siitä mikä asia kuvassa häiritsee. Esim. Cyberpunkissa melkein on jotain skaalausta käytettävä että suorituskyky riittää 4k näytölle niin aika turhaa on verrata natiiviin, koska ero suorituskyvyssä on lähes tasoa pelattava vs. diashow.

Kuten joku jo sanoin niin joissain tapauksissa tuo saattaa särkeä DOF efektin jolloin se todellakin vaikuttaa taidesuuntaan/tyyliin/näkemykseen. (tosin ei taida olla kovin yleinen ongelma?)

Paras skaalausmenetelmähän tuo on tällä hetkellä. Tosin kuten @Divvy mainitsi on se esim. Cyberpunk pelattava myös normiskaalauksella + terävöityksellä hieman huonommalla kuvanlaadulla.
 
Kuten joku jo sanoin niin joissain tapauksissa tuo saattaa särkeä DOF efektin jolloin se todellakin vaikuttaa taidesuuntaan/tyyliin/näkemykseen. (tosin ei taida olla kovin yleinen ongelma?)
Post-process efektejä (dof, chromatic aberration jne.) ja partikkelit voidaan renderöidä myös DLSS passin jälkeen, jolloin DLSS ei pääse niitä rikkomaan. Tulee vähän kalliimmaksi tehdä ne output resolla, mutta kuvanlaatu paranee.
 
Suurimmalti osin DLSS:n kuvan parannus liittyy juuri tuohon TAA blurrin selkeyttämiseen ja sitä ei ole yksikään graafikko/pelinkehittäjä suunnitellut peliinsä.
TAA ei blurraa staattisia tekstuureja ja monissa peleissä DLSS:n kanssa tekstuurit näyttää tätä ”terävämmältä”, joka on artefakti eikä aitoa tarkkuutta, kaupan päälle tekstuurimoirea joissain tilanteissa. Malliesimerkki siitä kuinka selkeämpi ei ole parempi. Reunojen terävyys TAA:lla on tyypillisessä toteutuksessa huonompi kuin mitä vaikkapa SSAA:lla tai luultavasti DLSS:llä (vaikea sanoa varmasti kun sitä hemmetin terävöitystä ei saa pois päältä).
 
kaupan päälle tekstuurimoirea joissain tilanteissa.

Onko tuota moirea näkynyt jossain muissakin peleissä kuin Cyberpunkissa? Sen saa korjattua ainakin kyseisessä pelissä, jossa sitä ilmenee sekä TAA:lla että DLSS:llä, laittamalla NVidian ohjauspaneelista Negative LOD Bias -> Clamp. Moire on ainakin tässä pelissä pelintekijän moka, ei DLSS:n vika.

Olen tässä pelaillut Controlia viime päivinä DLSS:llä ja moirea en ole havainnut kertaakaan.
 
Onko tuota moirea näkynyt jossain muissakin peleissä kuin Cyberpunkissa? Sen saa korjattua ainakin kyseisessä pelissä, jossa sitä ilmenee sekä TAA:lla että DLSS:llä, laittamalla NVidian ohjauspaneelista Negative LOD Bias -> Clamp. Moire on ainakin tässä pelissä pelintekijän moka, ei DLSS:n vika.

Olen tässä pelaillut Controlia viime päivinä DLSS:llä ja moirea en ole havainnut kertaakaan.
Ainakin death strandingissa esiintyy moirea dlss:llä
 
Ainakin death strandingissa esiintyy moirea dlss:llä

Olisi jännä kokeilla, korjaako tuo LOD clamp ongelman siinäkin pelissä. Valitettavasti en voi testata itse, kun peliä en omista.

Onko vertailussa laskettu renderöintiresoluutiota, vai verrattu taas typerästi natiivia vs DLSS?

EDIT: Aiheesta löytyi video.

Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.


Kuten näkyy, myös natiivi 4K:lla moirea esiintyy samassa kohdassa, mutta vähemmän selvästi. On ihan ymmärrettävää, että 4K renderöintiresoluutiolla ilmiö on vähäisempi kuin 2560x1440. Nyt olisikin taas ollut fiksua verrata sitä perinteisesti skaalattua matalaa resoluutiota DLSS:ään, niin sitten voisi oikeasti vertailla, kuinka ne selviytyvät moiresta.
 
Onko tuota moirea näkynyt jossain muissakin peleissä kuin Cyberpunkissa? Sen saa korjattua ainakin kyseisessä pelissä, jossa sitä ilmenee sekä TAA:lla että DLSS:llä, laittamalla NVidian ohjauspaneelista Negative LOD Bias -> Clamp. Moire on ainakin tässä pelissä pelintekijän moka, ei DLSS:n vika.

Olen tässä pelaillut Controlia viime päivinä DLSS:llä ja moirea en ole havainnut kertaakaan.

NVIDIA on itse ehdottanut negatiivisen LOD biaksen käyttämistä DLSS:n kanssa, antoivat jossain videoesityksessä kaavankin, jolla sopivan biaksen voi laskea. Jos pelintekijä on käyttänyt ko. kaavaa eikä jotain itse keksimäänsä enemmän negatiivista arvoa, niin en katsoisi pelintekijän asiassa mokanneen.

Negatiiviselle LOD biakselle on sinänsä jossain määrin järjellinen perustelu olemassa. Supersämpläyksen yhteydessähän sitä on käytetty jo pitkään ilman ongelmia. Aliasoitumista (johon moire-ilmiötkin kuuluvat) vähentää silloin se, että kustakin pikselistä otetaan supersämpläyksessä useita näytteitä. Temporaaliset menetelmätkin ottavat ihannetapauksessa kuvasta efektiivisesti* enemmän näytteitä kuin on pikseleitä, näytteet ovat vain peräisin eri kuvista. Täysin staattisen kuvan tapauksessa tämä olisi helppo saada toimimaan, mutta on vaikeaa tai mahdotonta päästä siihen, että edes likimääräinen vastaavuus supersämpläyksen kanssa pätisi aina silloinkin, kun kuvassa tapahtuu muutoksia.

* "Efektiivisesti" viittaa tässä siihen, että staattisen kuvan tapauksessa perinteistä supersämpläystä vastaava tulos saataisiin käyttämällä useaa peräkkäistä kuvaa, joissa pikselien näytteenottokohtia on sopivasti muutettu. Käytössä olevat temporaaliset menetelmät taitavat kuitenkin käyttää yleensä (näytölle piirrettävän kuvan lisäksi) vain yhtä kuvapuskuria, johon akkumuloituu hiljalleen usean kuvan informaatiota tyyliin "uusi kuva = a*<uudet näytteet> + (1-a)*<akkumulaatiopuskurin sisältö>" (oikeasti pitää kylläkin ottaa huomioon kuvassa olevien kohteiden liike). Seuraavaa kuvaa muodostettaessa "akkumulaatiopuskurin sisältö" on sitten se, mikä oli nyt laskettu "uusi kuva". Akkumulaatio voi toisinaan aiheuttaa omat haittansa, erityisesti häntimistä on nähty sekä DLSS:n että TAA:n yhteydessä.
 
Hardware unboxed sanoi itse videollansa että 4K:lla VRAM käyttö on n. 8GB. Onko tähän nyt olemassa mitään muuta konkretiaa kuin sinun luvut?

Kuuntelepa uudestaan. 8GB ilman RT:tä.
Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.

Kohdasta 13:30

3070 kärsii muistin vähyydestä 1440p resolla.
Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.

Kohdasta 7:00
 
Kuuntelepa uudestaan. 8GB ilman RT:tä.
Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.

Kohdasta 13:30

3070 kärsii muistin vähyydestä 1440p resolla.
Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.

Kohdasta 7:00


No ei siinä kauaa mennyt että alkaa muistin määrä hankaamaan vastaan, kovasti oli vielä vähän aikaa sitten puhetta vuosien aikajaksosta ennen kuin muisti ei riitä:lol:
 
No ei siinä kauaa mennyt että alkaa muistin määrä hankaamaan vastaan, kovasti oli vielä vähän aikaa sitten puhetta vuosien aikajaksosta ennen kuin muisti ei riitä:lol:
Sen verran (AMD-miehenäkin) puolustelen nVidian 8GB/10GB malleja, että kun tuo Cyberpunk vaikuttaa sen verran hutaisten koodatulta, että varmaan aika reippaita optimointeja on päivitysten/korjauspakettien myötä tulossa lähikuukausina.
Tai ei se nyt huonosti ole koodattu, mutta aika lailla keskeneräisyys paistaa monesta kohtaa.
 
Sen verran (AMD-miehenäkin) puolustelen nVidian 8GB/10GB malleja, että kun tuo Cyberpunk vaikuttaa sen verran hutaisten koodatulta, että varmaan aika reippaita optimointeja on päivitysten/korjauspakettien myötä tulossa lähikuukausina.
Tai ei se nyt huonosti ole koodattu, mutta aika lailla keskeneräisyys paistaa monesta kohtaa.
Joo samaa mieltä olen, tuo Cyberpunk on varmasti poikkeus eikä uusi sääntö (- vielä vähään/pitkään aikaan). Ja eikös DLSS:llä voi muutenkin kompensoida muistipulaa, jos sellainen iskee. Toki vaatii pelikohtaisen toteutuksen mikä ei ole taattu asia, ja lopputuloksesta voi olla montaa mieltä.
 
Joo samaa mieltä olen, tuo Cyberpunk on varmasti poikkeus eikä uusi sääntö (- vielä vähään/pitkään aikaan). Ja eikös DLSS:llä voi muutenkin kompensoida muistipulaa, jos sellainen iskee. Toki vaatii pelikohtaisen toteutuksen mikä ei ole taattu asia, ja lopputuloksesta voi olla montaa mieltä.

Optimointiahan se kaipaa, voi olla, että cyberpunkin jättää vielä muistiin perinteistä rasterointitavaraa, joka on hoidettukin säteenseurannalla.

Minun tietääkseni noita yli 10Gb meneviä pelejä ei taida olla kuin nämä:
- Marvel Avengers HD tekstuuripaketilla. 2080ti tippui 42->17fps jos piti tekstuurit yhä ultralla.
- Ghost Reacon: Breakpoint. Computerbasen testeissä 3090 meni yllättäen 22% johtoon (minimeissä) vs 3080, kun vram alkoi ahdistaa.
- Flightsimulator 2020, mutta se pyörii niin hitaasti muutenkin, ettei siinä taida vram puute niin näkyä.
- Uusin COD. Matalamman tarkkuuden LOD:illa mennään pidempään 3080:lla ja 2080TI korteilla, mitä 3090/6800XT korteilla. Ei vaikuta kyllä fps:iin, tulee vain haukansilmille tekstuuri ja 3dmalli poppuppia tarkempiin. Peli itse tekee aika fiksusti tuota hallintaa, kehitysvideossa ennakkolatausta tehdään pelaajan liikesuunnan perusteella ja LOD tasoja on 3kpl.

Eli aika vähän toistaiseksi.

Edit: Tehdäämpä pieni kunnianpalautus Godfallin kehittäjille. FidelityFX LPM asetuksen aktivoimalla 3090 alkoi haukata 12Gb muistia. On/off löytyy tuosta videosta:

Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.
 
Viimeksi muokattu:
Kuvittelenko mä vain vai onko ATI 7000-sarjan näyttiksessä videotoistossa paremmat värit kuin uusissa NVidioissa?
 
Kuvittelenko mä vain vai onko ATI 7000-sarjan näyttiksessä videotoistossa paremmat värit kuin uusissa NVidioissa?

Vaikea uskoa että ati 7000 sarjan korteilla mitään modernia peliä saa pyörimään

Että vähän kyllä veikkaan että nyt on mielikuvitus lähteny laukalle.
 
Hdr saattaa haalentaa videotoistoa joillakin ajureilla. Itsellä 1060:llä tuli vastaan että esim. VLC:llä overlay jotenkin rikkoi tuo hdr toteutuksen. Kokoruudussa kontrollien näkyessä kuva oli värikäs ja hyvä, kun kontrollit menivät piiloon niin värit lässähtivät. Ilmeisesti joku DirectX moodi vaihtui tuossa (ehkä ysin ja yhdentoista välillä) joka rikkoi toiston. Asetuksistakaan pakottaminen haluttuun moodiin ei auttanut.

Voi olla siis ajurien ongelmaa, kuin myös spesifisemmin vielä lisäksi hdr:n kanssa ongelmia (oli kyse sitten videotoistosta tai vaikka pelistä). Periaatteessa eri DirectX versiota käyttävien pelien kokeilu voisi johdattaa jäljille.
 
Eiköhän jokainen isompi peli ole testattu molempien valmistajien tuotteilla ennenkuin se julkaistaan, joten tekijöillä on taatusti selkeä kuva siitä miltä se näyttää ns. luonnossa

Ja miten tämä liittyy mihinkään. Nykyisin noin 90% peleissä on ainoa käytössä oleva oleva AA joku temporal toteutus, joka sumentaa ja tuo häröä kuvaan. No saattaa olla vaihtoehtona FXAA, joka on vielä paskempi laadultaan.

Sitä temporal AA toteutusta sitten pelikehittäjä viilailee niin kauan, kunnes se on heidän mieleensä hyväksyttävällä tasolla tai aika loppuu kesken. Se on varmaa, että yksikään pelinkehittäjä ei pidä TAA:n aiheuttamia ongelmia osana pelinsä graafista toteutusta/ilmettä, ja ovat varmasti tyytyväisiä, jos ja kun esim. DLSS niitä ongelmia osittain ainakin korjaa.
 
Olen nyt RTX 3080:aa odotellessa vaihdellut tuota ATIa ja RTX 3070:aa ja RTX 2070:aa mitä saanut tuurauskorteiksi ja joka kerta kun vaihdoin ATIn takaisin niin kiinnitin huomiota parempiin väreihin videotoistossa. Ei NVidia ole ollut haalea tai mitenkään virheellinen, vain kylmemmät ja valjummat värit. Pitää testata ensi kerralla onko kyse vain saturaatioasetuksesta. Ei ole iso ero mutta sen huomaa.
 
Kuten joku jo sanoin niin joissain tapauksissa tuo saattaa särkeä DOF efektin jolloin se todellakin vaikuttaa taidesuuntaan/tyyliin/näkemykseen. (tosin ei taida olla kovin yleinen ongelma?)

Ainia minun tiedossa oleva tapaus, missä DLSS on vaikuttanut DOF:n on se Final Fantasy XV benchmarkki, josss oli käytössä DLSS 1.0. Taisi olla silloin toinen kahdesta olemassa olevasta DLSS 1.0 testistä. Eli ei ole kyllä mitenkään yleinen tapaus.
 
Optimointiahan se kaipaa, voi olla, että cyberpunkin jättää vielä muistiin perinteistä rasterointitavaraa, joka on hoidettukin säteenseurannalla.

Minun tietääkseni noita yli 10Gb meneviä pelejä ei taida olla kuin nämä:
- Marvel Avengers HD tekstuuripaketilla. 2080ti tippui 42->17fps jos piti tekstuurit yhä ultralla.
- Ghost Reacon: Breakpoint. Computerbasen testeissä 3090 meni yllättäen 22% johtoon (minimeissä) vs 3080, kun vram alkoi ahdistaa.
- Flightsimulator 2020, mutta se pyörii niin hitaasti muutenkin, ettei siinä taida vram puute niin näkyä.
- Uusin COD. Matalamman tarkkuuden LOD:illa mennään pidempään 3080:lla ja 2080TI korteilla, mitä 3090/6800XT korteilla. Ei vaikuta kyllä fps:iin, tulee vain haukansilmille tekstuuri ja 3dmalli poppuppia tarkempiin. Peli itse tekee aika fiksusti tuota hallintaa, kehitysvideossa ennakkolatausta tehdään pelaajan liikesuunnan perusteella ja LOD tasoja on 3kpl.

Eli aika vähän toistaiseksi.

Edit: Tehdäämpä pieni kunnianpalautus Godfallin kehittäjille. FidelityFX LPM asetuksen aktivoimalla 3090 alkoi haukata 12Gb muistia. On/off löytyy tuosta videosta:

Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.


Godfall testi oli tehty 4K:lla ja GPU muisti oli vajaat 12 GB. Arvaus/kysymys 8K:lla muisti olisi vajaat 24 GB? Kortissa on 24 GB muistia. Tuskin on sattumaa, että täsmäävät.
 
Godfall testi oli tehty 4K:lla ja GPU muisti oli vajaat 12 GB. Arvaus/kysymys 8K:lla muisti olisi vajaat 24 GB? Kortissa on 24 GB muistia. Tuskin on sattumaa, että täsmäävät.

Ei olisi. Tekstuurit yms data ei monistu, framebuffer kyllä kasvaa nelinkertaiseksi ja se lisää muistinkulutusta.
 
Onko arviota paljonko käytetty muisti voisi olla?

Muistaakseni 4K framebuffer on about 53mb (eli se ja vähän muuta dataa mahtuu Navi21:n cacheen kokonaan). Joten 8K:lla se olisi vähän yli 200Mb. Tietty jos käytetään double tai tripple bufferia, niin vastaavasti luvut menee 2x tai 3x kertoimella. Niistä voi lukea vaikka täältä.
 
Vihdoin ja viimein päästy profiler työkaluilla tutkimaan sitä että miksi AMD:n RT ratkaisu on niin jäätävän hidas RTX Quakessa. Ja kyseessä on vielä geometrialtaan RT peli helpoimmasta päästä.
( AMD Radeon RDNA2 Navi (RX 6800, 6800 XT, 6900 XT) [2020-10-28] )

1608751633952.png
 
Vihdoin ja viimein päästy profiler työkaluilla tutkimaan sitä että miksi AMD:n RT ratkaisu on niin jäätävän hidas RTX Quakessa. Ja kyseessä on vielä geometrialtaan RT peli helpoimmasta päästä.
( AMD Radeon RDNA2 Navi (RX 6800, 6800 XT, 6900 XT) [2020-10-28] )

1608751633952.png

Lueskelin noita ketjun kommentteja ja sinne oli joku postannu kuvan GTX1080Ti:llä ajettuna ja siinä on BVH update parempi mitä RDNA2:lla joten optimointia tuo RDNA2:lle selvästi kaipaisi.
 
Lueskelin noita ketjun kommentteja ja sinne oli joku postannu kuvan GTX1080Ti:llä ajettuna ja siinä on BVH update parempi mitä RDNA2:lla joten optimointia tuo RDNA2:lle selvästi kaipaisi.

Ei varmaan pitäisi yllättää ketään kun nVidialla on jo pitkästi ollut aikaa parannella toteutusta että AMD:llä on vähän sitä ja tätä optimointi varaa vielä. Toki voihan tuossa bvh puun rakentelusta olla myös joku perustavanlaatuinen ero jota saadaan korjattua vasta uudella raudalla.
 
Se perustavanlaatuinen ero lienee siinä että nvidialla bvh puun päivityksen tekee muusta renderöinnistä erillään oleva rauta kun amd tekee sen jakaen resursseja muun renderöinnin kanssa.
 
Se perustavanlaatuinen ero lienee siinä että nvidialla bvh puun päivityksen tekee muusta renderöinnistä erillään oleva rauta kun amd tekee sen jakaen resursseja muun renderöinnin kanssa.
No ei sekään selitä sitä puhtaasti että jos joku 1080ti murskaa puita nopeampaa.
 
No ei sekään selitä sitä puhtaasti että jos joku 1080ti murskaa puita nopeampaa.
Vaikea sanoa kuinka tuo peli skaalautuu hitaalle raudalle. Tuossahan mitataan vain aikaa BVH puun päivityksessä. Mutta entäpäs jos BVH puu on oleellisesti kevyempi korteille joissa ei ole rautakiihdytystä RT opseille?

Tuo pelihän on tietääkseni open source joten eiköhän joku osaavampi saa kaiveltua vastuksen esille.
 
Vaikea sanoa kuinka tuo peli skaalautuu hitaalle raudalle. Tuossahan mitataan vain aikaa BVH puun päivityksessä. Mutta entäpäs jos BVH puu on oleellisesti kevyempi korteille joissa ei ole rautakiihdytystä RT opseille?

Tuo pelihän on tietääkseni open source joten eiköhän joku osaavampi saa kaiveltua vastuksen esille.

Ei se pelin koodissa liene vaan ajurit tekee mitä tekee taustalla standardikäskyille.
 
Kyllä tuntuu noita NVIDIA:n kortteja liikkuvan ihan huomattavasti enemmän, vs AMD. 3000 sarjan seurantaketjussa koko ajan viestiä saaduista korteista ja isoja toimituseriä alkanut jälleenmyyjillle jo tulemaan.

Esim. ProShopille ei ole edelleenkään tullut 6000 sarjalaisia juuri ollenkaan. Toki AMD launch oli pari kuukautta myöhemmin, joten sinänsä ei ihan yhdenmukainen tilanne.
 
Kyllä tuntuu noita NVIDIA:n kortteja liikkuvan ihan huomattavasti enemmän, vs AMD. 3000 sarjan seurantaketjussa koko ajan viestiä saaduista korteista ja isoja toimituseriä alkanut jälleenmyyjillle jo tulemaan.

Esim. ProShopille ei ole edelleenkään tullut 6000 sarjalaisia juuri ollenkaan. Toki AMD launch oli pari kuukautta myöhemmin, joten sinänsä ei ihan yhdenmukainen tilanne.

AMD taisi tammikuun lopulle lupailla että AIB korttien hinnat olisi MSRP tasolla ja saatavuudet parempia. Saatavuus saattaa parantua, mutta en usko että ainakaan Suomessa hinnat laskee mihinkään kun kauppa käy noillakin ryöstöhinnoilla. (huhujen mukaan ne on tukkurit jotka vetää eniten välistä ja jälleenmyyjille ei jää juuri mitään...)
 
Kyllä tuntuu noita NVIDIA:n kortteja liikkuvan ihan huomattavasti enemmän, vs AMD. 3000 sarjan seurantaketjussa koko ajan viestiä saaduista korteista ja isoja toimituseriä alkanut jälleenmyyjillle jo tulemaan.

Esim. ProShopille ei ole edelleenkään tullut 6000 sarjalaisia juuri ollenkaan. Toki AMD launch oli pari kuukautta myöhemmin, joten sinänsä ei ihan yhdenmukainen tilanne.
No näinhän se on. Esim. Proshopille oli liikkunut 3000-sarjan kortteja päiväkohtaisesti yli 10-kertainen määrä vrt 6000-sarjan kortteihin ennen kuin 3000-sarjan korttien total received numerot otettiin pois näkyvistä. Keräsin noita Google Sheetsiin ajatuksena että voisi seurata korttien määrää pidemmänkin aikaa, mutta toi numeroiden piiloitus laittoi kapuloita rattaisiin.

Anyways, tuolta Sheetsistä löytyy tilanne mitä se oli 10.12. AMD:n 21.12 numerot on päivitetty tänne, eikä niissä ole kummempia muutoksia verrattuna 10.12 tilanteeseen. Jos multa kysytään, niin kyseessä on tuhnuin näyttislaunchi miesmuistiin. Perffinumeroita cherrypickattiin olan takaa, RT-suorituskyky on surkeaa, näyttiksiä ei saa mistään ja myyjät vetää välistä enemmän kuin Suomen nuuskakaupassa.
 
Viimeksi muokattu:
miksi amd ja nvidia lopettaa vanhempien korttien valmistuksen kun uusi sukupolvi tulee? uudet loppuu kesken ja vanhojakaan ei ole enää myynnissä. joo markkinointia osittain mutta saako muut firmat jatkaa korttien tekoa? mikä on näyttiksen elinaika?

cput tuntuu olevan nykyään todella korkealla tasolla. melkein liian hyviä jos vertaa gpuitten ongelmiin.
 
miksi amd ja nvidia lopettaa vanhempien korttien valmistuksen kun uusi sukupolvi tulee? uudet loppuu kesken ja vanhojakaan ei ole enää myynnissä. joo markkinointia osittain mutta saako muut firmat jatkaa korttien tekoa? mikä on näyttiksen elinaika?

cput tuntuu olevan nykyään todella korkealla tasolla. melkein liian hyviä jos vertaa gpuitten ongelmiin.
Nvidia varmaankin edistääkseen 3000 sarjan myyntiä ja AMD säästääkseen tsmc 7nm kapasiteettia uusille tuotteille.
 
Ei suinkaan, minua vain häiritsee AMDelusional meininki ympäri internettiä. RX6000 sarja on pitkästä aikaa kova tuote punaiselta leiriltä MUTTA säteenjäljitysvääntö on korkeintaan hieman RTX2000 sarjaa alla. ja mitään skaalaustekkiä ei ole edes PoC vaiheessa vielä.

AMD:n CU:t nimenomaan ei kykene siihen kaikista keskeisimpään asiaan jos halutaan suorittaa säteenjäljitystä dynaamisessa ympäristössä eli BVH puun uudelleenlaskentaan samalla kun tehdään muuta renderöintiä.

(muoks: typo iski)
Mua vähän häiritsee että miksi säteenjäljitys on pitänyt tuoda kortteihin?
Nyt vasta julkaistiin ensimmäiset kortit, joilla 4K resoluutiolla pystyy pelaamaan korkeilla FPS.

Oisko se säteenjäljitys sitten pyörinyt skaalaamatta about parin sukupolven jälkeen vasta? Sitä odotellessa. Toisaalta itsellä nyt ei vielä 4k monitoria ole, joten ehkä tuosta RT:stä pääsisi jo nauttimaan 1440 resolla :)

(vanha lainaus :) tiedän)
 
Oisko se säteenjäljitys sitten pyörinyt skaalaamatta about parin sukupolven jälkeen vasta? Sitä odotellessa. Toisaalta itsellä nyt ei vielä 4k monitoria ole, joten ehkä tuosta RT:stä pääsisi jo nauttimaan 1440 resolla :)

Parin sukupolven jälkeen voi olla että RT alkaa olla niissä kuosissa että sitä voi jo 1440p resolla ajella ilman kuvanhuononnus tekniikoita. Eli RT:stä tulee jotain muutakin kuin vain techdemo. Pitää kuitenkin muistaa että se RT:n maailmanvalloitus pääsee kunnolla vauhtiin vasta sitten kun ne 300€ ja alle kortitkin pyörittää sitä RT:tä ok, jolloin voidaan alkaa pelejä julkaisemaan ensin vaikka esim. RT varjoilla ja ei enää kikkailu varjoja edes peliin tehdä. Tämä vaatii siis sen että laitekansa on ylittänyt maailmassa tietyn kriittisen pisteen. Nyt olisi ihan itsemurhaa julkaista peliä joka toimisi ainoastaan RTX korteilla ja uusilla radeoneilla.
 
Onko kummaltakaan firmalta penätty vastauksia miksi näytönohjaimia tai prosessoreja ei saada markkinoille? Vai onko mitään virallista selitystä tullut? Luulisi jo osakkeen omistajia kiinnostavan.
 
Onko kummaltakaan firmalta penätty vastauksia miksi näytönohjaimia tai prosessoreja ei saada markkinoille? Vai onko mitään virallista selitystä tullut? Luulisi jo osakkeen omistajia kiinnostavan.
Ei ole tuotantokapasiteettia ja osiakaan ei saada kortteihin riittävästi. AMD ostaisi luultavasti kaiken uuden tsmc:n kapasiteetin mitä olisi tarjolla, mutta sitä ei ole saatavilla
 
Se perustavanlaatuinen ero lienee siinä että nvidialla bvh puun päivityksen tekee muusta renderöinnistä erillään oleva rauta kun amd tekee sen jakaen resursseja muun renderöinnin kanssa.

Ei tee.

nVidialla ei ole mitään dedikoitua BVH-puun rakennusrautaa.

BVH-puun rakennus tehdään nVidialla shader-ytimillä, efektiivisesti ajureissa olevana CUDA-koodina.

Ja vaikka nVidialla törmäystarkastusyksiköt on kauempana shader-ytimistä ja huolii vastaan suurempia komentoja kerrallaan, niitä shader-ytimiä kyllä tarvitaan nVidiallakin huomattavasti säteenjäljitykseen; Ne törmäystarkastusyksiköt ei tee kuitenkaan nVidiallakaan mitään muuta kuin puun läpikäyntiä ja törmäystarkastuksia.

Siellä pitää edelleen shader-ytimillä tehdä kaikki väriarvon laskentaan liittyvä ja toisiosäteiden laukominen jne.
 

Statistiikka

Viestiketjuista
297 643
Viestejä
5 073 892
Jäsenet
81 352
Uusin jäsen
Ilkka Tuominen

Hinta.fi

Back
Ylös Bottom