Virallinen: NVIDIA vs AMD (vs Intel) keskustelu- ja väittelyketju

  • Keskustelun aloittaja Keskustelun aloittaja Sampsa
  • Aloitettu Aloitettu
Aikamoista kuraa näyttäisi tuon esityksen perusteella olevan tuo FSR. No eipä yllätä, kun vektoridataakaan ei ole käytetty ollenkaan.

Kaiken lisäksi tuo ei edes tue konsoleita tällä hetkellä ja AMD ei edes kertonut mitään tarkempaa, onko tulossa konsoleille ja milloin. Aika turhalle tekniikalle vaikuttaa tässä vaiheessa, mutta toivottavasti saavat sitä kehitettyä ja ennen kaikkea tuotua tuen myös uusille konsoleille.
 
Eiköhän se ole tulossa, kun kerran koko fidelityfx on osa tuota DirectX ultimate kokonaisuutta. Lähinnähän tuo voisi teoriassa tulla jopa edelliselle Xbox konsolille (series X vai mikä se paras niistä oli), kun rauta saattaisi olla jopa yhteensopivaa.

Ihan mielenkiintoista testata tuota tyttären 1060 6gb kortin kanssa, et paljonko sillä saa suorituskyky lisää peleissä jotka muuten eivät olisi kovin pelattavia enää.
 
Eiköhän se ole tulossa, kun kerran koko fidelityfx on osa tuota DirectX ultimate kokonaisuutta. Lähinnähän tuo voisi teoriassa tulla jopa edelliselle Xbox konsolille (series X vai mikä se paras niistä oli), kun rauta saattaisi olla jopa yhteensopivaa.

Ihan mielenkiintoista testata tuota tyttären 1060 6gb kortin kanssa, et paljonko sillä saa suorituskyky lisää peleissä jotka muuten eivät olisi kovin pelattavia enää.
Ei FidelityFX:llä ole mitään tekemistä DX12 Ultimaten kanssa.
 
Ei FidelityFX:llä ole mitään tekemistä DX12 Ultimaten kanssa.

Mitään tekemistä on aika vahvasti sanottu, kun kerran Fidelityfx tavaraa on tuotu ultimateen ja molemmat ovat opengpu tavaraa.

Joo, teknisesti ei kuulu mutta eivät ne ihan ventovieraitakaan ole.
 
Jahas 20 päivään asti pitänee odotella tukea peliin, että nettiin ilmestyy vertailua "algoritmeistä". Mitähän puuroa siitä syntyy jos yhdistää molemmat, vai toimisiko fidelityfx sr tensor ytimillä.... niidenhän pitäisi olla tehokkaita 4x4 matriisi laskuissa, tosin 3000 sarjassa nvidia taisi nerffata/muuttaa niitä tehokkaammaksi karsimalla toimintoja.

DLSS 2.0 tietääkseni on puhtaasti algoritmi.
 
Viimeksi muokattu:
"Oho, NVIDIA oikeasti tekee jotain niillä tensor coreilla ja yllättäen ilman niitä AMDn on vaikea tehdä vastaavaa featurea joka pärjäisi kuvanlaadussa"

:eek:
"NVidia tekee vaan softajuttuja mitkä voisi ihan hyvin pyöriä CU:illakin"
Kyllä, se voisi ihan hyvin pyöriä vaikka AMD:n Compute Uniteilla. Nopeus on toki kysymysmerkki, mutta siinä ei ole mitään sellaista mitä ei voisi laskea yleiskäyttöisemmillä ytimillä.
Sillä miten hyvä tai huono FSR on verrattuna DLSS:ään ei ole sen asian kanssa yhtään mitään tekemistä.
(ps. se vertailukuva ei ole parhaalla laatuasetuksella, mikä voi olla vähän, ei ollenkaan tai paljonkin parempi)
 
Luonnollisesti kommentissani olisi pitänyt olla lisäys "ja yhtä pienellä framekohtaisella ajankäytöllä". Tottakai shader uniteilla voi laskea tällaistakin matikkaa, mutta kun niitä haluttaisiin käyttää siihen renderöintiin muuten...

Ja kyllä, myös DLSS:ssä on tietty "minimitaso" frametimelle koska tuo skaalaus vie jonkin verran aikaa minkä vuoksi edut kutistuvat korkeilla ruudunpäivitysnopeuksilla. 4k resolla kuulemma vie jotain 1.5ms/frame eli käytännön maksimi lienee jossain 200-300fps nurkilla (4k) jonka jälkeen DLSS on jo sen verran iso osa joka framen prosessoinnista että ei jää rendaukselle aikaa (300fps = 3.3ms ja jos siitä vie dlss 1.5ms niin ilman upscalea frameraten pitäisi olla yli 600fps)

Etu tässä on että NVIDIA voi käyttää rautaa jota ei muuten käytetä mihinkään pelikäytössä. Ja ei, en järkyttyisi jos RDNA3 sisältää jotain rautapuolella vastaavan ominaisuuden kiihdyttämiseen koska tällainen "fiksu" upsamplaus on se millä 8K-ruuduista voi saada jollain tasolla hyödyllisiä lähitulevaisuudessa.

Tietty jos AMDn seuraava verme menee chipletteihin ja pinoaa älyttömän määrän CUita tiskiin niin sillä voi luonnollisesti ratkoa ongelman "bruteforcella" kunhan algoritmi on muutoin tunessa.
 
Viimeksi muokattu:
Itse pelaan 1440p resolla ja dlss 2.x peleissä quality asetuksella(joka nvidian dlss paras asetus) en huomaa kuvanlaadussa eroa natiiviin mutta fps hieman parempi. Free fps wtf :D

Vähintään amd pitäisi antaa 1440p ultra quality asetuksella saman luokan fps kuin pelatessa 1080p terävöityksellä kuvanlaadun ollessa parempi jotta itse sitä käyttäisin.

Tosi hyvä että amd lähtee avoimen standardin luomaan niin varmasti pelinkehittäjillä huomattavasti enemmän motivaatiota tuoda peliinsä tuen sille. Aika harvalla kuitenkin on rtx näytönohjain ja ne on aika kalliita ainakin ennenkuin nvidia julkaisee rtx 3050 sarjalaisia ja lisäksi tuki uuden sukupolven konsoleille saattaa tuoda monelle pc versiollekin tuen.

Itse odottelen hardware unboxed videota. Tuskin itsellä sellaista peliä johon tuki olisi heti tulossa jotta voisi testata itse.
 
Luonnollisesti kommentissani olisi pitänyt olla lisäys "ja yhtä pienellä framekohtaisella ajankäytöllä". Tottakai shader uniteilla voi laskea tällaistakin matikkaa, mutta kun niitä haluttaisiin käyttää siihen renderöintiin muuten...

Ja kyllä, myös DLSS:ssä on tietty "minimitaso" frametimelle koska tuo skaalaus vie jonkin verran aikaa minkä vuoksi edut kutistuvat korkeilla ruudunpäivitysnopeuksilla. 4k resolla kuulemma vie jotain 1.5ms/frame eli käytännön maksimi lienee jossain 200-300fps nurkilla (4k) jonka jälkeen DLSS on jo sen verran iso osa joka framen prosessoinnista että ei jää rendaukselle aikaa (300fps = 3.3ms ja jos siitä vie dlss 1.5ms niin ilman upscalea frameraten pitäisi olla yli 600fps)

Etu tässä on että NVIDIA voi käyttää rautaa jota ei muuten käytetä mihinkään pelikäytössä. Ja ei, en järkyttyisi jos RDNA3 sisältää jotain rautapuolella vastaavan ominaisuuden kiihdyttämiseen koska tällainen "fiksu" upsamplaus on se millä 8K-ruuduista voi saada jollain tasolla hyödyllisiä lähitulevaisuudessa.

Tietty jos AMDn seuraava verme menee chipletteihin ja pinoaa älyttömän määrän CUita tiskiin niin sillä voi luonnollisesti ratkoa ongelman "bruteforcella" kunhan algoritmi on muutoin tunessa.
En usko että AMD tulee lisäämään matriisirautaa kuluttajapuolelle ellei sille löydy jotain selvästi tarpeellista käyttöä, kuvanskaalausta en sellaiseksi ainakaan itse laske. Ammattipuolella sille on ihan eri tavalla käyttöä ja sinne AMD on moiset jo lisännytkin.

Mulla oli osittain pointtina tossa myös se, että me ei tiedetä ollenkaan millaisia tarkkuuksia DLSS vaatii tai mitä sen suorittaminen geneerisemmällä raudalla (jossa matalilla tarkkuuksilla enemmän puhtia) maksaisi.
Se, että Amperen järeämmät tensoriytimet eivät tuoneet edes etäisesti vastaavia parannuksia DLSS-nopeuteen kielii siitä, että ei ne tensorit ainakaan ihan optimaalista rautaa taida olla ko. laskuille.
 
En usko että AMD tulee lisäämään matriisirautaa kuluttajapuolelle ellei sille löydy jotain selvästi tarpeellista käyttöä, kuvanskaalausta en sellaiseksi ainakaan itse laske. Ammattipuolella sille on ihan eri tavalla käyttöä ja sinne AMD on moiset jo lisännytkin.

Mulla oli osittain pointtina tossa myös se, että me ei tiedetä ollenkaan millaisia tarkkuuksia DLSS vaatii tai mitä sen suorittaminen geneerisemmällä raudalla (jossa matalilla tarkkuuksilla enemmän puhtia) maksaisi.
Se, että Amperen järeämmät tensoriytimet eivät tuoneet edes etäisesti vastaavia parannuksia DLSS-nopeuteen kielii siitä, että ei ne tensorit ainakaan ihan optimaalista rautaa taida olla ko. laskuille.
Tensoriytimien määrä myös väheni samalla Amperessa vrt. Turing. Esim GA102:ssa 328 tensoriydintä ja TU102:ssa on 576.
 
En usko että AMD tulee lisäämään matriisirautaa kuluttajapuolelle ellei sille löydy jotain selvästi tarpeellista käyttöä, kuvanskaalausta en sellaiseksi ainakaan itse laske. Ammattipuolella sille on ihan eri tavalla käyttöä ja sinne AMD on moiset jo lisännytkin.

Mulla oli osittain pointtina tossa myös se, että me ei tiedetä ollenkaan millaisia tarkkuuksia DLSS vaatii tai mitä sen suorittaminen geneerisemmällä raudalla (jossa matalilla tarkkuuksilla enemmän puhtia) maksaisi.
Se, että Amperen järeämmät tensoriytimet eivät tuoneet edes etäisesti vastaavia parannuksia DLSS-nopeuteen kielii siitä, että ei ne tensorit ainakaan ihan optimaalista rautaa taida olla ko. laskuille.
Tensoriytimien määrä väheni ja amperen suurimmat gainit oli juuri 4k + RT + DLSS maailmassa

...?
 
Tensoriytimien määrä myös väheni samalla Amperessa vrt. Turing. Esim GA102:ssa 328 tensoriydintä ja TU102:ssa on 576.
Tensoriytimien määrä väheni ja amperen suurimmat gainit oli juuri 4k + RT + DLSS maailmassa

...?
Pitää koittaa kaivaa missä ihmeessä oli benchmarkkia tuosta paljonko pelkkä DLSS lisää nopeutta milläkin kun RT ei ole mukana kuvioissa, mutta muistelisin ettei esimerkiksi 3090 saa yli 25% isompaa boostia DLSS:stä, kuin 2080 Ti, sen verran sillä on niitä tensori-FLOPSeja enemmän ilman että hyödynnetään edes uusien tensoriydinten uusia ominaisuuksia. Voin toki muistaa väärinkin.
 
DLSS 2.0 oli jo Turing korteilla hyvin nopea, esim. 2080 Ti:llä 4K DLSS skaalaus vie Nvidian graafien mukaan 1.5 millisekuntia.
 
Amperessa tuli tuplanopeus per tensor core, jos käytetään harvaa matriisia(sparse matrix, paljon nollia) ja muita arkkitehtuurillisia parannuksia. Toisaalta tensoriytimien määrä väheni ampere geforce korteissa. ga100:ssa on tehokkaammat tensoriytimet kuin geforce malleissa. "fiksumpien" tensoriytimien ansiosta pienemmällä määrällä tensoritytimiä voidaan saada parempi suorituskyky. Tosin tuo vaatii optimointia, kun matriisit joita algoritmit käyttävät eivät välttämättä ole harvoja oletuksena.
 
Huhujen mukaan FSR tuki olisi huomattavasti helpompi lisätä peliin kuin DLSS tuki.

Jos tuo pitää paikkansa niin pelituki voi olla kohtuu hyvä.

Laatu ja nopeus sitten jää nähtäväksi...
 
Huhujen mukaan FSR tuki olisi huomattavasti helpompi lisätä peliin kuin DLSS tuki.

Jos tuo pitää paikkansa niin pelituki voi olla kohtuu hyvä.

Laatu ja nopeus sitten jää nähtäväksi...
Hatusta ennustan, että toimii hyvin peleissä jotka näyttävät aina suttuisilta.
 
AMD:n Scott Herkelmanin mukaan GeForce-shotti julkaistiin vain, jotta voidaan osoittaa homman toimivan valmistajasta riippumatta.
Näyttisvalmistajille (ajureille) riittää kuitenkin ilmeisesti hommia
 
Hatusta ennustan, että toimii hyvin peleissä jotka näyttävät aina suttuisilta.

Varmasti ihan samalla tavalla sen terävöityksen voi lisätä myös FSR:n kanssa jos on muuten suttuista...

Lopputulos nähdään sitten kun se tuki oikeasti tulee.
 
Huhujen mukaan FSR tuki olisi huomattavasti helpompi lisätä peliin kuin DLSS tuki.

FSR ei kai käytä liikevektoreita eikä edellisiä frameja skaalauksessa. Noita kun ei käytä niin integraatio engineen on helpompi tehdä. Samalla jää myös TAA:n artifaktat tuottamatta. Toisaalta ilman lisädataa on hankala tehdä superresoluutiota. Siihen on syynsä miksi esimerkiksi nvidia(dlss2.0) ja epic(ue5 tsr) ja moni muu peli(cp2077)/engine ovat päätyneet temporaalisiin algoritmeihin niiden huonoista puolista huolimatta(artifaktat).
 
Artifact eli siis suomeksi artefakti. Ei artifakta.
Sorry ot mutta tuollainen artifakta termi ei vaan jotenkin soinnu. Artifakti(t) olisi edes parempi kuin artifakta(t)

Ja asiaan, saa nähdä tuleeko nvidia sitten esittelemään jossain peleissä miten DLSS 2.0 voittaa FSR:n. Voisivat hyvinkin käyttää markkinoinnissa tuollaista vertailua.
 
Viimeksi muokattu:
AMD julkaissut tiiserin tulevasta ammattilaiskortista, ainut kysymys lienee että onko se Navi21 vai joku muu. Radiaalituuletin, suht isokokoinen ja 6 miniDP-ulostuloa

 
Juu, meinaan siis vaan että on se lippulaiva ja täydellä muistilla ja muistikaistalla kuten Titanit ovat olleet aina. Ja tosiaan Nvidia itsekin viittasi että tuo on käytännössä TItan mutta eri nimellä.

edit: Joskin tuota 3090:aa saa customina toisin kuin Titaneja jotka ovat aina olleet referenssikortteja.
Siiretään sopivampaan ketjuun

Titan on ollut tähän asti ymmärtääkseni aina puoliksi pelikortti ja puoliksi ammattilaiskortti, jossa on ollut ammatilaisten ajurioptimointeja.
Nyt 3090 on puhtaasti pelikortti, koska nämä optimoinnit on jätetty pois. Kuten sen edellisen viestin kuva kertoo: Titan rtx on joissain tapauksissa melkein 20 kertaa nopeampi, kuin rtx 3090. Toki 3090:lla voi tehdä töitä, kuten myös 3080:llä. Jos rtx 3080:n muisti riittää ovat ne lähes tasoissa, joten sekin korostaa että 3090 on vain pelikortti.
 
Siiretään sopivampaan ketjuun

Titan on ollut tähän asti ymmärtääkseni aina puoliksi pelikortti ja puoliksi ammattilaiskortti, jossa on ollut ammatilaisten ajurioptimointeja.
Nyt 3090 on puhtaasti pelikortti, koska nämä optimoinnit on jätetty pois. Kuten sen edellisen viestin kuva kertoo: Titan rtx on joissain tapauksissa melkein 20 kertaa nopeampi, kuin rtx 3090. Toki 3090:lla voi tehdä töitä, kuten myös 3080:llä. Jos rtx 3080:n muisti riittää ovat ne lähes tasoissa, joten sekin korostaa että 3090 on vain pelikortti.
NVIDIA ilmaisi hyvin selkeästi jo julkaisussa että 3090 ei ole vain pelikortti. Nyt se alleviivasi sitä uudelleen 3080 Ti:n julkaisussa, suora lainaus: "The new flagship gaming GPU of the GeForce RTX family, the RTX 3080 Ti will be available..."
 
NVIDIA ilmaisi hyvin selkeästi jo julkaisussa että 3090 ei ole vain pelikortti.

Se että sanotaan "Titan class performance" ei kylläkään ihan suorilta tarkoita että se olisi Titan. Minun nähdäkseni 3090:iä voi verrata Titaniin lähinnä sillä että siinä on täysi piiri käytössä ja paljon muistia. Vastaavia ajurioptimointeja ammattilaissovelluksiin ainakaan ihan täydessä mittakaavassa verrattuna edellisen sukupolven Titaniin ei ole tehty.
 
Se että sanotaan "Titan class performance" ei kylläkään ihan suorilta tarkoita että se olisi Titan. Minun nähdäkseni 3090:iä voi verrata Titaniin lähinnä sillä että siinä on täysi piiri käytössä ja paljon muistia. Vastaavia ajurioptimointeja ammattilaissovelluksiin ainakaan ihan täydessä mittakaavassa verrattuna edellisen sukupolven Titaniin ei ole tehty.

Tuostahan oli 3090:n julkaisun aikaankin youtubetekniikkakanavilla kritiikkiä, kun nvidia haluaa sen olevan ja ei olevan titan (titan class, ei mutta ei titan ja ajurioptimointeja puuttuu).

Imho. 3090 sijoiteltiin niin, että saatiin 3090 pelitesteihin mukaan, kun bignavi huhut huolestutti. Eli varmistettiin nopeimman pelinäytönohjaimen titteli. Samalla pidettiin huoli, että osa ammattikäytöstä onnistuu sillä todella nätisti, mutta osa titanin käyttäjäryhmästä alkavat katsella Quadroja ajurituen takia. Lopputulos on Schrodingerin kortti, joka on pelinäytönohjain tai titan, riippuen kenen laseilla katsoo.
 
NVIDIA ilmaisi hyvin selkeästi jo julkaisussa että 3090 ei ole vain pelikortti. Nyt se alleviivasi sitä uudelleen 3080 Ti:n julkaisussa, suora lainaus: "The new flagship gaming GPU of the GeForce RTX family, the RTX 3080 Ti will be available..."
Nvidia saa sanoa ihan mitä tahansa, mutta jos nämä ammattilaisten ajurioptimoinnit on jätetty pois, kyseessä on tosiasiallisesti pelikorti, jolla voi tehdä myös töitä, kuten 3080 kortilla(ja 2080 ti:llä).

Linus testaili 3080 ja 3090 eroja, ja kyllä niitä syntyi, mutta ne ei olleet valtavia. 3090 ei ole puoliksi ammattilaiskortti, eikä se ole titanin seuraaja, vaan täysin kuluttajakortti, eli pelikortti, kuten 2080 ti, joka on mielestäni oikeampi vertailukohta, ei titan, joka on puoliksi ammattilaiskortti, olematta kuitenkaan quadro, koska kaikkia ajurioptimointeja ei oltu avattu. Lisäksi kyllähän 2080 ti ohitti monessa testissä(lähde: tpu relative performance) titan x pascal ja titan xp kortit vaikka olikin pelkkä pelikortti.

Suositushintakin puhuu sen puolesta, että 3090 on pelkkä kuluttajakortti ja 2080 ti:n seuraaja, ei puoliksi ammattilaiskorti ja titanin seuraaja. Pelikortteja on pitkään ostettu myös ammattikäyttöön niiden hinnan takia, se ei tee niistä ammattilaiskortteja, vaan ne ovat pelikortteja, joita on käytetty työntekoon.
 
Tuli muuten mieleen, että mitenhän tuollainen AMD:n prossuille esittelemä v-cache boostaisi APU:n näyttispuolta? Voisin kuvitella, että aivan hemmetisti, mutuillaan hieman.

AMD julkaisi rdna2 arkkitehtuurin cachella erillispiireihin syksyllä. Niissä on maksimissaan 256-bittinen muistiväylä ja GDDR6 muistia, mutta eroa nVidiaan (384bit + GDDR6X) kurotaan kiinni jättimäisellä jopa 128 megan välimuistilla. Välimuisti on toteutettu perinteiseen tapaan piirin laidalle ja se vie mitä ilmeisemmin ihan reilusti pinta-alaa piiriltä eikä täten ole oikein sopiva ratkaisu jo muutenkin suureen APU-piiriin, joka ei kuitenkaan lähtökohtaisesti saa olla kovin kallis... Mutta mitäpä jos toteutettasiin vaikkapa 16CU kokoinen rdna2 (tai rdna3) näyttis APU DDR5-muisteilla ja 96mb cachella. Itse prossu-näyttis-piiristä ei tulisi jättimäinen, vaan sen päälle lyötäisiin v-cache-piiri erikseen. Kaksi pienempää piiriä joiden pinta-ala on X on halvempaa toteuttaa kuin yksi iso piiri, jonka pinta-ala on sama X.

Väitän siis, että AMD:n v-cache idea on syntynyt samoihin aikoihin kuin näyttisten cache ja kuningasidea on se, että sillä saadaan APU-piirien näytönohjaimet uudelle tasolle. Tämä mahdollistaa myös APU-piirien segmentoimisen tehokkaasti yhdellä piirillä. Karvalakkimallit ilman v-cachea ja tehotykit v-cache asennettuna. Helppoa ja halpaa. Intel jää nielemään pölyä ja myös nVidian erillisnäyttikset XX50-sarjaan asti tulevat katoamaan kun jytkytetään 1080p pelikelpoinen rdna2 APU v-cachella tulille.
 
Itte odotan mielenkiinnolla testejä uudesta 6900X LC mallista jossa on 18Gbps muistot, että näkyykö tuo 12,5% kaistan nousu miten testeissä. Siitä voidaan aika hyvin päätellä että onko toi 4K sakkaaminen suhteessa nvidiaan kaistasta johtuvaa vai siitä HUB:n löydöstä että nvidian ajurit aiheuttaa CPU pullonkaulassa sakkaamista jota ei amd:n puolella tapahdu.
Oma veikkaus on että suurta eroa ei ole ja amd:n suhteessa parempi teho CPU pullonkaula tilanteissa on nimenomaan nvidian ajureista aiheutuvaa.

Jos taas LC malli potkii 10% kovempaa kuin normi 6900X niin sitten 16Gbps muistit jarruttaa menoa/cachea ei ole tarpeeksi.
 


Amd taisi tappaa dlss. Ultra quality asetuksella melkein yhtä hyvä kuva mutta 40 prosenttia lisää fps sekä tukee useampia näytönohjamia.
 


Amd taisi tappaa dlss. Ultra quality asetuksella melkein yhtä hyvä kuva mutta 40 prosenttia lisää fps sekä tukee useampia näytönohjamia.

Tuskin tappoi, mutta tekee näemmä sen mihin on tarkoitettukin. Kuten lettijeesus Gamers Nexusilla totesi: Jos eroa kuvanlaadussa ei huomaa ilman vertailukuvaa, se toimii kuten pitääkin. Ja ainakin ultra quality vaikuttaisi pystyvän tuohon.
 
FSR vaikuttaa ihan pätevältä. Gamers Nexus, HUB, LTT ja TPU näyttävät kaikki pitävän laatua yllättävän hyvänä, ja suorituskykyä tulee ultra quality -asetuksellakin ihan merkittävästi lisää. Gamers Nexus huomioi, että Riftbreakerissa ray tracing -efektit ottivat aika paljon hittiä laadun suhteen.

Suoran DLSS-vertailun mahdollistavaa peliä odotellessa sanoisin alustavasti, että FSR teki AMD:n näyttiksistä pykälää kiinnostavampia itselleni.
 
Korkeimmilla preseteillä laatu on suhteellisen hyvää, mutta vastaavasti tietysti suorituskykylisä ei ole enää kovin kaksinen.
Ultralla GN:n Riftbreaker oli < 28% natiivia nopeampi, joten jos lähtötilanne on tyyliin 3xfps niin siihen alle 1/3 päälle ei kovin merkittävää eroa tee.

Ja sitten vastaavasti oikeasti nopeilla korteilla FSR:n käyttämisessä ei ole järkeä, koska parhaimmallakin asetuksella on sen verran iso negatiivinen vaikutus kuvanlaatuun, ettei sitä pelkistä stillikuvista tarvitse enää kytätä.
 
Korkeimmilla preseteillä laatu on suhteellisen hyvää, mutta vastaavasti tietysti suorituskykylisä ei ole enää kovin kaksinen.
Ultralla GN:n Riftbreaker oli < 28% natiivia nopeampi, joten jos lähtötilanne on tyyliin 3xfps niin siihen alle 1/3 päälle ei kovin merkittävää eroa tee.

Ja sitten vastaavasti oikeasti nopeilla korteilla FSR:n käyttämisessä ei ole järkeä, koska parhaimmallakin asetuksella on sen verran iso negatiivinen vaikutus kuvanlaatuun, ettei sitä pelkistä stillikuvista tarvitse enää kytätä.

Toisaalta kolmesta neljään FPS voi olla huomattavampi parannus, kuin 300 -> 400 fps.
 
FSR näyttää häviävän selvästi Unreal Engine 4:n omalle temporal upsample tekniikalle.

captureb6kbr.png
 
FSR näyttää häviävän selvästi Unreal Engine 4:n omalle temporal upsample tekniikalle.

captureb6kbr.png

Toi amd Fsr asetus on se huonoin performance. 4k resolle hardware unboxed mukaan ultra quality tai quality on hyvä. 1440p resoluutiolle sitten ultra quality.

Edit ja Amd jopa itse sanoi ettei sitä performance asetusta kannata käyttää. Varmaan halusivat markkinoida että tarjoaa mahdollisimman paljon fps. Ehkä joskus sitä parantelevat?
 
Viimeksi muokattu:
Toi amd Fsr asetus on se huonoin performance. 4k resolle hardware unboxed mukaan ultra quality tai quality on hyvä. 1440p resoluutiolle sitten ultra quality.

Edit ja Amd jopa itse sanoi ettei sitä performance asetusta kannata käyttää. Varmaan halusivat markkinoida että tarjoaa mahdollisimman paljon fps. Ehkä joskus sitä parantelevat?
Eiköhän nuo performancepresetit ole niitä varten joilla joku peli pyörii natiivina 15fps ja saavat tuolla tuolailtua 30-40 paikkeille. Ei varmaan hitti kuvalaatuun tuollaisessa keississä haittaa.
 
@k1nggg : in linkkaamat kuvat on vissiin Digital Foundryn videosta. Katoin HWU:n, GN:n ja DF:n videot tuosta Super Resolutionista tänään, ja mielestäni DF:n analyysi on niistä syvällisin ja osuvin.

Esimerkkikuvissa mitattiin FPS:n sijaan GPU:n käyttöastetta joka oli aika pitkälti identtinen. Toi kyseinen testikohta alkaa linkkaamassani videossa 10:20 kohdalla.

Alex here from Digital Foundry -

reading other reviews I think there is a general misapprehension happening about AMD's FSR in the tech press, so my review reads or watches rather differently. FSR is an image upscaling technique, like a bilinear or bicubic upscale you can do in Photoshop. AMD's own tech briefing and information describes FSR as an uspcaling technique to be compared with simple image space upscalers like Bilinear or Lanczos or Bicubic. It is better than those simple upscalers for the purpose of a video game image.
AMD's FSR is not an image reconstruction technique like checkerboard rendering, DLSS 1.0, DLSS 2.0, Temporal Anti-Aliasing Upscaling, or a variety of techniques which look to reconstruct the image's higher level detail beyond the spatial realm while Anti-Aliasing that new image information.
FSR is similarly not Anti-Aliasing - FSR comes after a game has already been anti-aliased and inherits the qualities, faults, and benefits of the anti-aliasing technique of the game in question.

The questions of FSR's usefulness is important within the context of what a game offers in its settings menu. If for some reason a game literally only offers basic image upscaling with a slider that uses bilinear filtering, or none of that and just has resolution options, then FSR will produce a more pleasing image than those options. But it is not and should not be thought of as an alternative to real image reconstruction techniques.
I say this for the academic purpose of properly classifying things, but also because practically, All people who game on PC should hope that devs implement something like Temporal Anti-Aliasing Upscaling in their game and not only offer something like FSR. TAA U is doing something completely different that has transformative image quality effects and should be desired.

Ekassa kappaleessa sanotaan kaikki olennainen, yksinkertaisella kuvanskaalauksella ei pötkitä pitkälle verrattuna järeisiin rekonstruktioratkaisuihin joissa hyödynnetään ajallista dataa.

FSR olisi toki kiva saada implementoitua vanhoihin peleihin plugarina, mutta uusiin peleihin toivoisi mieluummin jotain kunnon ratkaisua tyyliin DLSS tai TAAU.

Mut aika perus Radeon-tavaraa tämäkin, ollaan vuosia myöhässä oman Nvidia killerfeature-kloonin kanssa, tehdään siitä tarjoustalo-versio (FreeSync, FSR) joka toki tekee jotain mutta ei ole verrattavissa premiumratkaisuihin (G-sync, DLSS), ja toivotaan että omat asiakkaat ei huomaa eroa.
 
Viimeksi muokattu:
  • Tykkää
Reactions: hik
Mut aika perus Radeon-tavaraa tämäkin, ollaan vuosia myöhässä oman Nvidia killerfeature-kloonin kanssa, tehdään siitä tarjoustalo-versio (FreeSync, FSR) joka toki tekee jotain mutta ei ole verrattavissa premiumratkaisuihin (G-sync, DLSS), ja toivotaan että omat asiakkaat ei huomaa eroa.
Nvidia taasen tykkää suljetuista proprietary ratkaisuista ja rahastaa sillä sekä kieltäytyä tukemasta avoimia ratkaisuja ilman mitään järkevää syytä.

Onko physix kortit ja freesynkin tukemattomuus jo unohtunut?

On tämä FSR kuitenkin parempi, kuin ei mitään ja tämää oli vähän pakko tehdä tällein, jotta sen implemointi mahdollisimman moneen paikkaan olisi helppoa. Dlss vaatii vissiin vieläkin pelin pyörittämistä nvidian omilla servereillä 16k resolla, ennen kuin toimii ja senkin jälkeen peliin liittäminen on haastavampaa, ja esiintyy lähinnä nvidian sponssaamissa peleissä. En näe mitään syytä miksei tämä FSR voisi levitä moneen paikkaan jolloin tämä defacto antaa enemmän iloa, kuin DLSS.
 
Viimeksi muokattu:
FSR ei ole rekonstruointia, mutta se että sitä ei saisi verrata rekonstruointitekniikoihin on kyllä akateemista haihattelua. Se ON vastine DLSS:llä, ja näin ollen sitä ehdottomasti pitää verrata siihen nimenomaan loppukäyttäjän pelikokemuksen ollessa ratkaiseva tekijä.
 
Toi amd Fsr asetus on se huonoin performance. 4k resolle hardware unboxed mukaan ultra quality tai quality on hyvä. 1440p resoluutiolle sitten ultra quality.

Edit ja Amd jopa itse sanoi ettei sitä performance asetusta kannata käyttää. Varmaan halusivat markkinoida että tarjoaa mahdollisimman paljon fps. Ehkä joskus sitä parantelevat?

Tuossa kuvassa verrataan noita eli skaalaustekniikoita keskenään, eli kaikissa reso on tietysti sama. Fsr jopa yllättävän huono tuossa. Launchin pelit on ilmeiseti valittu aika tarkasti, kun tuo toimii parhaiten Terminatorissa jota juuri kukaan ei pelaa.
 
Dlss vaatii vissiin vieläkin pelin pyörittämistä nvidian omilla servereillä 16k resolla, ennen kuin toimii ja senkin jälkeen peliin liittäminen on haastavampa
Käsittääkseni pelikohtaista opettamista nvidian servereillä ei ole vaadittu DLSS 2.0 lähtien. Koski vain DLSS 1.0. Pelikohtainen implementointi kyllä vaaditaan (algoritmi tarvitsee liikevektoridataa).
 
Tuossa kuvassa verrataan noita eli skaalaustekniikoita keskenään, eli kaikissa reso on tietysti sama. Fsr jopa yllättävän huono tuossa. Launchin pelit on ilmeiseti valittu aika tarkasti, kun tuo toimii parhaiten Terminatorissa jota juuri kukaan ei pelaa.

Niin tosiaan mutta olisi sitä voinut myös verrata ultra qualityn tai qualityn resoluutiolla vs muita skaalaustekniikoita. Ilmeisesti Dlss toimii paljon paremmin kun dataa on vähemmän(eli skaalataan enemmän) ja taas Fsr heikentyy kuvanlaatu paljon. Ultra quality asetus tarjoaa kuitenkin mukavat 28-40 prosenttia lisää fps.
 
@k1nggg : in linkkaamat kuvat on vissiin Digital Foundryn videosta. Katoin HWU:n, GN:n ja DF:n videot tuosta Super Resolutionista tänään, ja mielestäni DF:n analyysi on niistä syvällisin ja osuvin.

DF:n analyysi oli kyllä hyvä, ainakin tuossa suhteessa ko. kanava on oppinut jotain. Niidenhän DLSS 1.0 analyysit oli lähinnä hypevideota: lähes alkuperäistä tai parempaa fps boostilla, vaikka se otti kuvanlaadussa pataan perus bilinear skaalaukselta sharpen filtterillä.
 


Näyttää siltä että vaikka Amd ei virallisesti tue nvidia 900 sarjaa toimii Fsr siinäkin joku käytti jopa gt 710 kanssa sitä :D

Joten potentiaaliset pelaajat on todella paljon enemmän(Ja uudemmat konsolitkin tukevat sitä) kuin Nvidian Dlss.
 
DF:n analyysi oli kyllä hyvä, ainakin tuossa suhteessa ko. kanava on oppinut jotain. Niidenhän DLSS 1.0 analyysit oli lähinnä hypevideota: lähes alkuperäistä tai parempaa fps boostilla, vaikka se otti kuvanlaadussa pataan perus bilinear skaalaukselta sharpen filtterillä.
?

DF tykkäsi FF15 DLSS 1.0 implementaatiosta, koska se oli heidän silmiinsä parempi kuin pelin oma natiivi+TAA viritys.

Metro Exoduksen implementaatio sai heiltä paskaa kuten kuuluikin koska lopputulos oli suttuista.

Voit ite toki hakea lisää esimerkkejä, mutta mistään hypevideoista ei ole kyse ellet tarkoituksellisesti jätä huomioimatta sitä mikä ei sovi siihen narratiiviin mitä haluat DF:sta luoda.
 
DF tykkäsi FF15 DLSS 1.0 implementaatiosta, koska se oli heidän silmiinsä parempi kuin pelin oma natiivi+TAA viritys.

Metro Exoduksen implementaatio sai heiltä paskaa kuten kuuluikin koska lopputulos oli suttuista.

Voit ite toki hakea lisää esimerkkejä, mutta mistään hypevideoista ei ole kyse ellet tarkoituksellisesti jätä huomioimatta sitä mikä ei sovi siihen narratiiviin mitä haluat DF:sta luoda.

Metron analyysiä en ollutkaan katsonut, mutta DF:n eka puraisu ja kirjoitettu artikkeli samoista materiaaleista oli kyllä hypeä. Kyllä ne DLSS ongelmat oli nähtävissä jo Final fantasyssa. Infiltratoria nekin vain ihmetteli sellaisenaan, kun osa saiteista vertasi DLSS kuvanlaatua custom resoihin, joilla saatiin sama suorituskyky paremmalla kuvanlaadulla.

Kuten sanoin ne ovat oppineet jotain, kun skaalauksia on ihmetelty muutaman vuoden ajan. DF:n FSR testi on ihan eri kaliberia, kuin DLSS:n ensipuraisu. Nyt ne osasi katsoa mitä FSR tekee hyvin ja mitä se tekee huonosti ja etsiä vertailukappaleita (TAAU, joka oli muuten unreal enginessä ennen DLSS 1.0 julkaisua).
 

Statistiikka

Viestiketjuista
259 356
Viestejä
4 505 381
Jäsenet
74 386
Uusin jäsen
Juize

Hinta.fi

Back
Ylös Bottom