Virallinen: NVIDIA vs AMD (vs Intel) keskustelu- ja väittelyketju

  • Keskustelun aloittaja Keskustelun aloittaja Sampsa
  • Aloitettu Aloitettu
Nyt voidaan ehkä oikeastikin puhua kuvanhuononnustekniikasta: AMD Formally Unveils FidelityFX Super Resolution: Open Source Game Upscaling

Pilari ja käytävän tiilet ovat kuin olisi rillit unohtunut kotiin.

DLSS 0.5?

Vaikuttaa kyllä oikeasti DLSS 1.0:lle toteutustavaltaan ja laadultaan. Eli ihan oikeaa kuvanhuononnusta, mutta kyllä jotkut sitäkin puolustivat parhaana juttuna ikinä. Ehkä mielenkiintoisinta tuossa on pärjääkö se perusskaalaukselle ja terävöitykselle, DLSS 1.0 otti siltäkin turpiin, kun AI prosessointi kesti niin kauan, joten resoluutiota piti tiputtaa vielä enemmän, jotta päästiin nopeudessa isomman resoluution perusskaalauksen tasolle.
 
"Oho, NVIDIA oikeasti tekee jotain niillä tensor coreilla ja yllättäen ilman niitä AMDn on vaikea tehdä vastaavaa featurea joka pärjäisi kuvanlaadussa"

:eek:
 
"NVidia tekee vaan softajuttuja mitkä voisi ihan hyvin pyöriä CU:illakin"
 
Otti se nVidiallakin 14kk saada homma toimimaan niin hyvin kuin se nykyään toimii (1.0 julkaistiin helmikuussa 2019 ja 2.0 toinen iteraatio huhtikuussa 2020). Eli ootellaan ihan rauhassa. Ei oo tarvinnu tähänkään päivään mennessä DLSS:ää omassa koneessa käytellä (kun ei ole yhteensopivaa rautaa) niin sama katella tämäkin ihan rauhassa.
 
Vaikuttaa kyllä siltä, että nyt on MVP tehty, toivottavasti jatkavat kehitystä ja se liike vektoridatan huomioiva yms. olisi siellä putkessa myös, ei tuolla blurrin määrällä nVidian teknologiaa vastaan kilpailla kyllä yhtään.
 
Positiivisesti ajatellen, täältä löytyy vielä tuommoinen 1060-näyttis johon jutussa demottiin väkisin revittyä fps:ää.
Voi olla että tekniikka sopisi esim. lasten satunnaiseen käyttöön ja auttaa pidentämään vähän laitepäivitysten väliä.
Ainakaan nuoremmasta päästä lapset ei ehkä ole niin tarkkoja laadusta kunhan joku tietty peli vaan pyörii nykimättä. Niitäkin koneita ja käyttäjiä voi olla aika monta.
 
No ei se dlss tarkkuuskaan 1440p ja alle resoilla mitenkään täydellistä ole, joten jo pelkästään se että suorituskykyä tulee tarvittaessa reippaasti lisää on erinomainen juttu. Ihan jo senkin takia, että esim. läppäreilläkin voi harkita 1440p resoilla olevia näyttöjä pelikäyttöönkin. Myöskin noi M näyttikset mobiilipuolelle vaikuttivat hyviltä kun 6800M suorituskyky oli esim. D2D testeissä 3080 mobiilinäyttiksen kanssa samoissa 500e halvemmalla hinnalla (ja vielä bulkki vs. brändilisä päälle).
 
Tuosta alkaa AMD esitys, jossa on enemmän materiaalia Super Resulutionista:
Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.


Edit: Sumeat tiilit-kuva oli GTX1060:lla ja toiseksi parhaalla laadulla. Näyttäisi minusta siltä että AMD yrittää tehdä FreeSyncit ja ajaa DLSS:n tuen tarpeettomaksi. Saa nähdä onnistuuko. Esityksen perusteella ultra quality voi olla käyttökelpoinen tila ja saada AMD:n näyttikset jollakin tasolla mielekkäiksi säteenseurantaa käyttäviin peleihin.
 
Viimeksi muokattu:
No ei se dlss tarkkuuskaan 1440p ja alle resoilla mitenkään täydellistä ole, joten jo pelkästään se että suorituskykyä tulee tarvittaessa reippaasti lisää on erinomainen juttu. Ihan jo senkin takia, että esim. läppäreilläkin voi harkita 1440p resoilla olevia näyttöjä pelikäyttöönkin. Myöskin noi M näyttikset mobiilipuolelle vaikuttivat hyviltä kun 6800M suorituskyky oli esim. D2D testeissä 3080 mobiilinäyttiksen kanssa samoissa 500e halvemmalla hinnalla (ja vielä bulkki vs. brändilisä päälle).

Tuo esimerkkikuva oli toiseksi parhaalta laatutasolta, eli vertailukohta olisi kai dlss balanced. Silti aika suttua tuossa kuvassa oli tarjolla. Ei nyt alustavasti vakuuta, toisaalta godfallissa on motionblurrit sun muut hässäkät muutenkin "parantamassa" ruutukaapausten laatua. Odotukset ei nyt ole silti kovin korkealla.
 
On siellä sitä videotakin pätkä:
Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.
 
Tuo esimerkkikuva oli toiseksi parhaalta laatutasolta, eli vertailukohta olisi kai dlss balanced.

Niin? Dlss on quality ja 4k resolla jees. Quality ja 1440p niin kuva jo kärsii selvästi. Tässä nyt voi myös ajatella niin että nvidialla kesti 18kk päästä dlss 1.0:sta tähän nykyiseen, joten olen itse lähinnä iloisesti yllättynyt että tämä tulee jo kesäkuun 22. vaikka tuki peleillä vaaditaankin erikseen. Ilman tekniikkaa ei ole tukeakaan ja ilman tukea ja tekniikkaa se ei myöskään kehity.

Tekniikan laatua varmasti käydään sitä tukevissa peleissä lävitse ja mielenkiinnolla odotan miten vertautuu esim. Dlss:ään sekä pyörimisessä että kuvanlaadullisesti. Myös sekä RT efekteillä että ilman. Laadullisen tappion odotan toki tässä vaiheessa olevan vielä kohtuullisen selvä, mutta ei se itseäni tässä vaiheessa haittaa.
 
Tässä nyt voi myös ajatella niin että nvidialla kesti 18kk päästä dlss 1.0:sta tähän nykyiseen

Otti se nVidiallakin 14kk saada homma toimimaan niin hyvin kuin se nykyään toimii (1.0 julkaistiin helmikuussa 2019 ja 2.0 toinen iteraatio huhtikuussa 2020).
Taitaa olla faktat vähän hukassa nyt. Ensimmäinen DLSS 2.0 peli julkaistiin joulukuussa 2019. Ensimmäinen DLSS 1.0 peli joskus alkuvuodesta 2019.

"Oho, NVIDIA oikeasti tekee jotain niillä tensor coreilla ja yllättäen ilman niitä AMDn on vaikea tehdä vastaavaa featurea joka pärjäisi kuvanlaadussa"

:eek:
Unreal Enginen Gen 5 TAA eli Temporal Super Resolution pääsee itseasiassa aika lähelle DLSS:n laatua ilman tensoreitakin. UE 4.26:ssa DLSS:n ja TSR:n välistä vertailua on helppo tehdä, kun siitä löytyy molemmat. TSR hieman epästabiilimpi mikä näkyy myös liikkeessä, mutta kuvan yksityiskohdat se säilyttää helvetin paljon paremmin kuin vanha TAAU.

Jos AMD:n ratkaisu olisi tuon TSR:n tasoinen niin ei todellakaan huono.
 
Niin? Dlss on quality ja 4k resolla jees. Quality ja 1440p niin kuva jo kärsii selvästi. Tässä nyt voi myös ajatella niin että nvidialla kesti 18kk päästä dlss 1.0:sta tähän nykyiseen, joten olen itse lähinnä iloisesti yllättynyt että tämä tulee jo kesäkuun 22. vaikka tuki peleillä vaaditaankin erikseen. Ilman tekniikkaa ei ole tukeakaan ja ilman tukea ja tekniikkaa se ei myöskään kehity.

Ainahan reson tippuessa nuo skaalaukset ottaa osumaa, kun lähdemateriaalin laatu huononee. DLSS 1.0 oli kyllä kuraa, 1.9 joka pyöri ilman tensoreita oli jo lupaava esitys. Nyt 2.0:n myötä peleissä alkaa olla mahdollisuus säätää terävöityksen tasoa, niin ei siinä enää kauheasti kritisoitavaa ole. Artefakteja tulee toki aina kaikissa skaalauksissa, mutta edut painaa jo haittoja enemmän.

Tuo AMD:n skaalauksen etu on se, että se toimii vähän kaikkialla ja konsoleissakin. Eli on hyvä sauma yleistyä, mutta vähän kyllä jännittää miten se pärjää ihan perusskaalauksella ja terävöitykselle. Tuon universaalin ratkaisun takia sen toivoisi olevan hyvä, pelit kuitenkin tehdään nykyään myös konsolit mielessä, tai pahimmillaan päähaara konsoleilla sitten se pc porttaus erikseen.
 
Nöyp Deep learning super sampling - Wikipedia

2.0 (second iteration)April 2020Second 2.0 version, using Tensor Cores again and trained generically
Wikipedia on väärässä. Markkinointihypetys käynnistyi ehkä huhtikuussa.

Deliver us the moon sai DLSS 2.0 tuen joulukuussa 2019 ja Wolfenstein Youngblood tammikuussa 2020.

Mulla on tallessa Youngbloodin alkuperäinen nvngx_dlss.dll. Versionumero on 2.0.0.0 ja Nvidian digital signaturen päiväys 12.12.2019.
 
  • Tykkää
Reactions: aop
Nyt se alkaa taas :rofl2:

"Puolustusasemiin, toverit!"
Älä viitsi. Ei mitään teknologiaa voi arvostella yhden tapauksen perusteella. Vähän sana kuin tunkisit kuorellisen kananmunan mikroaaltouuniin ja kun se räjähtää väittäisit laitetta käyttökelvottomaksi ruuan lämmitykseen.

Itse katselen laajemmat tulokset kun ne ovat saatavilla ja teen vasta niiden pohjalta johtopäätökseni
 
Wikipedia on väärässä. Markkinointihypetys käynnistyi ehkä huhtikuussa.

Deliver us the moon sai DLSS 2.0 tuen joulukuussa 2019 ja Wolfenstein Youngblood tammikuussa 2020.

Mulla on tallessa Youngbloodin alkuperäinen nvngx_dlss.dll. Versionumero on 2.0.0.0 ja Nvidian digital signaturen päiväys 12.12.2019.

Yllättävän aikasin. Techspot teki sen ekan DLSS 2.0 artikkelin ja siitä tälläkin foorumilla alkoi DLSS 2.0 hypetys. Se on 26.2 2020 päiväyksellä.
 
Puhutaanko nyt siitä ensimmäisestä 2.0 iteraatiosta joka ei käyttänyt tensor coreja, vai siitä toisesta versiosta?
 
Yllättävän aikasin. Techspot teki sen ekan DLSS 2.0 artikkelin ja siitä tälläkin foorumilla alkoi DLSS 2.0 hypetys. Se on 26.2 2020 päiväyksellä.
Tuota ei ihan alkuun mitenkään mainostettu DLSS 2.0 nimellä, vaan pelit julkaistiin uudella versiolla kaikessa hiljaisuudessa.

DF syynäsi Wolfensteinin DLSS toteutusta 15.1.2020 julkaistussa videossa:

Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.


Puhutaanko nyt siitä ensimmäisestä 2.0 iteraatiosta joka ei käyttänyt tensor coreja, vai siitä toisesta versiosta?
Kaikki 2.0 versiot käyttävät tensoreita.

Control on ainoa peli joka käytti tensoreita hyödyntämätöntä versiota (ennenkuin se päivitettiin käytämään 2.0:aa). Alkuperäinen versionumero oli 1.3.8.0, HUB kutsui sitä 1.9:ksi.
 
Katsoinko punaisten lasien läpi vai onko minulla liikaa hajataittoa, kun tuo ultra quality näytti ihan hyvältä ja toi melko huiman 60% suorituskykyä? Tokihan noi huonommat asetukset oli jo oikeasti perunoita.
 
Tässä on muuten raudan testaajille varsin mielenkiintoinen dilemma:
Tällä hetkellä pelit testataan pääsääntöisesti säteenseuranta pois päältä ja säteenseuranta päällä tulokset ovat pienessä osassa erikseen jossain artikkelin lopussa. Nyt on kuitenkin jo pihalla konsolipelejä, joissa säteenseuranta on vakiona päällä. Testataanko nämä pelit vastaisuudessa tätä vanhaa standardia noudattaen säteenseuranta pois päältä, eli toisinsanoen konsoleita huonommilla kuvanlaatuasetuksilla? Vai testataanko nämä säteenseuranta päällä ja vain PC:lla säteenseurantaa tukevat sitten säteenseuranta pois päältä? Vai olisiko jo aika kytkeä säteenseuranta päälle kaikissa testatuissa peleissä ja jättää ne ilman säteenseurantaa olevat tulokset sinne artikkelin loppuun pikkuosioon? Kohta on uusien pelien kanssa tilanne se, että suurin osa julkaistuista AAA-peleistä tukee säteenseurantaa ja yhä useammassa se on defaulttina päällä niin PC:llä, kuin konsoleilla.

@Sampsa
 
Tässä on muuten raudan testaajille varsin mielenkiintoinen dilemma:
Tällä hetkellä pelit testataan pääsääntöisesti säteenseuranta pois päältä ja säteenseuranta päällä tulokset ovat pienessä osassa erikseen jossain artikkelin lopussa. Nyt on kuitenkin jo pihalla konsolipelejä, joissa säteenseuranta on vakiona päällä. Testataanko nämä pelit vastaisuudessa tätä vanhaa standardia noudattaen säteenseuranta pois päältä, eli toisinsanoen konsoleita huonommilla kuvanlaatuasetuksilla? Vai testataanko nämä säteenseuranta päällä ja vain PC:lla säteenseurantaa tukevat sitten säteenseuranta pois päältä? Vai olisiko jo aika kytkeä säteenseuranta päälle kaikissa testatuissa peleissä ja jättää ne ilman säteenseurantaa olevat tulokset sinne artikkelin loppuun pikkuosioon? Kohta on uusien pelien kanssa tilanne se, että suurin osa julkaistuista AAA-peleistä tukee säteenseurantaa ja yhä useammassa se on defaulttina päällä niin PC:llä, kuin konsoleilla.

@Sampsa
Pc:llä saa yleensä säädettyä niin montaa muutakin grafiikka-asetusta, että en suoraan allekirjoittaisi väitettä rt off = huonompi kuvanlaatu kuin konsoleissa
 
Aikamoista kuraa näyttäisi tuon esityksen perusteella olevan tuo FSR. No eipä yllätä, kun vektoridataakaan ei ole käytetty ollenkaan.

Kaiken lisäksi tuo ei edes tue konsoleita tällä hetkellä ja AMD ei edes kertonut mitään tarkempaa, onko tulossa konsoleille ja milloin. Aika turhalle tekniikalle vaikuttaa tässä vaiheessa, mutta toivottavasti saavat sitä kehitettyä ja ennen kaikkea tuotua tuen myös uusille konsoleille.
 
Eiköhän se ole tulossa, kun kerran koko fidelityfx on osa tuota DirectX ultimate kokonaisuutta. Lähinnähän tuo voisi teoriassa tulla jopa edelliselle Xbox konsolille (series X vai mikä se paras niistä oli), kun rauta saattaisi olla jopa yhteensopivaa.

Ihan mielenkiintoista testata tuota tyttären 1060 6gb kortin kanssa, et paljonko sillä saa suorituskyky lisää peleissä jotka muuten eivät olisi kovin pelattavia enää.
 
Eiköhän se ole tulossa, kun kerran koko fidelityfx on osa tuota DirectX ultimate kokonaisuutta. Lähinnähän tuo voisi teoriassa tulla jopa edelliselle Xbox konsolille (series X vai mikä se paras niistä oli), kun rauta saattaisi olla jopa yhteensopivaa.

Ihan mielenkiintoista testata tuota tyttären 1060 6gb kortin kanssa, et paljonko sillä saa suorituskyky lisää peleissä jotka muuten eivät olisi kovin pelattavia enää.
Ei FidelityFX:llä ole mitään tekemistä DX12 Ultimaten kanssa.
 
Ei FidelityFX:llä ole mitään tekemistä DX12 Ultimaten kanssa.

Mitään tekemistä on aika vahvasti sanottu, kun kerran Fidelityfx tavaraa on tuotu ultimateen ja molemmat ovat opengpu tavaraa.

Joo, teknisesti ei kuulu mutta eivät ne ihan ventovieraitakaan ole.
 
Jahas 20 päivään asti pitänee odotella tukea peliin, että nettiin ilmestyy vertailua "algoritmeistä". Mitähän puuroa siitä syntyy jos yhdistää molemmat, vai toimisiko fidelityfx sr tensor ytimillä.... niidenhän pitäisi olla tehokkaita 4x4 matriisi laskuissa, tosin 3000 sarjassa nvidia taisi nerffata/muuttaa niitä tehokkaammaksi karsimalla toimintoja.

DLSS 2.0 tietääkseni on puhtaasti algoritmi.
 
Viimeksi muokattu:
"Oho, NVIDIA oikeasti tekee jotain niillä tensor coreilla ja yllättäen ilman niitä AMDn on vaikea tehdä vastaavaa featurea joka pärjäisi kuvanlaadussa"

:eek:
"NVidia tekee vaan softajuttuja mitkä voisi ihan hyvin pyöriä CU:illakin"
Kyllä, se voisi ihan hyvin pyöriä vaikka AMD:n Compute Uniteilla. Nopeus on toki kysymysmerkki, mutta siinä ei ole mitään sellaista mitä ei voisi laskea yleiskäyttöisemmillä ytimillä.
Sillä miten hyvä tai huono FSR on verrattuna DLSS:ään ei ole sen asian kanssa yhtään mitään tekemistä.
(ps. se vertailukuva ei ole parhaalla laatuasetuksella, mikä voi olla vähän, ei ollenkaan tai paljonkin parempi)
 
Luonnollisesti kommentissani olisi pitänyt olla lisäys "ja yhtä pienellä framekohtaisella ajankäytöllä". Tottakai shader uniteilla voi laskea tällaistakin matikkaa, mutta kun niitä haluttaisiin käyttää siihen renderöintiin muuten...

Ja kyllä, myös DLSS:ssä on tietty "minimitaso" frametimelle koska tuo skaalaus vie jonkin verran aikaa minkä vuoksi edut kutistuvat korkeilla ruudunpäivitysnopeuksilla. 4k resolla kuulemma vie jotain 1.5ms/frame eli käytännön maksimi lienee jossain 200-300fps nurkilla (4k) jonka jälkeen DLSS on jo sen verran iso osa joka framen prosessoinnista että ei jää rendaukselle aikaa (300fps = 3.3ms ja jos siitä vie dlss 1.5ms niin ilman upscalea frameraten pitäisi olla yli 600fps)

Etu tässä on että NVIDIA voi käyttää rautaa jota ei muuten käytetä mihinkään pelikäytössä. Ja ei, en järkyttyisi jos RDNA3 sisältää jotain rautapuolella vastaavan ominaisuuden kiihdyttämiseen koska tällainen "fiksu" upsamplaus on se millä 8K-ruuduista voi saada jollain tasolla hyödyllisiä lähitulevaisuudessa.

Tietty jos AMDn seuraava verme menee chipletteihin ja pinoaa älyttömän määrän CUita tiskiin niin sillä voi luonnollisesti ratkoa ongelman "bruteforcella" kunhan algoritmi on muutoin tunessa.
 
Viimeksi muokattu:
Itse pelaan 1440p resolla ja dlss 2.x peleissä quality asetuksella(joka nvidian dlss paras asetus) en huomaa kuvanlaadussa eroa natiiviin mutta fps hieman parempi. Free fps wtf :D

Vähintään amd pitäisi antaa 1440p ultra quality asetuksella saman luokan fps kuin pelatessa 1080p terävöityksellä kuvanlaadun ollessa parempi jotta itse sitä käyttäisin.

Tosi hyvä että amd lähtee avoimen standardin luomaan niin varmasti pelinkehittäjillä huomattavasti enemmän motivaatiota tuoda peliinsä tuen sille. Aika harvalla kuitenkin on rtx näytönohjain ja ne on aika kalliita ainakin ennenkuin nvidia julkaisee rtx 3050 sarjalaisia ja lisäksi tuki uuden sukupolven konsoleille saattaa tuoda monelle pc versiollekin tuen.

Itse odottelen hardware unboxed videota. Tuskin itsellä sellaista peliä johon tuki olisi heti tulossa jotta voisi testata itse.
 
Luonnollisesti kommentissani olisi pitänyt olla lisäys "ja yhtä pienellä framekohtaisella ajankäytöllä". Tottakai shader uniteilla voi laskea tällaistakin matikkaa, mutta kun niitä haluttaisiin käyttää siihen renderöintiin muuten...

Ja kyllä, myös DLSS:ssä on tietty "minimitaso" frametimelle koska tuo skaalaus vie jonkin verran aikaa minkä vuoksi edut kutistuvat korkeilla ruudunpäivitysnopeuksilla. 4k resolla kuulemma vie jotain 1.5ms/frame eli käytännön maksimi lienee jossain 200-300fps nurkilla (4k) jonka jälkeen DLSS on jo sen verran iso osa joka framen prosessoinnista että ei jää rendaukselle aikaa (300fps = 3.3ms ja jos siitä vie dlss 1.5ms niin ilman upscalea frameraten pitäisi olla yli 600fps)

Etu tässä on että NVIDIA voi käyttää rautaa jota ei muuten käytetä mihinkään pelikäytössä. Ja ei, en järkyttyisi jos RDNA3 sisältää jotain rautapuolella vastaavan ominaisuuden kiihdyttämiseen koska tällainen "fiksu" upsamplaus on se millä 8K-ruuduista voi saada jollain tasolla hyödyllisiä lähitulevaisuudessa.

Tietty jos AMDn seuraava verme menee chipletteihin ja pinoaa älyttömän määrän CUita tiskiin niin sillä voi luonnollisesti ratkoa ongelman "bruteforcella" kunhan algoritmi on muutoin tunessa.
En usko että AMD tulee lisäämään matriisirautaa kuluttajapuolelle ellei sille löydy jotain selvästi tarpeellista käyttöä, kuvanskaalausta en sellaiseksi ainakaan itse laske. Ammattipuolella sille on ihan eri tavalla käyttöä ja sinne AMD on moiset jo lisännytkin.

Mulla oli osittain pointtina tossa myös se, että me ei tiedetä ollenkaan millaisia tarkkuuksia DLSS vaatii tai mitä sen suorittaminen geneerisemmällä raudalla (jossa matalilla tarkkuuksilla enemmän puhtia) maksaisi.
Se, että Amperen järeämmät tensoriytimet eivät tuoneet edes etäisesti vastaavia parannuksia DLSS-nopeuteen kielii siitä, että ei ne tensorit ainakaan ihan optimaalista rautaa taida olla ko. laskuille.
 
En usko että AMD tulee lisäämään matriisirautaa kuluttajapuolelle ellei sille löydy jotain selvästi tarpeellista käyttöä, kuvanskaalausta en sellaiseksi ainakaan itse laske. Ammattipuolella sille on ihan eri tavalla käyttöä ja sinne AMD on moiset jo lisännytkin.

Mulla oli osittain pointtina tossa myös se, että me ei tiedetä ollenkaan millaisia tarkkuuksia DLSS vaatii tai mitä sen suorittaminen geneerisemmällä raudalla (jossa matalilla tarkkuuksilla enemmän puhtia) maksaisi.
Se, että Amperen järeämmät tensoriytimet eivät tuoneet edes etäisesti vastaavia parannuksia DLSS-nopeuteen kielii siitä, että ei ne tensorit ainakaan ihan optimaalista rautaa taida olla ko. laskuille.
Tensoriytimien määrä myös väheni samalla Amperessa vrt. Turing. Esim GA102:ssa 328 tensoriydintä ja TU102:ssa on 576.
 
En usko että AMD tulee lisäämään matriisirautaa kuluttajapuolelle ellei sille löydy jotain selvästi tarpeellista käyttöä, kuvanskaalausta en sellaiseksi ainakaan itse laske. Ammattipuolella sille on ihan eri tavalla käyttöä ja sinne AMD on moiset jo lisännytkin.

Mulla oli osittain pointtina tossa myös se, että me ei tiedetä ollenkaan millaisia tarkkuuksia DLSS vaatii tai mitä sen suorittaminen geneerisemmällä raudalla (jossa matalilla tarkkuuksilla enemmän puhtia) maksaisi.
Se, että Amperen järeämmät tensoriytimet eivät tuoneet edes etäisesti vastaavia parannuksia DLSS-nopeuteen kielii siitä, että ei ne tensorit ainakaan ihan optimaalista rautaa taida olla ko. laskuille.
Tensoriytimien määrä väheni ja amperen suurimmat gainit oli juuri 4k + RT + DLSS maailmassa

...?
 
Tensoriytimien määrä myös väheni samalla Amperessa vrt. Turing. Esim GA102:ssa 328 tensoriydintä ja TU102:ssa on 576.
Tensoriytimien määrä väheni ja amperen suurimmat gainit oli juuri 4k + RT + DLSS maailmassa

...?
Pitää koittaa kaivaa missä ihmeessä oli benchmarkkia tuosta paljonko pelkkä DLSS lisää nopeutta milläkin kun RT ei ole mukana kuvioissa, mutta muistelisin ettei esimerkiksi 3090 saa yli 25% isompaa boostia DLSS:stä, kuin 2080 Ti, sen verran sillä on niitä tensori-FLOPSeja enemmän ilman että hyödynnetään edes uusien tensoriydinten uusia ominaisuuksia. Voin toki muistaa väärinkin.
 
DLSS 2.0 oli jo Turing korteilla hyvin nopea, esim. 2080 Ti:llä 4K DLSS skaalaus vie Nvidian graafien mukaan 1.5 millisekuntia.
 
Amperessa tuli tuplanopeus per tensor core, jos käytetään harvaa matriisia(sparse matrix, paljon nollia) ja muita arkkitehtuurillisia parannuksia. Toisaalta tensoriytimien määrä väheni ampere geforce korteissa. ga100:ssa on tehokkaammat tensoriytimet kuin geforce malleissa. "fiksumpien" tensoriytimien ansiosta pienemmällä määrällä tensoritytimiä voidaan saada parempi suorituskyky. Tosin tuo vaatii optimointia, kun matriisit joita algoritmit käyttävät eivät välttämättä ole harvoja oletuksena.
 
Huhujen mukaan FSR tuki olisi huomattavasti helpompi lisätä peliin kuin DLSS tuki.

Jos tuo pitää paikkansa niin pelituki voi olla kohtuu hyvä.

Laatu ja nopeus sitten jää nähtäväksi...
 
Huhujen mukaan FSR tuki olisi huomattavasti helpompi lisätä peliin kuin DLSS tuki.

Jos tuo pitää paikkansa niin pelituki voi olla kohtuu hyvä.

Laatu ja nopeus sitten jää nähtäväksi...
Hatusta ennustan, että toimii hyvin peleissä jotka näyttävät aina suttuisilta.
 
AMD:n Scott Herkelmanin mukaan GeForce-shotti julkaistiin vain, jotta voidaan osoittaa homman toimivan valmistajasta riippumatta.
Näyttisvalmistajille (ajureille) riittää kuitenkin ilmeisesti hommia
Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.
 
Hatusta ennustan, että toimii hyvin peleissä jotka näyttävät aina suttuisilta.

Varmasti ihan samalla tavalla sen terävöityksen voi lisätä myös FSR:n kanssa jos on muuten suttuista...

Lopputulos nähdään sitten kun se tuki oikeasti tulee.
 
Huhujen mukaan FSR tuki olisi huomattavasti helpompi lisätä peliin kuin DLSS tuki.

FSR ei kai käytä liikevektoreita eikä edellisiä frameja skaalauksessa. Noita kun ei käytä niin integraatio engineen on helpompi tehdä. Samalla jää myös TAA:n artifaktat tuottamatta. Toisaalta ilman lisädataa on hankala tehdä superresoluutiota. Siihen on syynsä miksi esimerkiksi nvidia(dlss2.0) ja epic(ue5 tsr) ja moni muu peli(cp2077)/engine ovat päätyneet temporaalisiin algoritmeihin niiden huonoista puolista huolimatta(artifaktat).
 
Artifact eli siis suomeksi artefakti. Ei artifakta.
Sorry ot mutta tuollainen artifakta termi ei vaan jotenkin soinnu. Artifakti(t) olisi edes parempi kuin artifakta(t)

Ja asiaan, saa nähdä tuleeko nvidia sitten esittelemään jossain peleissä miten DLSS 2.0 voittaa FSR:n. Voisivat hyvinkin käyttää markkinoinnissa tuollaista vertailua.
 
Viimeksi muokattu:
AMD julkaissut tiiserin tulevasta ammattilaiskortista, ainut kysymys lienee että onko se Navi21 vai joku muu. Radiaalituuletin, suht isokokoinen ja 6 miniDP-ulostuloa

Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.
 

Statistiikka

Viestiketjuista
297 722
Viestejä
5 075 669
Jäsenet
81 362
Uusin jäsen
haarukka

Hinta.fi

Back
Ylös Bottom