Virallinen: NVIDIA vs AMD (vs Intel) keskustelu- ja väittelyketju

  • Keskustelun aloittaja Keskustelun aloittaja Sampsa
  • Aloitettu Aloitettu
Kaikkeen voi toki tulla muutoksia mihin suuntaan tahansa, mutta yhtä todennäköisesti korttien teknisessä toteutuksessa voi olla jotain eroja jo valmiiksi. Jos esim. InfinityCachen käyttö antaisi SAM:lle lisätehoja samalla, joten siksi AMD hyötyisi tuosta enemmän. Jos hyödyt olisivat merkittäviä niin kyllä Nvidia olisi tuen tuonut jo aiemmin kuluttajakortteihin (serveripuolellahan tuota onkin käytetty jo aiemmin käsittääkseni esim. linuxin puolella), mutta ei välttämättä hyödy Nvidian käyttämästä arkkitehtuurista pelikorttien puolella.

Tämän hetken tilanne on kuitenkin se, että käytännössä Nvidian kortilla hyöty jää melkein virhemarginaaliin ja useassa pelissä esim. 1% suorituskyky tippuu huolestuttavan paljon.

Itse ihmettelen eniten ehkä tuota, että tuo nividan whitelistaus tuetuille peleille ei joko tee mitään, tai sitten se vain toimii väärin. Tai ainakin toimii huonosti joissakin peleissä.
 
TechPowerUpin testissä ei havaittu mitään vastaavaa.

HWUnboxedin tulokset heittää jatkuvasti AMD:n suuntaan. Sen näki jo 6800XT testien yhteydessä (Techspot = HWunboxed). Täten ei pitäisi tulla yllätyksenä että tämä AMD:n markkinointiosaston jatke saa aikaiseksi tuloksia jotka saattavat AMD:n kilpailijat huonoon valoon.
 
HW Unboxed vertasi nvidia/amd sam totetusta. Taitaa olla ensimmäinen, jossa AMD on myös on/off asetuksilla mukana.



Tässä oikeastaan olellisimmat slidet:

Vaikka nvidian mukaan resizeable bar on päällä peleissä joissa siitä on hyötyä, niin se laskee silti perffiä osassa peleistä, jotka ei ole whitelistattu. Ero on isoin 1080p resolla ja laskee tasaisesti reson kasvaessa.

1618315710671.png



Testatuissa AMD:n boosti on kovempi, toisaalta omaan silmään tuosta listasta kaikki ei ole tuettu nvidian osalta. Toisaalta ko. featuren ei silloiin kuuluisi tehdä mitään, mutta kuitenkin osa parantaa suorituskykyä, osa tiputtaa.

1618315809530.png


Jälkinmäinen ei nyt ole niin yllättävää, kun voisi olettaa, että AMD mietti ko.featurea jo piiriä suunnitellessaan ja Nvidia toi sen tuen olemassa olevalle piirille.
 
TechPowerUpin testissä ei havaittu mitään vastaavaa.

HWUnboxedin tulokset heittää jatkuvasti AMD:n suuntaan. Sen näki jo 6800XT testien yhteydessä (Techspot = HWunboxed). Täten ei pitäisi tulla yllätyksenä että tämä AMD:n markkinointiosaston jatke saa aikaiseksi tuloksia jotka saattavat AMD:n kilpailijat huonoon valoon.

No saitit kyllä testaa omilla testiskenaarioilla, eikä sisäisillä benchmarkeilla, mutta tuo väitös, että resizeable bar vaikuttaa whitelististä huolimatta luulisi kyllä päätyvän muutaman muunkin testisaitin tarkisteluun. Saivat muut saitit sen Nvidia DX12 cpu bottleneckinkin toistettua, vaikka sen sekään ei käytännössä paljoa vaikuta, kun harva parittaa sellaista rautaa keskenään, jossa se käy ongelmaksi.
 
Eipä tarvinnut kurkata kuin Igors labin testiä, niin whitelistaamaton peli sielläkin tiputti perffiä. On ilmeisesti ollut vähän ongelmia featuren enabloivan bioksen kanssa:

"Updating / reflashing is quite easy, but you have to differentiate a bit more with NVIDIA’s solution, because the result is not quite as clear. The list of supported games is still quite short and if a game is not supported by the driver, the increase is even really negative like in Shadow of the Tomb Raider or you have what you had before! The following table compares this once for three resolutions, whereby I have somewhat set off the unlisted game with the negative exception below. The bars always refer to 100% with rBAR off."

ja:

Update from 02.04.2021 – 19.55

The somewhat conspicuous behavior in SotTR left me no peace and checked everything again on a second system (the test system from the CPU test). NVIDIA has also reacted in the meantime and remeasured. It was interesting that the BIOS .162 for the gaming mode distributed by MSI via the Dragon Center was obviously faulty, since resizeable BAR could not be activated safely as a feature. I have since received the .162 and .174 from HQ as a file and flashed the card back and forth several more times.

Edit: Babeltech sai myös perffitiputuksia nvidialla, enimmäkseen frametimeissä stutteriksi asti, mutta horizon zero dawn oli 7% hitaampi bar päällä.

"The games that show overall the same performance with Resizable BAR on and off are Borderlands 3 (DX11 mode), Cyberpunk 2077 (no RTX), DIRT 5 (no-DXR, and DXR), and Metro Exodus (DX12). On the other hand, although we see significant performance gains in raw performance on Cyberpunk 2077 (RTX) and Watch Dogs Legion (DX12 and DXR), we also see a significant regression in Horizon Zero Dawn. Finally, we find significantly worse frametime consistency in Borderlands 3 (DX12), Godfall (no-DXR, and DXR), Metro Exodus (DXR), and Watch Dogs Legion (DX12). Especially striking are the regressions in Borderlands 3 (DX12 mode) and Godfall, which cause severe stuttering. "
 
Viimeksi muokattu:
TechPowerUpin testissä ei havaittu mitään vastaavaa.

HWUnboxedin tulokset heittää jatkuvasti AMD:n suuntaan. Sen näki jo 6800XT testien yhteydessä (Techspot = HWunboxed). Täten ei pitäisi tulla yllätyksenä että tämä AMD:n markkinointiosaston jatke saa aikaiseksi tuloksia jotka saattavat AMD:n kilpailijat huonoon valoon.
Perustele toki vähän tarkemmin, millä perusteella päädyit tällaiseen johtopäätökseen? Et kai vain pelkän keskimääräisen suorituskyvyn perusteella, mihin vaikuttaa muun muassa pelivalikoima huomattavasti?
Tarkistin nyt ihan vain tylsyyttäni noita tuloksia, valkkasin HWU:n mukaan suht kattavat pelivalikoimat sisältävät PCGH:n, ComputerBasen ja TechPowerUpin verrokeiksi ja katsoin tulokset peleistä, jotka oli useamman kuin yhden sivuston testaamia.

Huom! Eri sivuston testeissä on eri testikokoonpanot ja vaikka peli on sama, voi testiskenaario olla eri.
Esimerkiksi F1 2020:ssa TPU:n tulokset olivat selvästi kovempia kuin yhdelläkään muulla sivustolla vaikka nimellisesti samasta resoluutiosta ja asetuksista olikin kyse (jopa ~50% korkeammat FPS:t TPU:lla vrt PCGH esimerkiksi)

Suurimmat erot olivat Gears 5 ja Assassin's Creed Odyssey tuloksissa, jotka molemmat oli vain HWU:n ja TPU:n testeissä. Gears 5:ssä HWU sai 6800 XT:n eduksi 12 % suuremman eron vrt TPU ja Assassin's Creed Odysseyssä HWU sai 3080:n eduksi 10 % suuremman eron kuin TPU.
Muissa peleissä erot olivat pienempiä, joissain tapauksissa HWU:n 6800 XT vs 3080 erot olivat muita sivustoja isompia AMD:n hyväksi, joissain NVIDIAn hyväksi, eikä nähtävillä mitään selvää trendiä, minkä mukaan HWU:n tulokset suosisivat jotenkin erityisesti AMD:ta, vaan erot tulevat pelivalikoimasta. Pelivalikoiman valitseminen taas on sitten ihan oman maun juttuja joka sivuston toimesta eikä kaiken kattavaa, ns. puolueetonta valikoimaa yksinkertaisesti ole mahdollista toteuttaa testaamatta jok'ikistä peliä jota maa päällään kantaa.


Jälkinmäinen ei nyt ole niin yllättävää, kun voisi olettaa, että AMD mietti ko.featurea jo piiriä suunnitellessaan ja Nvidia toi sen tuen olemassa olevalle piirille.
Tuosta nyt jää täysin huomioitta se, että vanhemmatkin sukupolvet tukevat sitä. AMD:lla ainakin Rx 2xx -sarjasta lähtien, mahdollisesti kaikilla GCN:llä. Benchejä noista tosin ei taida olla.
Ja ainakin osin vastaava ominaisuus on ollut tuettuna ammattilaispuolella jo pidempään molemmilla valmistajilla.
 
Tuosta nyt jää täysin huomioitta se, että vanhemmatkin sukupolvet tukevat sitä. AMD:lla ainakin Rx 2xx -sarjasta lähtien, mahdollisesti kaikilla GCN:llä. Benchejä noista tosin ei taida olla.
Ja ainakin osin vastaava ominaisuus on ollut tuettuna ammattilaispuolella jo pidempään molemmilla valmistajilla.

Joo ja tuki ne tuota featurea linuxilla jo pidemmän aikaa, kun siellä riitti pelkkä 4G decoding. Tuosta tulee vain sellainen perstuntuma, että tuo on noussut ideapöydälle esiin, kun ison navin muistiratkaisua suunniteltiin.

En tiedä johtuuko tuo parempi toimivuus AMD:lla siitä, että se synkkaa hyvin cache/gddr6 yhdistelmän kanssa, vai siitä, että Nvidian muistinpakkaus/hallinta on niin rajusti optimoitua, että tuo feature osin haittaa sen toimintaa.
 
Nyt on ROG Z390-F Gaming emolle bios ulkona josta saa Resizable BAR päälle


siinä sitten mistä laittaa bios sen päälle

pci-sub-rbar.png

Once you have entered the Advanced Mode interface, navigate to the Advanced tab using the arrow keys or mouse, then locate the “PCI Subsystem Settings” submenu. Enter this submenu by clicking on it or hitting “Enter.”

Within the “PCI Subsystem Settings” submenu, change the setting for the “Above 4G Decoding” parameter to “Enabled,” and ensure that the “Re-size BAR Support” parameter is set to “Auto.” Press Esc on your keyboard to return to the Advanced menu, then navigate to the Boot tab using the mouse or arrow keys.

 
Viimeksi muokattu:
Computerbase teki viimein omat resizeable bar testit. Eli pelit jotka on nvidialla tuettuna ajettuna bar on/off asetuksilla sekä amd, että nvidia setillä:

AMD saa edelleen isomman boostin ja resoluution kasvaessa ko. featuren vaikutus alkaa kadota. Silti todella tervetullut lisä tuo on nvidiallekkin, ilmainen suorituskyky on edelleen ilmaista suorituskykyä. Ynnä muutama ajuriversio eteenpäin, niin tilanne on todennäköisesti vähän parempi.


4k.png
2560.png
1920.png


Watchdogs otti todella pahaa framerate osumaa Nvidialla resizeable bar päällä:

"There are big problems on the GeForce RTX 3080 in Watch Dogs: Legion. The average FPS drops by 8 percent. Much more problematic, however, are the percentile FPS, which get 22 percent worse with rBAR. The game gets stuck during the test sequence - unplayable. Resizable BAR must be deactivated manually here. This is unusual in that Nvidia has explicitly whitelisted the title. The problem probably only occurs with certain hardware or software combinations that ComputerBase uses. "

Muita havaintoja oli, että AMD:llä BAR vaikuttaa enemmän frameraten tasaisuuteen.

99fps.png



Ja testin sivulöydöksenä, kun ne ajoi testisetit uusiksi, eivätkä vain kierrättäneet tuloksia. Parissa kuukaudessa AMD on parantanut ajureitaan muutaman prosentin. Yllätyshän tuo ei ole. Uutta rautaa on helppo viilata paremmaksi ja Nvidia tekee ihan samaa työtä. Lähinnä tuo tuo kannattaa muistaa ison rautamäärän testejä lukiessa, eli tarkistaa onko tulokset kierrätettyä, vai onko ajettu oikeasti kaikki uusiksi.

ajurit.png
 
Computerbase teki viimein omat resizeable bar testit. Eli pelit jotka on nvidialla tuettuna ajettuna bar on/off asetuksilla sekä amd, että nvidia setillä:

AMD saa edelleen isomman boostin ja resoluution kasvaessa ko. featuren vaikutus alkaa kadota. Silti todella tervetullut lisä tuo on nvidiallekkin, ilmainen suorituskyky on edelleen ilmaista suorituskykyä. Ynnä muutama ajuriversio eteenpäin, niin tilanne on todennäköisesti vähän parempi.


4k.png
2560.png
1920.png


Watchdogs otti todella pahaa framerate osumaa Nvidialla resizeable bar päällä:

"There are big problems on the GeForce RTX 3080 in Watch Dogs: Legion. The average FPS drops by 8 percent. Much more problematic, however, are the percentile FPS, which get 22 percent worse with rBAR. The game gets stuck during the test sequence - unplayable. Resizable BAR must be deactivated manually here. This is unusual in that Nvidia has explicitly whitelisted the title. The problem probably only occurs with certain hardware or software combinations that ComputerBase uses. "

Muita havaintoja oli, että AMD:llä BAR vaikuttaa enemmän frameraten tasaisuuteen.

99fps.png



Ja testin sivulöydöksenä, kun ne ajoi testisetit uusiksi, eivätkä vain kierrättäneet tuloksia. Parissa kuukaudessa AMD on parantanut ajureitaan muutaman prosentin. Yllätyshän tuo ei ole. Uutta rautaa on helppo viilata paremmaksi ja Nvidia tekee ihan samaa työtä. Lähinnä tuo tuo kannattaa muistaa ison rautamäärän testejä lukiessa, eli tarkistaa onko tulokset kierrätettyä, vai onko ajettu oikeasti kaikki uusiksi.

ajurit.png

Tää viimeinen pointti oli todella hyvä. Tälläkin palstalla tuijotellaan usein "vanhojen korttien" osalta benchmarkkeja, jotka on tehty joskus silloin. Keskustelu menee syystäkin ristiin, ja leimaavaksi.
 
Omakohtainen kokemus nVidian (NVENC Gen. 6) ja AMD:n (VCN 4.1) välillä, ts. Turing vs. Navi 21.

Tätä foorumia lukiessa saa aika ruusuisen kuvan enkooderien välisistä eroista. Tiesin jo ennakkoon, että AMD:n enkooderit on nVidian vastaavia heikompia, mutta en ajatellut sen haittaavan, koska tarkoituksena oli
käyttää häviötöntä 10-bit HEVC:ä väliformaattina. Tuollaisessa skenaariossa enkooderin mahdollinen laatu vaikuttaa ainoastaan videon viemään tilaan, ei sen kuvanlaatuun.

Ensimmäisenä selvisi se, ettei 10-bit HEVC enkoodauksen tukea ole lisätty vielä mihinkään, lukuunottamatta AMD:n omaa koodisamplea. Esimerkiksi FFmpeg, joka kyllä tukee AMF:ää ja josta AMD itse toimittaa Gitissä binäärit / kirjastot, ei edelleenkään sisällä muuta kuin 8-bit tuen.
Tämä siis siitäkin huolimatta, että Main10 enkoodausta tukevaa rautaa (Navi 10) on pistetty pihalle vuoden 2019 heinäkuussa...

Lisäksi tietystikään sen paremmin sitä häviötöntä pakkausta jota olisin tarvinnut, B-frameja tai yli 4096x2176 resoluutioita ei myöskään tueta...

Normaalisti voisin syyttää itseäni, siitä etten tarkistanut näitä itsestäänselvyyksinä pidettyjä juttuja, mutta AMD:n kohdalla oikeastaan mitään näistä ei ole dokumentoitu mitenkään julkisesti ja VCN speksejä saa kaivamalla kaivaa.
Lisäksi tietysti harvalle tulee mieleen odottaa ns. perusasioiden puuttuvan, kun kilpailijalla kyseiset ominaisuudet on pääasiassa olleet saatavilla 2016 kesästä lähtien.

Pitää katsella joku Turingiin pohjautuva low-profile kortti puhtaaksi enkooderiksi, jahka näidenkin hinnat laskee edes etäisesti järkevälle tasolle.
Paitsi tietysti jos 3080 tai 3080 Ti sattuu jostain irtoamaan, niin silloin tulee Radeonille nopea lähtö.
 
Näkisin syynä AMD:n rajatummat resurssit näytönohjainten kehityksessä. AMD:n pääluku on 11000 työntekijää, Nvidialla 18000. AMD:n näytönohjain bisnes on murto-osa sen ydinliiketoiminasta. NV on taas 100% näytönohjain/laskentaakiihdytin firma. AMD todennäköisesti keskittyy tarjoamaan ensijaisesti kaikista yleisimmät ominaisuudet ja vähemmän käytetyt ominaisuudet jäävät sivuun tai toteutaan puolivillaisesti.
 
AMD:n vastine DLSS:lle, missäs sen kanssa mennäänkään?

Arvon tässä ostaako kylmänviileästi 6700/6800 vai jäädäkö odottelemaan tilattua 3080:sta.
 
AMD:n vastine DLSS:lle, missäs sen kanssa mennäänkään?

Arvon tässä ostaako kylmänviileästi 6700/6800 vai jäädäkö odottelemaan tilattua 3080:sta.
Tulee tänä vuonna, yksi huhupaja taisi hiljattain sanoa että jo ensi kuussa tulisi mutta huhupajat on huhupajoja.
 
Tulee tänä vuonna, yksi huhupaja taisi hiljattain sanoa että jo ensi kuussa tulisi mutta huhupajat on huhupajoja.

Se huhupaja oli coreteks, joka on ei todellakaan ole luotettavimmasta päästä. Eli ei todellakaan kannata pidää hengitystään ensikuun julkaisua odotellen.
 
Jos vielä joku kuukausi tai 2 sitten niillä ei ollut edes päätetty miten tuo toteutetaan niin tuskin on ihan heti tulossa.
 
Arvon tässä ostaako kylmänviileästi 6700/6800 vai jäädäkö odottelemaan tilattua 3080:sta.

En valitsisi korttia kovin vahvasti DLSS / ''AMD:n vastine'' -mielessä, vaan parasta mitä rahalla saa (=löytää nykytilanteessa) natiivi-kuvanlaadun suorituskyvyllä. Nvidian DLSS ei ole tulossa läheskään kaikkiin uusiin julkaisuihin, ja AMD:n vastine voi olla about mitä tahansa maan ja tech-taivaan väliltä. DLSS voi toki laskea plussaksi, koska ei siitä nyt haittaakaan ole. Potentiaalinen plussa jota AMD:lta ei toistaiseksi löydy.
 
Viimeksi muokattu:
En valitsisi korttia kovin vahvasti DLSS / ''AMD:n vastine'' -mielessä, vaan parasta mitä rahalla saa (=löytää nykytilanteessa) natiivi-kuvanlaadun suorituskyvyllä. Nvidian DLSS ei ole tulossa läheskään kaikkiin uusiin julkaisuihin, ja AMD:n vastine voi olla about mitä tahansa maan ja tech-taivaan väliltä. DLSS voi toki laskea plussaksi, koska ei siitä nyt haittaakaan ole. Potentiaalinen plussa jota AMD:lta ei toistaiseksi löydy.
Natiivi dlss tuki on tulossa ainakin unity enginelle, tiedä sitten millainen amd:n vastine = natiivikuvan sössimistekniikka tulee olemaan.
 
Natiivi dlss tuki on tulossa ainakin unity enginelle, tiedä sitten millainen amd:n vastine = natiivikuvan sössimistekniikka tulee olemaan.

Jep, DLSS on ilmeisesti laajenemassa ihan kohtuullisen hyvin, ja RT ON -peleissä se tuo varmaan lisäarvoa, jos perinteinen teho ei riitä. Itse en ole vielä RTX 2080 -kortilla törmännyt yhteenkään DLSS -peliin, joten en pysty sanomaan minkälaista kuvaa se pelatessa tuottaa. Kuvista ei voi päätellä liikoja, ja tech- sekä käyttäjäarviot on ristiriitaisia.
 
Jep, DLSS on ilmeisesti laajenemassa ihan kohtuullisen hyvin, ja RT ON -peleissä se tuo varmaan lisäarvoa, jos perinteinen teho ei riitä. Itse en ole vielä RTX 2080 -kortilla törmännyt yhteenkään DLSS -peliin, joten en pysty sanomaan minkälaista kuvaa se pelatessa tuottaa. Kuvista ei voi päätellä liikoja, ja tech- sekä käyttäjäarviot on ristiriitaisia.
Ongelma ei mun silmissä ole dlss-kuvan laatu, vaan se, että sitä tukevia pelejä on kovin rajallinen määrä. Ja ilman raytracingiä, dlss tarve ei ole kovin suuri, ainakaan huippukorteilla. Dlss on parasta tehottomille korteille, ja sen myötä Ampere-omistajat saavat pidemmän elinkaaren näyttikselle.

Edit: piti kirjoittaa Turing, mutta sama koskee myös tätä uutta polvea toki
 
Viimeksi muokattu:
Ja ilman raytracingiä, dlss tarve ei ole kovin suuri, ainakaan huippukorteilla.

Totta, suurin lisähyöty taitaa tulla RT ON -peleissä, jotka laittaa nykyiset tehokortitkin koville. Sinne Nvidian kannattaisi se tuki kohdentaa, ja niin on tainnut pitkälti tehdäkkin.

Dlss on parasta tehottomille korteille, ja sen myötä Ampere-omistajat saavat pidemmän elinkaaren näyttikselle.

Joo periaatteessa DLSS pystyisi joidenkin pelien osalta lisäämään kortin elinkaarta huomattavasti. Jopa näiden Turinkien. Nvidia laittoi näihin 2000-sarjalaisiin ihan hyvin DLSS ON -suorituskykyä, eikä erot esim. RTX 2080 vs 3060ti ole kovin isot.
 
Nyt voidaan ehkä oikeastikin puhua kuvanhuononnustekniikasta: AMD Formally Unveils FidelityFX Super Resolution: Open Source Game Upscaling

Pilari ja käytävän tiilet ovat kuin olisi rillit unohtunut kotiin.

DLSS 0.5?

Vaikuttaa kyllä oikeasti DLSS 1.0:lle toteutustavaltaan ja laadultaan. Eli ihan oikeaa kuvanhuononnusta, mutta kyllä jotkut sitäkin puolustivat parhaana juttuna ikinä. Ehkä mielenkiintoisinta tuossa on pärjääkö se perusskaalaukselle ja terävöitykselle, DLSS 1.0 otti siltäkin turpiin, kun AI prosessointi kesti niin kauan, joten resoluutiota piti tiputtaa vielä enemmän, jotta päästiin nopeudessa isomman resoluution perusskaalauksen tasolle.
 
"Oho, NVIDIA oikeasti tekee jotain niillä tensor coreilla ja yllättäen ilman niitä AMDn on vaikea tehdä vastaavaa featurea joka pärjäisi kuvanlaadussa"

:eek:
 
"NVidia tekee vaan softajuttuja mitkä voisi ihan hyvin pyöriä CU:illakin"
 
Otti se nVidiallakin 14kk saada homma toimimaan niin hyvin kuin se nykyään toimii (1.0 julkaistiin helmikuussa 2019 ja 2.0 toinen iteraatio huhtikuussa 2020). Eli ootellaan ihan rauhassa. Ei oo tarvinnu tähänkään päivään mennessä DLSS:ää omassa koneessa käytellä (kun ei ole yhteensopivaa rautaa) niin sama katella tämäkin ihan rauhassa.
 
Vaikuttaa kyllä siltä, että nyt on MVP tehty, toivottavasti jatkavat kehitystä ja se liike vektoridatan huomioiva yms. olisi siellä putkessa myös, ei tuolla blurrin määrällä nVidian teknologiaa vastaan kilpailla kyllä yhtään.
 
Positiivisesti ajatellen, täältä löytyy vielä tuommoinen 1060-näyttis johon jutussa demottiin väkisin revittyä fps:ää.
Voi olla että tekniikka sopisi esim. lasten satunnaiseen käyttöön ja auttaa pidentämään vähän laitepäivitysten väliä.
Ainakaan nuoremmasta päästä lapset ei ehkä ole niin tarkkoja laadusta kunhan joku tietty peli vaan pyörii nykimättä. Niitäkin koneita ja käyttäjiä voi olla aika monta.
 
No ei se dlss tarkkuuskaan 1440p ja alle resoilla mitenkään täydellistä ole, joten jo pelkästään se että suorituskykyä tulee tarvittaessa reippaasti lisää on erinomainen juttu. Ihan jo senkin takia, että esim. läppäreilläkin voi harkita 1440p resoilla olevia näyttöjä pelikäyttöönkin. Myöskin noi M näyttikset mobiilipuolelle vaikuttivat hyviltä kun 6800M suorituskyky oli esim. D2D testeissä 3080 mobiilinäyttiksen kanssa samoissa 500e halvemmalla hinnalla (ja vielä bulkki vs. brändilisä päälle).
 
Tuosta alkaa AMD esitys, jossa on enemmän materiaalia Super Resulutionista:

Edit: Sumeat tiilit-kuva oli GTX1060:lla ja toiseksi parhaalla laadulla. Näyttäisi minusta siltä että AMD yrittää tehdä FreeSyncit ja ajaa DLSS:n tuen tarpeettomaksi. Saa nähdä onnistuuko. Esityksen perusteella ultra quality voi olla käyttökelpoinen tila ja saada AMD:n näyttikset jollakin tasolla mielekkäiksi säteenseurantaa käyttäviin peleihin.
 
Viimeksi muokattu:
No ei se dlss tarkkuuskaan 1440p ja alle resoilla mitenkään täydellistä ole, joten jo pelkästään se että suorituskykyä tulee tarvittaessa reippaasti lisää on erinomainen juttu. Ihan jo senkin takia, että esim. läppäreilläkin voi harkita 1440p resoilla olevia näyttöjä pelikäyttöönkin. Myöskin noi M näyttikset mobiilipuolelle vaikuttivat hyviltä kun 6800M suorituskyky oli esim. D2D testeissä 3080 mobiilinäyttiksen kanssa samoissa 500e halvemmalla hinnalla (ja vielä bulkki vs. brändilisä päälle).

Tuo esimerkkikuva oli toiseksi parhaalta laatutasolta, eli vertailukohta olisi kai dlss balanced. Silti aika suttua tuossa kuvassa oli tarjolla. Ei nyt alustavasti vakuuta, toisaalta godfallissa on motionblurrit sun muut hässäkät muutenkin "parantamassa" ruutukaapausten laatua. Odotukset ei nyt ole silti kovin korkealla.
 
Tuo esimerkkikuva oli toiseksi parhaalta laatutasolta, eli vertailukohta olisi kai dlss balanced.

Niin? Dlss on quality ja 4k resolla jees. Quality ja 1440p niin kuva jo kärsii selvästi. Tässä nyt voi myös ajatella niin että nvidialla kesti 18kk päästä dlss 1.0:sta tähän nykyiseen, joten olen itse lähinnä iloisesti yllättynyt että tämä tulee jo kesäkuun 22. vaikka tuki peleillä vaaditaankin erikseen. Ilman tekniikkaa ei ole tukeakaan ja ilman tukea ja tekniikkaa se ei myöskään kehity.

Tekniikan laatua varmasti käydään sitä tukevissa peleissä lävitse ja mielenkiinnolla odotan miten vertautuu esim. Dlss:ään sekä pyörimisessä että kuvanlaadullisesti. Myös sekä RT efekteillä että ilman. Laadullisen tappion odotan toki tässä vaiheessa olevan vielä kohtuullisen selvä, mutta ei se itseäni tässä vaiheessa haittaa.
 
Tässä nyt voi myös ajatella niin että nvidialla kesti 18kk päästä dlss 1.0:sta tähän nykyiseen

Otti se nVidiallakin 14kk saada homma toimimaan niin hyvin kuin se nykyään toimii (1.0 julkaistiin helmikuussa 2019 ja 2.0 toinen iteraatio huhtikuussa 2020).
Taitaa olla faktat vähän hukassa nyt. Ensimmäinen DLSS 2.0 peli julkaistiin joulukuussa 2019. Ensimmäinen DLSS 1.0 peli joskus alkuvuodesta 2019.

"Oho, NVIDIA oikeasti tekee jotain niillä tensor coreilla ja yllättäen ilman niitä AMDn on vaikea tehdä vastaavaa featurea joka pärjäisi kuvanlaadussa"

:eek:
Unreal Enginen Gen 5 TAA eli Temporal Super Resolution pääsee itseasiassa aika lähelle DLSS:n laatua ilman tensoreitakin. UE 4.26:ssa DLSS:n ja TSR:n välistä vertailua on helppo tehdä, kun siitä löytyy molemmat. TSR hieman epästabiilimpi mikä näkyy myös liikkeessä, mutta kuvan yksityiskohdat se säilyttää helvetin paljon paremmin kuin vanha TAAU.

Jos AMD:n ratkaisu olisi tuon TSR:n tasoinen niin ei todellakaan huono.
 
Niin? Dlss on quality ja 4k resolla jees. Quality ja 1440p niin kuva jo kärsii selvästi. Tässä nyt voi myös ajatella niin että nvidialla kesti 18kk päästä dlss 1.0:sta tähän nykyiseen, joten olen itse lähinnä iloisesti yllättynyt että tämä tulee jo kesäkuun 22. vaikka tuki peleillä vaaditaankin erikseen. Ilman tekniikkaa ei ole tukeakaan ja ilman tukea ja tekniikkaa se ei myöskään kehity.

Ainahan reson tippuessa nuo skaalaukset ottaa osumaa, kun lähdemateriaalin laatu huononee. DLSS 1.0 oli kyllä kuraa, 1.9 joka pyöri ilman tensoreita oli jo lupaava esitys. Nyt 2.0:n myötä peleissä alkaa olla mahdollisuus säätää terävöityksen tasoa, niin ei siinä enää kauheasti kritisoitavaa ole. Artefakteja tulee toki aina kaikissa skaalauksissa, mutta edut painaa jo haittoja enemmän.

Tuo AMD:n skaalauksen etu on se, että se toimii vähän kaikkialla ja konsoleissakin. Eli on hyvä sauma yleistyä, mutta vähän kyllä jännittää miten se pärjää ihan perusskaalauksella ja terävöitykselle. Tuon universaalin ratkaisun takia sen toivoisi olevan hyvä, pelit kuitenkin tehdään nykyään myös konsolit mielessä, tai pahimmillaan päähaara konsoleilla sitten se pc porttaus erikseen.
 
Nöyp Deep learning super sampling - Wikipedia

2.0 (second iteration)April 2020Second 2.0 version, using Tensor Cores again and trained generically
Wikipedia on väärässä. Markkinointihypetys käynnistyi ehkä huhtikuussa.

Deliver us the moon sai DLSS 2.0 tuen joulukuussa 2019 ja Wolfenstein Youngblood tammikuussa 2020.

Mulla on tallessa Youngbloodin alkuperäinen nvngx_dlss.dll. Versionumero on 2.0.0.0 ja Nvidian digital signaturen päiväys 12.12.2019.
 
  • Tykkää
Reactions: aop
Nyt se alkaa taas :rofl2:

"Puolustusasemiin, toverit!"
Älä viitsi. Ei mitään teknologiaa voi arvostella yhden tapauksen perusteella. Vähän sana kuin tunkisit kuorellisen kananmunan mikroaaltouuniin ja kun se räjähtää väittäisit laitetta käyttökelvottomaksi ruuan lämmitykseen.

Itse katselen laajemmat tulokset kun ne ovat saatavilla ja teen vasta niiden pohjalta johtopäätökseni
 
Wikipedia on väärässä. Markkinointihypetys käynnistyi ehkä huhtikuussa.

Deliver us the moon sai DLSS 2.0 tuen joulukuussa 2019 ja Wolfenstein Youngblood tammikuussa 2020.

Mulla on tallessa Youngbloodin alkuperäinen nvngx_dlss.dll. Versionumero on 2.0.0.0 ja Nvidian digital signaturen päiväys 12.12.2019.

Yllättävän aikasin. Techspot teki sen ekan DLSS 2.0 artikkelin ja siitä tälläkin foorumilla alkoi DLSS 2.0 hypetys. Se on 26.2 2020 päiväyksellä.
 
Puhutaanko nyt siitä ensimmäisestä 2.0 iteraatiosta joka ei käyttänyt tensor coreja, vai siitä toisesta versiosta?
 
Yllättävän aikasin. Techspot teki sen ekan DLSS 2.0 artikkelin ja siitä tälläkin foorumilla alkoi DLSS 2.0 hypetys. Se on 26.2 2020 päiväyksellä.
Tuota ei ihan alkuun mitenkään mainostettu DLSS 2.0 nimellä, vaan pelit julkaistiin uudella versiolla kaikessa hiljaisuudessa.

DF syynäsi Wolfensteinin DLSS toteutusta 15.1.2020 julkaistussa videossa:



Puhutaanko nyt siitä ensimmäisestä 2.0 iteraatiosta joka ei käyttänyt tensor coreja, vai siitä toisesta versiosta?
Kaikki 2.0 versiot käyttävät tensoreita.

Control on ainoa peli joka käytti tensoreita hyödyntämätöntä versiota (ennenkuin se päivitettiin käytämään 2.0:aa). Alkuperäinen versionumero oli 1.3.8.0, HUB kutsui sitä 1.9:ksi.
 
Katsoinko punaisten lasien läpi vai onko minulla liikaa hajataittoa, kun tuo ultra quality näytti ihan hyvältä ja toi melko huiman 60% suorituskykyä? Tokihan noi huonommat asetukset oli jo oikeasti perunoita.
 
Tässä on muuten raudan testaajille varsin mielenkiintoinen dilemma:
Tällä hetkellä pelit testataan pääsääntöisesti säteenseuranta pois päältä ja säteenseuranta päällä tulokset ovat pienessä osassa erikseen jossain artikkelin lopussa. Nyt on kuitenkin jo pihalla konsolipelejä, joissa säteenseuranta on vakiona päällä. Testataanko nämä pelit vastaisuudessa tätä vanhaa standardia noudattaen säteenseuranta pois päältä, eli toisinsanoen konsoleita huonommilla kuvanlaatuasetuksilla? Vai testataanko nämä säteenseuranta päällä ja vain PC:lla säteenseurantaa tukevat sitten säteenseuranta pois päältä? Vai olisiko jo aika kytkeä säteenseuranta päälle kaikissa testatuissa peleissä ja jättää ne ilman säteenseurantaa olevat tulokset sinne artikkelin loppuun pikkuosioon? Kohta on uusien pelien kanssa tilanne se, että suurin osa julkaistuista AAA-peleistä tukee säteenseurantaa ja yhä useammassa se on defaulttina päällä niin PC:llä, kuin konsoleilla.

@Sampsa
 
Tässä on muuten raudan testaajille varsin mielenkiintoinen dilemma:
Tällä hetkellä pelit testataan pääsääntöisesti säteenseuranta pois päältä ja säteenseuranta päällä tulokset ovat pienessä osassa erikseen jossain artikkelin lopussa. Nyt on kuitenkin jo pihalla konsolipelejä, joissa säteenseuranta on vakiona päällä. Testataanko nämä pelit vastaisuudessa tätä vanhaa standardia noudattaen säteenseuranta pois päältä, eli toisinsanoen konsoleita huonommilla kuvanlaatuasetuksilla? Vai testataanko nämä säteenseuranta päällä ja vain PC:lla säteenseurantaa tukevat sitten säteenseuranta pois päältä? Vai olisiko jo aika kytkeä säteenseuranta päälle kaikissa testatuissa peleissä ja jättää ne ilman säteenseurantaa olevat tulokset sinne artikkelin loppuun pikkuosioon? Kohta on uusien pelien kanssa tilanne se, että suurin osa julkaistuista AAA-peleistä tukee säteenseurantaa ja yhä useammassa se on defaulttina päällä niin PC:llä, kuin konsoleilla.

@Sampsa
Pc:llä saa yleensä säädettyä niin montaa muutakin grafiikka-asetusta, että en suoraan allekirjoittaisi väitettä rt off = huonompi kuvanlaatu kuin konsoleissa
 

Statistiikka

Viestiketjuista
259 355
Viestejä
4 505 324
Jäsenet
74 386
Uusin jäsen
Juize

Hinta.fi

Back
Ylös Bottom