Virallinen: NVIDIA vs AMD (vs Intel) keskustelu- ja väittelyketju

Liittynyt
21.06.2017
Viestejä
4 707

Näyttää siltä että vaikka Amd ei virallisesti tue nvidia 900 sarjaa toimii Fsr siinäkin joku käytti jopa gt 710 kanssa sitä :D

Joten potentiaaliset pelaajat on todella paljon enemmän(Ja uudemmat konsolitkin tukevat sitä) kuin Nvidian Dlss.
Eiköhän toi toimi aika pitkälti kaikella rautalla jos kerta haswell IGP:lla pyörii.
 
Liittynyt
20.10.2016
Viestejä
2 827
Jo edellä mainittujen seikkojen lisäksi: mites fps käyttäytyy näissä eri skenarioissa?
KitGuru testaili myös tuota unrealin omaa skaalausta vs FSR. Tiivistelmänä:
- Matalilla resoilla unreal tekee parempaa jälkeä, kun temporal tekniikan takia se saa enemmän dataa ja siten tarkemman ja yksityiskohtaisemman kuvan.
- Unrealin ratkaisu tuottaa (ainakin godfallissa ja 67% / 77% skaalauksella) enemmän shimmeriä, mutta on aavistuksen tarkempi, mitä FSR. Kitguru rankkasi FSR:n paremmaksi shimmerin vähyyden takia. Performance tilaa ei testattu vastaavaa unrealin moodia vastaan, mutta siinä temporal ratkaisu menee jo reilusti ohi, kun lähdemateriaalia on paljon vähemmän spatialin käytössä.
- Unrealin ratkaisu on aavistuksen hitaampi.

Tuossa FSR Ultra Quality ja UE 77% on hyvin lähellä toisaan kuvanlaadussa, kuten ultra ja 67%. Tietty noilla tuloksilla ja laatueroilla, unreal peleissä kannattaisi käyttää unrealin omaa skaalausta, kun se on jo enginessä ja se tekee parempaa jälkeä 1080p monitorien omistajille ja erot tasottuu vasta isommilla resoilla.

unreal.png
 
Liittynyt
13.12.2016
Viestejä
2 982
Tuhnuhan se FSR on, niinkin arvata saattoi. Saa juu perffiä lisää, mutta kuvaa paskoo aika pahasti. Verrattavissa melkein DLSS 1.0 n julkasuun. Mutta nyt se kuvan paskominen onkin ihmeellisesti monesta ok, kun AMD:n propierity free tekniikka... :hmm:
 
Liittynyt
09.11.2018
Viestejä
955
Jos luit/katsoit niitä arvioita niin en heti keksi miten sait kuvanlaadun paskomisen ja dlss 1.0 öljykuvan liitettyä FSR:n isommille laatuasetuksille.

Tietty jos usko on kova, niin kait sitä saa itselleen seliteltyä mitä tahansa kun valitsee esimerkit sopivasti.

FSR on tervetullut kaikille pelaajille (iGPU porukasta lähtien) koska laatu on korkeilla asetuksilla riittävää ja kukin saa käyttää tai olla käyttämättä sitä asetusta mitä haluaa.

Jo pelkästään se, että ominaisuus on tuettuna niin monella GPU:lla muuttaa tämän tekniikan tukemisen paljon tärkeämmäksi kuin dlss:n konsanaan.

Toivottavasti tekee avoimuudellaan sen, että fsr olisi tuettuna lähes kaikissa tulevissa peleissä (Intel varmasti painostaa myös tähän jos heiltä kysytään).

Ja mitä noin muuten kyseiseen skaalaimeen tulee, niin yhtälailla se on versiota 1.0 joten ensimmäiseksi versioksi en oikein moitittavaa keksi (kuin ne selkeämmät, eli pelituen puute ja alhaisten resojen suttuisempi kuva).
 
Viimeksi muokattu:
Liittynyt
01.12.2016
Viestejä
1 005
Mun mielestä on ihan turha väittää, että FSR on turhake. Konsensus tech pressissä on vahvasti positiivinen.

Omasta mielestäni tärkein käyttökohde on 4k60 ray tracing. Se tiedetään jo, että ultra quality on 4k:lla enimmäkseen laadultaan hyvä. Ja että FSR parantaa frame ratea ko. asetuksilla ihan merkittävästi. Tulevat pelit sitten näyttää, että mikä on laatu-hitti nimenomaan ray tracingissa ja paljonko vahvasti ray tracingia käyttävissä peleissä tulee perffiä lisää.
 
Liittynyt
21.06.2017
Viestejä
4 707
Tuhnuhan se FSR on, niinkin arvata saattoi. Saa juu perffiä lisää, mutta kuvaa paskoo aika pahasti. Verrattavissa melkein DLSS 1.0 n julkasuun. Mutta nyt se kuvan paskominen onkin ihmeellisesti monesta ok, kun AMD:n propierity free tekniikka... :hmm:
Kyllä se on täysin ok että peliin lisätään fyytsöreitä joita KAIKKI voi käyttää. Se ei ole ok että peliin lisätään fyytsöreitä joita VAIN tiettyyjen "premium" korttien omistajat voivat käyttää. Varsinkin kun ei ole mitään syytä että DLSS on VAIN tiettyjen "premium" korttien ominaisuus, muu kuin nvidian ahneus.

Se on sitten jokaisen itsensä valittavissa että haluaako kyseisiä kuvanpaskontatekniikoita käyttää, mutta jos tuolla nyt esim. oma Vega 56 saa elinvuosia lisää niin en valita. Nyt on varsin huono aika päivittää näytönohjainta koska hinnat ja se fakta että RT kehittyy huimalla vauhdilla, ollen ehkä parin kolmen vuoden päästä jo siinä pisteessä että sillä jotain tekeekin.
 
Liittynyt
17.10.2016
Viestejä
1 388
Onhan tämä vähän hauska tilanne, että kilpaileva firma tuo tälle meikäläisen GTX 1660 Superille DLSS kilpailijan kun tuo itse valmistaja niin kiinnostunut ole tuomaan ominaisuuksia asiakkailleen. :hmm: On se jännää.
 
Liittynyt
08.08.2019
Viestejä
1 113
Voit ite toki hakea lisää esimerkkejä, mutta mistään hypevideoista ei ole kyse ellet tarkoituksellisesti jätä huomioimatta sitä mikä ei sovi siihen narratiiviin mitä haluat DF:sta luoda.
No kyllä se hypevideo oli, kun suunnilleen kaikki muut tech-mediat kritisoi DLSS 1.0 kuvanlaatua, ja syystäkin. Katso nyt itse nuo FF erot TAA vs DLSS 1.0, TAA selvästi tarkempi ja DLSS epätarkempi..

Mut aika perus Radeon-tavaraa tämäkin, ollaan vuosia myöhässä oman Nvidia killerfeature-kloonin kanssa, tehdään siitä tarjoustalo-versio (FreeSync, FSR) joka toki tekee jotain mutta ei ole verrattavissa premiumratkaisuihin (G-sync, DLSS), ja toivotaan että omat asiakkaat ei huomaa eroa.
Nvidian ongelma noissa on suljetut ratkaisut, jotka ei palvele lopulta kuluttajia parhaalla mahdollisella tavalla. Mites G-sync vs Adaptive sync taistossa kävi? Vilkaiseppa uusia pelimonitoreita, ja laske monessako ei ole Adaptive syncciä. Tai monessako G-sync -moduulillisessa näytössä ei ole jäätävästi ylihintaa. DLSS tuki on vuosien aikana jäänyt lopulta turhan pieneksi, ja jos AMD:n DSR pystyy kasvattamaan tukeaan paremmin, niin DSR:ssä on isosti potentiaalia. Kuvanlaatuun en ole vielä 100% tutustunut, katsotaan ja vertaillaan kun kerkeää. Ilmeisesti ei aivan surkeaa ultralla, eli potentiaalia on, aivan kuten oli aikanaan DLSS 1.0 :kin.
 

knz0

300 yard drive
Tukijäsen
Liittynyt
02.11.2016
Viestejä
904
No kyllä se hypevideo oli, kun suunnilleen kaikki muut tech-mediat kritisoi DLSS 1.0 kuvanlaatua, ja syystäkin. Katso nyt itse nuo FF erot TAA vs DLSS 1.0, TAA selvästi tarkempi ja DLSS epätarkempi..
Mun mielestä DF:n analyysi meni nappiin. DLSS on tuota natiivi+TAA:ta suurimmaksi osin parempi. Kumpikaan ei ole täydellinen, mutta DLSS hoitaa esim. Noctiksen hiukset huomattavasti paremmin, ja FF15:n kaltaisessa third-person JRPG:ssä joudut tuijottamaan sitä lettiä koko pelin ajan. Kertooko se sitten tuon pelin TAA:n huonoudesta vai siitä että DLSS 1.0 toimi tuossa pelissä poikkeuksellisen hyvin on sitten eri asia. Totuus lienee jossain niiden välillä.

Nvidian ongelma noissa on suljetut ratkaisut, jotka ei palvele lopulta kuluttajia parhaalla mahdollisella tavalla. Mites G-sync vs Adaptive sync taistossa kävi? Vilkaiseppa uusia pelimonitoreita, ja laske monessako ei ole Adaptive syncciä. Tai monessako G-sync -moduulillisessa näytössä ei ole jäätävästi ylihintaa. DLSS tuki on vuosien aikana jäänyt lopulta turhan pieneksi, ja jos AMD:n DSR pystyy kasvattamaan tukeaan paremmin, niin DSR:ssä on isosti potentiaalia. Kuvanlaatuun en ole vielä 100% tutustunut, katsotaan ja vertaillaan kun kerkeää. Ilmeisesti ei aivan surkeaa ultralla, eli potentiaalia on, aivan kuten oli aikanaan DLSS 1.0 :kin.
Nvidiahan päätti mennä omalla scalerilla juuri siitä syystä että markkinoilla olleiden scalereiden laatu oli vuonna 2014-2016 G-Syncin läpilyönnin aikana täysin umpisurkea. FreeSync näyttöjen laadunvaihtelu oli vuosikaudet aivan valtavaa. Se että Nvidia lähti sertifioimaan oikeasti toimivia (eli ei flikkeröintiä, kunnon refresh rate ranget, se että se on käytössä out-of-the-box ilman säätöjä, ei kuvan repeilyä) adaptive-sync ratkaisuita G-Sync compatibleksi on paras juttu mitä pelimonitorimarkkinoilla on tapahtunut pitkään aikaan. Siitä hyötyivät myös AMD-käyttäjät, koska samaiset näytöt toimivat yhtä hyvin Radeon-korteilla.
 
Liittynyt
08.08.2019
Viestejä
1 113
Nvidiahan päätti mennä omalla scalerilla juuri siitä syystä että markkinoilla olleiden scalereiden laatu oli vuonna 2014-2016 G-Syncin läpilyönnin aikana täysin umpisurkea.
Nvidia olisi voinut tuoda jo tuolloin avoimeen ratkaisuun perustuvan VRR-ratkaisun, tai sitten lähteä tukemaan tuota Adaptive Synciä, mutta sen sijaan se päätti tehdä jälleen suljetun ominaisuuden, jolla se sai varmasti kivasti rahastettua kun sai siivun G-sync -näyttöjen myynnistä. Paras vitsi oli ne G-sync moduulin näytöt, jotka vaati tuulettimen, ja taitaa niitä vieläkin olla myynnissä.

FreeSync näyttöjen laadunvaihtelu oli vuosikaudet aivan valtavaa. Se että Nvidia lähti sertifioimaan oikeasti toimivia (eli ei flikkeröintiä, kunnon refresh rate ranget, se että se on käytössä out-of-the-box ilman säätöjä, ei kuvan repeilyä) adaptive-sync ratkaisuita G-Sync compatibleksi on paras juttu mitä pelimonitorimarkkinoilla on tapahtunut pitkään aikaan.
Tuolta on löytynyt jo pitkään mm. flicker free -sertifikaateilla varustettuja adaptive sync näyttöjä, josta löytyy kunnon refresh ratet yms. Jollekkin pelimassoista marginaaliselle ryhmälle jotka satsaa valtavasti rautaan, tuo G-sync on voinut olla hyvä juttu, niissä +144hz -näytöissä. Valtaosalle pelaajista ei, koska suurin osa ei käytä mitään 240hz -näyttöjä. Se että Adaptive sync / Freesync yleistyi lopulta, on parasta mitä pelimonitorimarkkinoille on pitkään aikaan tapahtunut, ja tuosta ei ansio mene Nvidialle, vaan päinvastoin, pitkään yrittivät ajaa omaa G-synciään, eivätkä edes sallineet Adaptive Synciä omille asiakkailleen.

Se Nvidian tarkoitus antaa g-sync sertifikaatti vain tietyille näytöille (flicker free yms.) oli ideana hyvä, mutta se olisi pitänyt perustua alusta asti avoimeen VRR-ratkaisuun. Lopulta Nvidia taipui, ja toi G-sync compatiblen (vai toiko näyttöjen valmistajat en tiedä) ja hyvä niin, mutta jo ennen tuota siellä on ollut täysin toimivia Freesync näyttöjä ja iät ja ajat. Joissain halvemmissa Freesync -näytöissä varmasti on ollut enemmän ongelmia.

Siitä hyötyivät myös AMD-käyttäjät, koska samaiset näytöt toimivat yhtä hyvin Radeon-korteilla.
Siis mistä hyötyivät AMD:n käyttäjät? G-sync compatiblestä? G-sync compatible perustuu ihan puhtaasti Adaptive Synciin siinä missä Freesync. Paremminkin voisi sanoa, että Adaptive syncistä hyötyi lopulta myös Nvidian käyttäjät.
 
Liittynyt
21.06.2017
Viestejä
4 707
Se Nvidian tarkoitus antaa g-sync sertifikaatti vain tietyille näytöille (flicker free yms.) oli ideana hyvä, mutta se olisi pitänyt perustua alusta asti avoimeen VRR-ratkaisuun. Lopulta Nvidia taipui, ja toi G-sync compatiblen (vai toiko näyttöjen valmistajat en tiedä) ja hyvä niin, mutta jo ennen tuota siellä on ollut täysin toimivia Freesync näyttöjä ja iät ja ajat. Joissain halvemmissa Freesync -näytöissä varmasti on ollut enemmän ongelmia.
nvidia sen toi, olihan niillä silloin kova rummutus kampania kun tuon compatible homman esittelivät.

Huvittavintahan tässä kaikessa on se että nvidialla on ajureissa ollut tuki kokoajan adaptive syncille, koska sitä käytettiin suuressa osassa läpyttimiä, ellei jopa kaikissa silloin kun oli pelkkä geesynkki. Mutta "premium" miehet eivät tällaista millään muista pirkkakalja höyryissään.
 

knz0

300 yard drive
Tukijäsen
Liittynyt
02.11.2016
Viestejä
904
Nvidia olisi voinut tuoda jo tuolloin avoimeen ratkaisuun perustuvan VRR-ratkaisun, tai sitten lähteä tukemaan tuota Adaptive Synciä, mutta sen sijaan se päätti tehdä jälleen suljetun ominaisuuden, jolla se sai varmasti kivasti rahastettua kun sai siivun G-sync -näyttöjen myynnistä. Paras vitsi oli ne G-sync moduulin näytöt, jotka vaati tuulettimen, ja taitaa niitä vieläkin olla myynnissä.
AMD loi FreeSyncin nimenomaan reaktiona G-syncille, eikä toisinpäin. DP-standardin Adaptive sync oli alunperin tarkoitettu virransäästöominaisuudeksi näyttöihin, eikä pelejä sulavoittamaan.

Ei Nvidia tee noita featureita huvin vuoksi avoimiksi ellei niille ole jokin erityinen syy (esim Vulkanin RT-implementaatio on suurimmaksi osin Nvidia-insinöörien tekemä, koska Nvidian intresseissä on saada säteenseurantaa useampiin peleihin).

Eihän sen pitäisi tulla yllätyksenä että voittoa tavoitteleva firma luo innovaatioita joista se pystyy luomaan kilpailuetuja itselleen. AMD joutui siihen vastaamaan, ja lopulta voittajia ovat kuluttajien lisäksi sekä monitorivalmistajat että AMD ja Nvidia.

Tuolta on löytynyt jo pitkään mm. flicker free -sertifikaateilla varustettuja adaptive sync näyttöjä, josta löytyy kunnon refresh ratet yms. Jollekkin pelimassoista marginaaliselle ryhmälle jotka satsaa valtavasti rautaan, tuo G-sync on voinut olla hyvä juttu, niissä +144hz -näytöissä. Valtaosalle pelaajista ei, koska suurin osa ei käytä mitään 240hz -näyttöjä. Se että Adaptive sync / Freesync yleistyi lopulta, on parasta mitä pelimonitorimarkkinoille on pitkään aikaan tapahtunut, ja tuosta ei ansio mene Nvidialle, vaan päinvastoin, pitkään yrittivät ajaa omaa G-synciään, eivätkä edes sallineet Adaptive Synciä omille asiakkailleen.

Se Nvidian tarkoitus antaa g-sync sertifikaatti vain tietyille näytöille (flicker free yms.) oli ideana hyvä, mutta se olisi pitänyt perustua alusta asti avoimeen VRR-ratkaisuun. Lopulta Nvidia taipui, ja toi G-sync compatiblen (vai toiko näyttöjen valmistajat en tiedä) ja hyvä niin, mutta jo ennen tuota siellä on ollut täysin toimivia Freesync näyttöjä ja iät ja ajat. Joissain halvemmissa Freesync -näytöissä varmasti on ollut enemmän ongelmia.
Yksikään niistä ei ollut markkinoilla silloin kun G-sync julkaistiin. Siitähän tässä oli kyse. Et sä voi vertailla vuoden 2015-2016 näyttöjä huomattavasti uudempiin FreeSync näyttöihin, koska tekniikka liikkuu jatkuvasti eteenpään.

Häviävän pieni osa markkinoilla olleista FreeSync näytöistä edes sai G-sync Compatible tarran kylkeen kun tuo Compatible julkistettiin, koska valta-osa niistä markkinoilla olleista näytöistä oli täysin paskoja. Nykyään noita Compatible näyttöjä on huomattavasti enemmän, koska 1) tekniikka liikkuu eteenpäin 2) kuluttajat ovat entistä enemmän laatutietoisia 3) serttitarrat auttavat myynnissä.

Siis mistä hyötyivät AMD:n käyttäjät? G-sync compatiblestä? G-sync compatible perustuu ihan puhtaasti Adaptive Synciin siinä missä Freesync. Paremminkin voisi sanoa, että Adaptive syncistä hyötyi lopulta myös Nvidian käyttäjät.
AMD:n käyttäjät hyötyivät siitä että joku päätti ottaa laadun puheeksi ja kehitti sen takaavan sertifiointijärjestelmän. Sen olisi AMD hyvinkin voinut tehdä, mutta AMD:llä taisi olla tärkeämpää saada enemmän rasteja ruutuun kuin se että se ruuduissa olevat featuret on oikeasti toimivia.
 
Liittynyt
19.10.2016
Viestejä
2 384
Paras vitsi oli ne G-sync moduulin näytöt, jotka vaati tuulettimen, ja taitaa niitä vieläkin olla myynnissä.
Ei kai ne mitään vitsejä ole koska niissä on asic piiri sisällä joka optimoi overdrive säädöt fps/Hz mukaan, mihin ei mikään freesync/adaptive sync näyttö pysty. Siksi hintaa onkin ja jos haluaa parasta niin noilla näytöillä sitä saa vaikka joutuukin sitten maksamaan premiumista.
Itse kyllä olen tyytyväinen että Nvidia avasi tuon ns g-sync tuen myös asic-piirittömille näytöille, omakin on sellainen vaikka ei ole compatible leimaa saanut niin toimii mainiosti vrr.
 
Viimeksi muokattu:
Liittynyt
21.06.2017
Viestejä
4 707
Ei kai ne mitään vitsejä ole koska niissä on asic piiri sisällä joka optimoi overdrive säädöt fps/Hz mukaan, mihin ei mikään freesync/adaptive sync näyttö pysty. Siksi hintaa onkin ja jos haluaa parasta niin noilla näytöillä sitä saa vaikka joutuukin sitten maksamaan premiumista.
Itse kyllä olen tyytyväinen että Nvidia avasi tuon ns g-sync tuen myös asic-piirittömille näytöille, omakin on sellainen vaikka ei ole compatible leimaa saanut niin toimii mainiosti vrr.

Aika minimaalisia on ne ylivoimaiset "premium" fyytsörit ja on myös asioita jotka on sontaa verrattyna freesync näyttöön. Itte en ainakaan pysty mitenkään näkemään että g-syncillä saisi rahoilleen vastinetta kun paneelit on samat.
 
Liittynyt
08.08.2019
Viestejä
1 113
Häviävän pieni osa markkinoilla olleista FreeSync näytöistä edes sai G-sync Compatible tarran kylkeen kun tuo Compatible julkistettiin, koska valta-osa niistä markkinoilla olleista näytöistä oli täysin paskoja. Nykyään noita Compatible näyttöjä on huomattavasti enemmän, koska 1) tekniikka liikkuu eteenpäin 2) kuluttajat ovat entistä enemmän laatutietoisia 3) serttitarrat auttavat myynnissä.
Onko tarkkaa tietoa, mitä kaikkea tuohon Nvidian G-sync compatible sertifikaattiin vaaditaan? Nopealla googletuksella löysin vain ympäripyöreitä termejä laatutakeista. Joku Flickerfree on ollut peruskauraa jo pitkään (paitsi niissä paskoissa näytöissä), nopeasti googletettuna G-syncin syntyaikoihin markkinoilla pyörineissä hyvissä pelinäytöissä oli jo TUV-sertifikaatteja mm. Asuksella. Jotain muutakin tuohon G-sync -sertifikaattiin varmasti vaaditaan, mutta mitä? Joku tietty range VRR:ssä taisi ainakin olla.

Ei kai ne mitään vitsejä ole koska niissä on asic piiri sisällä joka optimoi overdrive säädöt fps/Hz mukaan, mihin ei mikään freesync/adaptive sync näyttö pysty. Siksi hintaa onkin ja jos haluaa parasta niin noilla näytöillä sitä saa vaikka joutuukin sitten maksamaan premiumista.
No joo hieman kärjistin, koska tuuletin näytön sisällä on minusta hieman koomista. Mutta okei, mitä tuo käytännössä tarkoittaa käyttäjälle? Eli mitä tuo ASIC pystyy tekemään mitä esim. Freesync Premium ei pysty pelikäytössä?
 
Liittynyt
19.10.2016
Viestejä
2 384
No joo hieman kärjistin, koska tuuletin näytön sisällä on minusta hieman koomista. Mutta okei, mitä tuo käytännössä tarkoittaa käyttäjälle? Eli mitä tuo ASIC pystyy tekemään mitä esim. Freesync Premium ei pysty pelikäytössä?
Tuosta käyttäjän @JiiPee jakamasta HUB:n videosta selviää mainiosti G-sync (asic) piirin edut. Mutta normaali käyttäjälle noi edut tuskin ovat hintansa arvoisia (tai riippuu kuinka kultasilmä on). Mutta jos saman näytön saisi aitona G-Sync versiona samaan hintaan kuin G-Sync compatiblen niin ei tarvitsisi paljoa miettiä, paitsi jos omistaa AMD:n näytönohjaimen.
Ja edelleen olen tyytyväinen että oma näyttöni toimii vrr:n suhteen Nvidian näytönohjaimella moitteettomasti omaan silmään vaikka ostaessa luvattiin vain Freesync 2 mainosteksteissä.
Edit. Ja en kyllä varmaan itsekkään ostaisi näyttöä jossa pieni tuuletin olisi pitämässä meteliä, mutta eikö niitä malleja ole myös ilman tuuletinta.
 
Viimeksi muokattu:

knz0

300 yard drive
Tukijäsen
Liittynyt
02.11.2016
Viestejä
904
Onko tarkkaa tietoa, mitä kaikkea tuohon Nvidian G-sync compatible sertifikaattiin vaaditaan? Nopealla googletuksella löysin vain ympäripyöreitä termejä laatutakeista. Joku Flickerfree on ollut peruskauraa jo pitkään (paitsi niissä paskoissa näytöissä), nopeasti googletettuna G-syncin syntyaikoihin markkinoilla pyörineissä hyvissä pelinäytöissä oli jo TUV-sertifikaatteja mm. Asuksella. Jotain muutakin tuohon G-sync -sertifikaattiin varmasti vaaditaan, mutta mitä? Joku tietty range VRR:ssä taisi ainakin olla.

G-Sync Compatible Testing

If you want something that’ll fight screen tearing with your Nvidia graphics card right out of the box with satisfactory performance regardless of frame rates, official G-Sync Compatibility has its perks. To get why, it’s first important to understand what real Nvidia-certified G-Sync Compatibility is.

G-Sync Compatibility is a protocol within VESA’s DisplayPort 1.2 spec. That means it won’t work with HDMI connections (barring G-Sync Compatible TVs) or Nvidia cards older than the GTX 10-series. As you can see on Nvidia’s website, G-Sync Compatibility is available across a range of PC monitor brands, and even TVs (LG OLEDs, specifically) carry G-Sync Compatible certification.

Each monitor that gets the G-Sync Compatible stamp not only goes through the vendor’s own testing, as well as testing required to get its original Adaptive-Sync (most likely FreeSync) certification, but also Nvidia testing on multiple samples. Most monitors that apply for G-Sync Compatibility fail -- the success rate is under 10%, according to Nvidia’s Sharma. Earning the certification is about more than just being able to turn G-Sync on in the GeForce Experience app.

In May, Nvidia announced that only 28 (5.6%) of the 503 Adaptive-Sync monitors it tested for its G-Sync Compatibility program passed its tests. Apparently, 273 failed because their variable refresh rate (VRR) range wasn’t at least 2.4:1 (lowest refresh rate to highest refresh rate). At the time, Nvidia said this meant gamers were unlikely to get any of the benefits of VRR. Another 202 failed over image quality problems, such as flickering or blanking. “This could range in severity, from the monitor cutting out during gameplay (sure to get you killed in PvP MP games), to requiring power cycling and Control Panel changes every single time,” Nvidia explained. The remaining 33 monitors failed simply because they were no longer available.

“Some were okay, some were good, but many were just outright bad. And when I say bad, it's that the visual experience was very poor,” Sharma said. “And people would see things like extreme flicker in games, they’d see corruption on the stream, they've had difficulty enabling [VRR]. The supported VRR range would be really small.”

By January 2020, the G-Sync Compatible display count grew to 90 and is at 142 as of this writing.

Some of what Nvidia looks for when determining G-Sync Compatibility may be important to you too. Take the first thing Nvidia tests for: VRR range. In a G-Sync Compatible monitor, the maximum refresh rate of its VRR range divided by the lowest support refresh rate in the VRR must be 2.4 or higher. For example, a 120 Hz monitor should have a VRR range of 40-120 Hz (120 divided by 40 is 3, which is greater than 2.4. If the minimum range went up to 55 Hz, the quotient would be 2.2, which is higher than Nvidia’s 2.4 minimum).

“We're kind of sticklers on that because when you look at FPS output from games, it's variable,” Sharma said. “Very few games if any output consistently at a fixed rate … They vary all over the place, depending on how complex the scene is.”

With G-Sync Compatible certification, your monitor’s guaranteed to run Nvidia VRR at the monitor’s maximum refresh rate, but that’s not the case with non-certified monitors, and the issue’s even worse if the monitor’s overclocked.

There should also be no flickering, which happens when the monitor changes brightness levels at different refresh rates, a common characteristic of LCD panels, Sharma said. In our own testing, we’ve found that running G-Sync on a non-certified monitor sometimes results in a lot of flickering in windowed screens.

Nvidia also looks for “corruption artifacts,” according to the exec, and VRR must be enabled by default without having to go into the on-screen display (OSD) or any PC settings.

Of course, Nvidia also has testers take G-Sync Compatible prospects for a test drive, Nvidia will typically look at 2-3 samples typically per display but that number can also be as high as 6, depending on the screen and its “characteristics,” as Sharma put it. The process typically takes about 4 weeks for both existing and new monitors but that timeframe may have increased a bit of late, due to the pandemic (Nvidia’s certification process requires in-person testing).

Olennaiset kappaleet lihavoituna.
 

Kaotik

Banhammer
Ylläpidon jäsen
Liittynyt
14.10.2016
Viestejä
16 980
Ei kai ne mitään vitsejä ole koska niissä on asic piiri sisällä joka optimoi overdrive säädöt fps/Hz mukaan, mihin ei mikään freesync/adaptive sync näyttö pysty. Siksi hintaa onkin ja jos haluaa parasta niin noilla näytöillä sitä saa vaikka joutuukin sitten maksamaan premiumista.
Itse kyllä olen tyytyväinen että Nvidia avasi tuon ns g-sync tuen myös asic-piirittömille näytöille, omakin on sellainen vaikka ei ole compatible leimaa saanut niin toimii mainiosti vrr.
Mitenkään muuten keskusteluun osallistumatta siellä ei ole ASICia vaan ne ultimatetkin käyttää Intelin FPGA:ta (ohjehinta $500 tienoilla)
 
Liittynyt
13.12.2016
Viestejä
2 982
Kyllä se on täysin ok että peliin lisätään fyytsöreitä joita KAIKKI voi käyttää. Se ei ole ok että peliin lisätään fyytsöreitä joita VAIN tiettyyjen "premium" korttien omistajat voivat käyttää. Varsinkin kun ei ole mitään syytä että DLSS on VAIN tiettyjen "premium" korttien ominaisuus, muu kuin nvidian ahneus.

Se on sitten jokaisen itsensä valittavissa että haluaako kyseisiä kuvanpaskontatekniikoita käyttää, mutta jos tuolla nyt esim. oma Vega 56 saa elinvuosia lisää niin en valita. Nyt on varsin huono aika päivittää näytönohjainta koska hinnat ja se fakta että RT kehittyy huimalla vauhdilla, ollen ehkä parin kolmen vuoden päästä jo siinä pisteessä että sillä jotain tekeekin.
No mutta eihän tuotakaan nyt voi käyttää, kun kuvasta tulee "suttua". Eli on ihan turha, vai kuinka se menikään AMD fanipojilla sen DLSS 2.0:kin suhteen.

Onhan se parempi, kun DLSS 1.0 kuvan yleisen terävyyden suhteen, mutta siinäpä ne FSR:n meriitit onkin. Onhan juu helppo ottaa käyttöön ja tukea kaikkia laitteita, kun on alkeellinen ja yksinkertainen "PP-filtteri"

Onhan se vasta eka versio, mutta ei tuota voi varmaan hirveästi parantaa, ellei lähdetä temporaaliseen suuntaan seuraavan version kanssa. Hupsista kun lähteekin jalat alta sen todella helpon käyttöönoton kanssa siinä vaiheessa.

Toki on hyvä, että tulee edes jotain saataville, varsinkin konsolien näkökulmasta, vaikka tämä versio ei taida vielä konsoleilla toimia. Indie devaajat varsinkin varmasti ovat mielissään, kun löytyy suoraan joku bilineaarista upscalingia parempi tekniikka, ilman omaa isompaa panostusta.

DF:n video on ylivoisesti paras ja asiantuntevien näistä FSR:n arvioista kyllä.
 
Liittynyt
20.10.2016
Viestejä
2 827
FSR näyttää häviävän selvästi Unreal Engine 4:n omalle temporal upsample tekniikalle.
Saa nähdä tuleeko tuosta testistä uusintaversio. Ainakin redditin hardware kanavan postauksen kuvissa (käskyt mukana miten voi itse toistaa) aika vahva dof efekti katoaa samantien TAAU:ta käytettäessä.


""Digital Foundry made a critical mistake with their Kingshunt FSR Testing - TAAU apparently disables Depth of Field. Depth of Field causes the character model to look blurry even at Native settings (no upscaling)"

Digital Foundry made a critical mistake with their Kingshunt FSR Testing - TAAU apparently disables Depth of Field. Depth of Field causes the character model to look blurry even at Native settings (no upscaling)
 
Liittynyt
21.06.2017
Viestejä
4 707
No mutta eihän tuotakaan nyt voi käyttää, kun kuvasta tulee "suttua". Eli on ihan turha, vai kuinka se menikään AMD fanipojilla sen DLSS 2.0:kin suhteen.
Lähtökohta on se että kuvanpaskontaa ei käytetä. Mutta jos tuon avulla on lähitulevaisuudessa mahdollista skipata vaikka yksi geni näytönohjaimia, niin kyllä minä sen kortin olen valmis käyttämään. Perustelin jo miksi.
DLSS on saanut ja saa jatkossakin lokaa sen takia kun se ei TOIMI kuin pienellä määrällä näytönohjaimia ilman mitään pakottavaa syytä. Itse tekniikassa kun ei ole mitään sellaista joka nimenomaan estäisi sen toiminna vaikka GTX1080Ti:n kanssa. Se toimii ainoastaan RTX korteilla siitä syystä että nvidia yrittää pakottaa kaikki päivittämään korttinsa RTX:n. Eli käytännössä himoitsevat täyttä monopolia jonka ovat CUDA:n kanssa jo aikalailla saavuttanu datacenter puolella.
 
Liittynyt
17.10.2016
Viestejä
640
Se toimii ainoastaan RTX korteilla siitä syystä että nvidia yrittää pakottaa kaikki päivittämään korttinsa RTX:n. Eli käytännössä himoitsevat täyttä monopolia jonka ovat CUDA:n kanssa jo aikalailla saavuttanu datacenter puolella.
Mistäs revit tensor coret GTX kortteihin joita se DLSS hyödyntää?
 

Kaotik

Banhammer
Ylläpidon jäsen
Liittynyt
14.10.2016
Viestejä
16 980
Mistäs revit tensor coret GTX kortteihin joita se DLSS hyödyntää?
NVIDIA voisi hyvin avata DLSS:n ajettavaksi millä vaan raudalla jos se haluaisi. Nopeus saattaisi olla heikkoa ilman tensoreita, sen näkisi sitten, mutta minkään tason tekninen vaatimus ne ei ole
 

Kaotik

Banhammer
Ylläpidon jäsen
Liittynyt
14.10.2016
Viestejä
16 980
Saa nähdä tuleeko tuosta testistä uusintaversio. Ainakin redditin hardware kanavan postauksen kuvissa (käskyt mukana miten voi itse toistaa) aika vahva dof efekti katoaa samantien TAAU:ta käytettäessä.


""Digital Foundry made a critical mistake with their Kingshunt FSR Testing - TAAU apparently disables Depth of Field. Depth of Field causes the character model to look blurry even at Native settings (no upscaling)"

Digital Foundry made a critical mistake with their Kingshunt FSR Testing - TAAU apparently disables Depth of Field. Depth of Field causes the character model to look blurry even at Native settings (no upscaling)
Tässä YouTube-videona demonstroituna sama, eli tosiaan DigitalFoundry ei kuvanlaatuvertailua tehdessään huomannut, että TAAU poistaa DoFfin käytöstä, osoitettu seikkaperäisesti asetuksia vaihtamalla videossa:

Myös GodFallissa TAAU:n kanssa näyttäisi olevan häikkää DoFfissa (kts olkatoppaukset ja topppausten ja pään väliin jäävä kohta) AMD FSR antialiasing discussion
 
Viimeksi muokattu:
Liittynyt
21.02.2017
Viestejä
2 811
Dota 2:ssa on valikossa liukusäädin resoluutiolle FSR:n kanssa. :thumbsup: Myös UE4 peleissä voi puukottaa konsolin käyttöön ja säätää sieltä haluamansa input resoluution.

Harmi, ettei Nvidia ole tuollaista vapaampaa säätöä avannut DLSS:lle. Tai edes antanut sitä ultra quality modea käyttöön, josta kehittäjille tarkoitetuissa dokumenteissa on ollut mainintoja jo pitkään. :thumbsdown:

Toivottavasti FSR luo vähän painetta Nvidialle avamaan tällaisia ominaisuuksia.
 
Liittynyt
01.08.2019
Viestejä
314
Itsellä tosiaan Rtx 3060 niin saa nauttia kiitos Amd molemmista sekä Dlss että Fsr ja läppärillä gtx 1060 6gb sitten Fsr.

Eiköhän parin vuoden päästä jo näy että Fsr tuki paljon laajempaa, tukeehan se uuden sukupolven konsoleita.

Mutta ei siitä mihinkään pääse että Dlss 2.x parempi kuvanlaatu.

Ilmeisesti sekä Amd että Intel kehittää kuitenkin ai toimivaa vaihtoehtoa mutta saa nähdä ovatko ne avoimia myös muille valmistajille vai vain heidän omille näytönohjaimilleen.

Itse ainakin toivon että avoin ratkaisu tulee yleistymään ja käy kuten freesync vs gsync eli avoin ratkaisu voittaa jolloin me kuluttajat voitamme myös.
 

Kaotik

Banhammer
Ylläpidon jäsen
Liittynyt
14.10.2016
Viestejä
16 980
Ilmeisesti sekä Amd että Intel kehittää kuitenkin ai toimivaa vaihtoehtoa mutta saa nähdä ovatko ne avoimia myös muille valmistajille vai vain heidän omille näytönohjaimilleen.
Mikä ihmeen taikaluoti se "AI" nyt taas on? Algoritminen skaalain on aina parempi, kuin samaan tulokseen päätyvä "tekoälyskaalain". Kysymys on vain siitä onnistuuko ingenjöörit saavuttamaan sitä samaan laatuun pääsevää algoritmeillä.
 
Liittynyt
20.10.2016
Viestejä
2 827
Tässä YouTube-videona demonstroituna sama, eli tosiaan DigitalFoundry ei kuvanlaatuvertailua tehdessään huomannut, että TAAU poistaa DoFfin käytöstä, osoitettu seikkaperäisesti asetuksia vaihtamalla videossa:

Myös GodFallissa TAAU:n kanssa näyttäisi olevan häikkää DoFfissa (kts olkatoppaukset ja topppausten ja pään väliin jäävä kohta) AMD FSR antialiasing discussion
Tässä DF:n omista kuvista 4K vs 1080p TAAU. Samaan vertailuun ne ei näitä osanneet laittaa, mutta natiivi oli eri FSR tasojen vertailukuvissa mukana. TAAU versio on vasemmalla, aika selkeä ero DOF:ssa.

digital foundry.png
 
Liittynyt
18.12.2020
Viestejä
99
Aika paha munaus DF:n Alexilta. Sai näyttämään FSR:n aika surkeelta just tässä Kingshunt vertailussa. Tuolla redditissä puhuivat, että jopa upscalettu kuva, missä DOF on pois päältä näyttää vertailukohteissa (tuo naisen hame) paremmalta vs natiivi 4K DOF päällä. Luulisi, että Digital Foundry tällaiset huomaa. Syö ainakin itseltä luottoa, että osaako nää jampat tehdä objektiivisia testejä. Tuollainen virhe tapahtuu usein, jos on ennakkoluuloja teknologian huonoudesta ja lähtee sitä todistamaan. Toisaalta kuulin jostain, että medialle annettiin vain kolme vuorokautta testata ominaisuutta. Kiireenkin takia näitä sattuu.
 
Liittynyt
21.06.2017
Viestejä
4 707
Aika paha munaus DF:n Alexilta. Sai näyttämään FSR:n aika surkeelta just tässä Kingshunt vertailussa. Tuolla redditissä puhuivat, että jopa upscalettu kuva, missä DOF on pois päältä näyttää vertailukohteissa (tuo naisen hame) paremmalta vs natiivi 4K DOF päällä. Luulisi, että Digital Foundry tällaiset huomaa. Syö ainakin itseltä luottoa, että osaako nää jampat tehdä objektiivisia testejä. Tuollainen virhe tapahtuu usein, jos on ennakkoluuloja teknologian huonoudesta ja lähtee sitä todistamaan. Toisaalta kuulin jostain, että medialle annettiin vain kolme vuorokautta testata ominaisuutta. Kiireenkin takia näitä sattuu.
Mokia sattuu kaikille. Ja katoin itte ne DF:n vertailu kuvat, natiivi vs DAAU niin onhan siinä kun emännän reiteen kiinnittää huomiota selvä ero. Natiivi täyttä suttua kun taas DAAU todella terävä. Vastaavasti taas puun runko DAAU suttua ja natiivi terävä. Voipi olla bugikin ihan enginessä, joku tuolla redditissä sanoi että DOF:n ei edes pitäisi vaikuttaa mitenkään lähellä oleviin kohteisiin.

Se mikä huvittaa että täälläkin jotkut ehti ylistää DF:n testit parhaiksi ja haukkuivat muut. DF tuntuu olevan kuin raamattu joillekkin josta luetaan totuutena kaikki. Olis varmaan hälytyskellojen pitäny kilkattaa itse kullakin kun yksi saa muista poikkeavia tuloksia.

Alex ottaa kyllä aika kovin redditissä sontaa nyt, toki myönsi että on moka käynyt, mutta sitten älkoi vänkkäämään että ei muka lopulta vaikuta juuri mihinkään.

Helmi.
Coming to conclusions before testing. Very good journalism there Alex.
 
Liittynyt
20.10.2016
Viestejä
634
Aika paha munaus DF:n Alexilta. Sai näyttämään FSR:n aika surkeelta just tässä Kingshunt vertailussa. Tuolla redditissä puhuivat, että jopa upscalettu kuva, missä DOF on pois päältä näyttää vertailukohteissa (tuo naisen hame) paremmalta vs natiivi 4K DOF päällä. Luulisi, että Digital Foundry tällaiset huomaa. Syö ainakin itseltä luottoa, että osaako nää jampat tehdä objektiivisia testejä. Tuollainen virhe tapahtuu usein, jos on ennakkoluuloja teknologian huonoudesta ja lähtee sitä todistamaan. Toisaalta kuulin jostain, että medialle annettiin vain kolme vuorokautta testata ominaisuutta. Kiireenkin takia näitä sattuu.
Ilmeisesti tuokin peli valittu aika tarkkaan näihin launchpelien joukkoon jos natiivikuvakin on tarkoituksella suttua jolloin eroja on vaikeampi nähdä. Toisivat tuon nyt johonkin uuteen peliin jossa on myös DLSS-tuki niin saisi jotain oikeita vertailuja.
 
Liittynyt
08.08.2019
Viestejä
1 113
Mun mielestä on ihan turha väittää, että FSR on turhake. Konsensus tech pressissä on vahvasti positiivinen.
Mutta Digital foundry oli kriittisempi, ja monille tuo on se ''totuus'' ;) Sama DF joka suitsutti DLSS 1.0 vaikka lähes kaikki muut techit kritisoi kuvanlaatua, joka varmaan jokaisen silmillä oli heikompi vs natiivi. Ja sama DF joka on saanut yksinoikeudella noita Nvidian testejä, esim. ampere launchin jälkeen. Hieman cherrypick haiskahtanut välillä DF:n videoista, ja nuo jatkuvat zoomailut vähän myös huvittaa kuvanlaatu vs kuvanlaatu -videoilla. 99,99% pelaajista ei zoomaile noin pelien sisällä, joten käytännön vertailukohtana aika turhaa.. No mutta, kyllä DF:stä asiantuntemusta oikeasti löytyy, ja kukin katsoo mitä tech-mediaa haluaa. Itse tykkään katsoa useampia ja muodostaa niistä mielipiteitä.
 
Liittynyt
08.08.2019
Viestejä
1 113
Tuosta käyttäjän @JiiPee jakamasta HUB:n videosta selviää mainiosti G-sync (asic) piirin edut. Mutta normaali käyttäjälle noi edut tuskin ovat hintansa arvoisia (tai riippuu kuinka kultasilmä on).
Hieman menee laiskaksi argumentaatioksi kun kehotetaan katsomaan 15min videolta jotain. No mutta katsoin yhteenvedon, ja siellä mainittiin se Variable overdrive, mutta samalla tuo löytyy myös jostain Freesync -monitoreista kuten G7. Ehkä jollekkin kilpapelaajille G-sync -moduulista voi olla hyötyä, n. 99% pelaajista ei varmasti nykyisin väliä, onko toimiva Freesync -näyttö vai G-sync -näyttö. Edit: Tuo kultasilmäisyys muuten on minun kokemuksella usein synonyymi sanalle illuusio.

Mutta jos saman näytön saisi aitona G-Sync versiona samaan hintaan kuin G-Sync compatiblen niin ei tarvitsisi paljoa miettiä, paitsi jos omistaa AMD:n näytönohjaimen.
Tällaista ihmettä vaan harvoin näkee. Se moduuli selvästi nostaa hintaa, ja sen takia se tuskin on hinnan puolesta monelle järkevämpi vs. freesync / g-sync compatible.

Olennaiset kappaleet lihavoituna.
Kiitos vastauksesta! Tuossa tuli noita sertifikaatin -vaatimuksia, hyvä tietää jatkossa. Tuossa on minusta Nvidialla ihan hyvä idea taustalla, ja varmasti se karsii surkeimpia näyttöjä pois. Näin valveutuneelle kuluttajalle tuosta ei juuri ole hyötyä, kun osaa valita kattavien testien perusteella näyttöjä. Ja jos ei revikkaa löydy kuten omasta näytöstäni ei ollut, niin aina näitä voi testata ja palauttaa näytön jos ei omaan käyttöön sovi.
 
Liittynyt
06.03.2019
Viestejä
2 292
Mitä nyt muutaman videon tuosta FSR:stä katsonut niin hyvät puolet:
- 4K resolla Ultra quality ja Quality modeissa ei pelatessa huomaa juuri eroa natiiviin ilman vertailukuvaa. (1440P resolla Ultra Quality)
- Ei aiheuta kuvaan virheitä mitä ei jo natiivissa olisi

Huonot puolet:
- Kuvanlaatu heikkenee selvästi kun mennään noihin pienempiin laatuasetuksiin

DLSS2.0 on huomattavasti parempi kuvanlaadullisesti pienimmillä laatuasetuksilla, mutta sen ongelmana on kaikilla asetuksilla joita kuvaan tulee. (Ghosting, moire, halo jne...). Kaikkiahan nuo ei varmasti häiritse tai edes juuri niitä huomaa.
Lisäksi DLSS hoitaa antialiasoinnin paremmin kuin monesta pelistä löytyva AA asetus.

Tällä hetkellä näyttäisi siltä, että jos käytetään FSR Ultra quality vs. DLSS2.0 quality asetuksia, erot kuvanlaadussa on todella pieniä ja suorituskykylisäkin aikalailla sama. Paremmat vertailut voi tehdä sitten jos jostain pelistä löytyy molemmat.

Ja mahdollisuudet on että FSR tulee yleistymään huomattavasti nopeammin kuin DLSS, koska se toimii kaikilla näytönohjaimilla sekä konsoleilla. Ja pelintekijöille sen lisääminen on erittäin helppoa.
DLSS suurin ongelma on se, että se toimii vain RTX korteilla...
 

Kaotik

Banhammer
Ylläpidon jäsen
Liittynyt
14.10.2016
Viestejä
16 980
Mutta Digital foundry oli kriittisempi, ja monille tuo on se ''totuus'' ;) Sama DF joka suitsutti DLSS 1.0 vaikka lähes kaikki muut techit kritisoi kuvanlaatua, joka varmaan jokaisen silmillä oli heikompi vs natiivi. Ja sama DF joka on saanut yksinoikeudella noita Nvidian testejä, esim. ampere launchin jälkeen. Hieman cherrypick haiskahtanut välillä DF:n videoista, ja nuo jatkuvat zoomailut vähän myös huvittaa kuvanlaatu vs kuvanlaatu -videoilla. 99,99% pelaajista ei zoomaile noin pelien sisällä, joten käytännön vertailukohtana aika turhaa.. No mutta, kyllä DF:stä asiantuntemusta oikeasti löytyy, ja kukin katsoo mitä tech-mediaa haluaa. Itse tykkään katsoa useampia ja muodostaa niistä mielipiteitä.
Digital foundry myös failasi eikä huomannut TAAUn poistavan DOFfin ja sen vuoksi näyttävän terävämmältä tietyissä paikoissa joihin kiinnittivät kyllä huomioita, kuten se hahmon hame
 
Liittynyt
08.08.2019
Viestejä
1 113
Digital Foundry testasi uudestaan ilman DOFia.
Löytyykö linkkiä? Tai kuvia ja videota ilman noita zoomeja. Varmasti tuo FSR ON ilman DOF:iakin on huonompi kuin 4k TAA, mutta lähinnä kiinnostaa että kuinka paljon. Videot näistä yleensä parhaita, jotku skaalaimet blurraa kuvaa liikkeessä ja ainakin DLSS:ssä oli jossain peleissä ghostaamista, ja nämä ei paikallaan otetuissa kuvissa näy.
 
Liittynyt
16.10.2016
Viestejä
491
Löytyykö linkkiä? Tai kuvia ja videota ilman noita zoomeja. Varmasti tuo FSR ON ilman DOF:iakin on huonompi kuin 4k TAA, mutta lähinnä kiinnostaa että kuinka paljon. Videot näistä yleensä parhaita, jotku skaalaimet blurraa kuvaa liikkeessä ja ainakin DLSS:ssä oli jossain peleissä ghostaamista, ja nämä ei paikallaan otetuissa kuvissa näy.
Tuolla on DF:n kuvat.


 

Kaotik

Banhammer
Ylläpidon jäsen
Liittynyt
14.10.2016
Viestejä
16 980
Joku voisi nähdä kyseenalaisena että koska teknologialla x on ongelmia ominaisuuden y kanssa otetaan y pois kaikilta sen sijasta, että nostettaisiin käsi pystyyn rehellisen virheen merkiksi ja todettu että vituiks män ja aiottua vertailua ei voida ainakaan siinä pelissä toteuttaa koska yksi testattavista tekniikoista rikkoo muita efektejä.
 
Liittynyt
16.10.2016
Viestejä
491
Joku voisi nähdä kyseenalaisena että koska teknologialla x on ongelmia ominaisuuden y kanssa otetaan y pois kaikilta sen sijasta, että nostettaisiin käsi pystyyn rehellisen virheen merkiksi ja todettu että vituiks män ja aiottua vertailua ei voida ainakaan siinä pelissä toteuttaa koska yksi testattavista tekniikoista rikkoo muita efektejä.
En näe ongelmaa jos siitä on mainittu. Pystyy vertaman miten eri tekniikat vaikuttaa geometriaan textuureihin jne.
 

Kaotik

Banhammer
Ylläpidon jäsen
Liittynyt
14.10.2016
Viestejä
16 980
Digital Foundry testasi uudestaan ilman DOFia.

Tuo kaappaus on siis videosta? Jostain syystä niiden kuvankaappausvertailuista ei löydykään TAAU:ta että voisi ihan häviöttömiä kuvia vertailla.
Myös päivityksessä annettu selitys ontuu ja pahasti, vedotaan johonkin postprocess efektien resoluutioihin - seka TAAU, naiivi että FSR skaalasi siinä Kingshuntissa ihan samasta resoluutiosta ja nuo efektit ajetaan ihan samassa kohtaa renderöintiprosessia skaalaimesta riippumatta, TAAU vain yksinkertaisesti rikkoo DOFfin ainakin siinä pelissä.
 
Liittynyt
20.10.2016
Viestejä
2 827
Tuo kaappaus on siis videosta? Jostain syystä niiden kuvankaappausvertailuista ei löydykään TAAU:ta että voisi ihan häviöttömiä kuvia vertailla.
Myös päivityksessä annettu selitys ontuu ja pahasti, vedotaan johonkin postprocess efektien resoluutioihin - seka TAAU, naiivi että FSR skaalasi siinä Kingshuntissa ihan samasta resoluutiosta ja nuo efektit ajetaan ihan samassa kohtaa renderöintiprosessia skaalaimesta riippumatta, TAAU vain yksinkertaisesti rikkoo DOFfin ainakin siinä pelissä.
Oli tuosta unrealin foorumeillakin devaajan suusta:

"So when r.TemporalAA.Upsampling=1, it basically forces r.DOF.Recombine.Quality=0 that looses the slight DOF convolution, and that is due to DiaphragmDOF.cpp’s bSupportsSlightOutOfFocus. There needs to have some changes in the handling of the slight out of convolution (about 5pixels and below) when doing temporal upsampling that I didn’t have time to come down to. And we were only using temporal upsampling on current gen consoles. Wasn’t a big deal back then because if your frame would need to be temporally upsampled, that probably meant you didn’t have the performance to run DOF’s slight out of focus… However we exactly ran into this issue for our Lumen in the Land of Nanite demo running on PS5, but it is still prototype and I’m not sure whether I’m gonna have this finished by 4.26’s release. But yeah given how temporal upsampling is going to become important, it’s definitely something to fix very high on the priority list. "

Eli digital foundryn videovertailu on pielessä, niiden twitter kuvat on pielessä ja juttuun on vain lisätty päivitetyt kuvat godfallilla. Niiden suhteen en ole vielä varma rikkooko tuo TAAU pakotus koko post prosess putken (eli on bloomit, motion blurrit, CA:, grainit sun muut sotkemassa, vai ei). Ainakin twitterkuvien kommenteissa oli ihmettelyä ko. aiheesta.

No sen siitä saa kun lähtee tiukalla ennakkoasenteella (sinänsä ihan oikeutetulla temporal metodilla on enemmän dataa käytössä, mitä spatialilla), hackkaa peliä, jotta saa temporal skaakaulsen käyttöön ja näkee sitten odottamansa lopputuloksen, eikä mieti näkemäänsä sen enempää.

Kyllä tuo DLSS 1.5:lle vaikuttaisi, parempi mitä 1.0, mutta ei yllä 2.x:n tasolle.
 

Kaotik

Banhammer
Ylläpidon jäsen
Liittynyt
14.10.2016
Viestejä
16 980
Ei pärjännyt PowerVR:n Super Kyrokaan, nopeimman näyttiksen titteli kuuluu edelleen 3dfx:lle
 
Liittynyt
18.11.2016
Viestejä
1 898
Eikö tuota DLSS & FSR keskustelua voisi siirtää tuonne dlss ketjuun jonka voisi nimeä uudelleen. Vähän outoa että on erillinen dlss ketju mutta siitä keskustellaan täällä.
 
Liittynyt
16.10.2016
Viestejä
491
Tuo kaappaus on siis videosta? Jostain syystä niiden kuvankaappausvertailuista ei löydykään TAAU:ta että voisi ihan häviöttömiä kuvia vertailla.
Myös päivityksessä annettu selitys ontuu ja pahasti, vedotaan johonkin postprocess efektien resoluutioihin - seka TAAU, naiivi että FSR skaalasi siinä Kingshuntissa ihan samasta resoluutiosta ja nuo efektit ajetaan ihan samassa kohtaa renderöintiprosessia skaalaimesta riippumatta, TAAU vain yksinkertaisesti rikkoo DOFfin ainakin siinä pelissä.
Ihan tuolta sivuilta tuo kuva on.
 
Liittynyt
06.03.2019
Viestejä
2 292
Mistä sieltä? Yhteen comparison toolin kuvaan täsmää scene mutta ei se tarjoa ainakaan täällä kuin natiivia ja eri FSR-laatuja?
On se siellä kun valitset sen keskimmäisen compare toolin...

Mutta miksi ihmeessä pitää verrata sitä Performance modea? Sehän on kaikilla tiedossa että laatu kärsii huomattavasti.

Vaikkakin lähtöresoluutio siinä TAAU:ssa olisi sama 1080p niin informaation määrä mistä se skaalaa kuvan on huomattavasti suurempi. Täysin epäreilu vertailu.
Pitäisi verrata suurinpiirtein saman suorituskyvyn antavaa modea joka lie quality tai ultra quality...

Tietysti jos ainut tavoite on saada FSR näyttämään huonolta niin voihan se vertailun tehdä noinkin.
 
Toggle Sidebar

Statistiikka

Viestiketjut
135 383
Viestejä
2 624 653
Jäsenet
51 352
Uusin jäsen
Laksatiivitaavi

Hinta.fi

Ylös Bottom