Virallinen: NVIDIA vs AMD (vs Intel) keskustelu- ja väittelyketju

  • Keskustelun aloittaja Keskustelun aloittaja Sampsa
  • Aloitettu Aloitettu
Juu, meinaan siis vaan että on se lippulaiva ja täydellä muistilla ja muistikaistalla kuten Titanit ovat olleet aina. Ja tosiaan Nvidia itsekin viittasi että tuo on käytännössä TItan mutta eri nimellä.

edit: Joskin tuota 3090:aa saa customina toisin kuin Titaneja jotka ovat aina olleet referenssikortteja.
Siiretään sopivampaan ketjuun

Titan on ollut tähän asti ymmärtääkseni aina puoliksi pelikortti ja puoliksi ammattilaiskortti, jossa on ollut ammatilaisten ajurioptimointeja.
Nyt 3090 on puhtaasti pelikortti, koska nämä optimoinnit on jätetty pois. Kuten sen edellisen viestin kuva kertoo: Titan rtx on joissain tapauksissa melkein 20 kertaa nopeampi, kuin rtx 3090. Toki 3090:lla voi tehdä töitä, kuten myös 3080:llä. Jos rtx 3080:n muisti riittää ovat ne lähes tasoissa, joten sekin korostaa että 3090 on vain pelikortti.
 
Siiretään sopivampaan ketjuun

Titan on ollut tähän asti ymmärtääkseni aina puoliksi pelikortti ja puoliksi ammattilaiskortti, jossa on ollut ammatilaisten ajurioptimointeja.
Nyt 3090 on puhtaasti pelikortti, koska nämä optimoinnit on jätetty pois. Kuten sen edellisen viestin kuva kertoo: Titan rtx on joissain tapauksissa melkein 20 kertaa nopeampi, kuin rtx 3090. Toki 3090:lla voi tehdä töitä, kuten myös 3080:llä. Jos rtx 3080:n muisti riittää ovat ne lähes tasoissa, joten sekin korostaa että 3090 on vain pelikortti.
NVIDIA ilmaisi hyvin selkeästi jo julkaisussa että 3090 ei ole vain pelikortti. Nyt se alleviivasi sitä uudelleen 3080 Ti:n julkaisussa, suora lainaus: "The new flagship gaming GPU of the GeForce RTX family, the RTX 3080 Ti will be available..."
 
NVIDIA ilmaisi hyvin selkeästi jo julkaisussa että 3090 ei ole vain pelikortti.

Se että sanotaan "Titan class performance" ei kylläkään ihan suorilta tarkoita että se olisi Titan. Minun nähdäkseni 3090:iä voi verrata Titaniin lähinnä sillä että siinä on täysi piiri käytössä ja paljon muistia. Vastaavia ajurioptimointeja ammattilaissovelluksiin ainakaan ihan täydessä mittakaavassa verrattuna edellisen sukupolven Titaniin ei ole tehty.
 
Se että sanotaan "Titan class performance" ei kylläkään ihan suorilta tarkoita että se olisi Titan. Minun nähdäkseni 3090:iä voi verrata Titaniin lähinnä sillä että siinä on täysi piiri käytössä ja paljon muistia. Vastaavia ajurioptimointeja ammattilaissovelluksiin ainakaan ihan täydessä mittakaavassa verrattuna edellisen sukupolven Titaniin ei ole tehty.

Tuostahan oli 3090:n julkaisun aikaankin youtubetekniikkakanavilla kritiikkiä, kun nvidia haluaa sen olevan ja ei olevan titan (titan class, ei mutta ei titan ja ajurioptimointeja puuttuu).

Imho. 3090 sijoiteltiin niin, että saatiin 3090 pelitesteihin mukaan, kun bignavi huhut huolestutti. Eli varmistettiin nopeimman pelinäytönohjaimen titteli. Samalla pidettiin huoli, että osa ammattikäytöstä onnistuu sillä todella nätisti, mutta osa titanin käyttäjäryhmästä alkavat katsella Quadroja ajurituen takia. Lopputulos on Schrodingerin kortti, joka on pelinäytönohjain tai titan, riippuen kenen laseilla katsoo.
 
NVIDIA ilmaisi hyvin selkeästi jo julkaisussa että 3090 ei ole vain pelikortti. Nyt se alleviivasi sitä uudelleen 3080 Ti:n julkaisussa, suora lainaus: "The new flagship gaming GPU of the GeForce RTX family, the RTX 3080 Ti will be available..."
Nvidia saa sanoa ihan mitä tahansa, mutta jos nämä ammattilaisten ajurioptimoinnit on jätetty pois, kyseessä on tosiasiallisesti pelikorti, jolla voi tehdä myös töitä, kuten 3080 kortilla(ja 2080 ti:llä).

Linus testaili 3080 ja 3090 eroja, ja kyllä niitä syntyi, mutta ne ei olleet valtavia. 3090 ei ole puoliksi ammattilaiskortti, eikä se ole titanin seuraaja, vaan täysin kuluttajakortti, eli pelikortti, kuten 2080 ti, joka on mielestäni oikeampi vertailukohta, ei titan, joka on puoliksi ammattilaiskortti, olematta kuitenkaan quadro, koska kaikkia ajurioptimointeja ei oltu avattu. Lisäksi kyllähän 2080 ti ohitti monessa testissä(lähde: tpu relative performance) titan x pascal ja titan xp kortit vaikka olikin pelkkä pelikortti.

Suositushintakin puhuu sen puolesta, että 3090 on pelkkä kuluttajakortti ja 2080 ti:n seuraaja, ei puoliksi ammattilaiskorti ja titanin seuraaja. Pelikortteja on pitkään ostettu myös ammattikäyttöön niiden hinnan takia, se ei tee niistä ammattilaiskortteja, vaan ne ovat pelikortteja, joita on käytetty työntekoon.
 
Tuli muuten mieleen, että mitenhän tuollainen AMD:n prossuille esittelemä v-cache boostaisi APU:n näyttispuolta? Voisin kuvitella, että aivan hemmetisti, mutuillaan hieman.

AMD julkaisi rdna2 arkkitehtuurin cachella erillispiireihin syksyllä. Niissä on maksimissaan 256-bittinen muistiväylä ja GDDR6 muistia, mutta eroa nVidiaan (384bit + GDDR6X) kurotaan kiinni jättimäisellä jopa 128 megan välimuistilla. Välimuisti on toteutettu perinteiseen tapaan piirin laidalle ja se vie mitä ilmeisemmin ihan reilusti pinta-alaa piiriltä eikä täten ole oikein sopiva ratkaisu jo muutenkin suureen APU-piiriin, joka ei kuitenkaan lähtökohtaisesti saa olla kovin kallis... Mutta mitäpä jos toteutettasiin vaikkapa 16CU kokoinen rdna2 (tai rdna3) näyttis APU DDR5-muisteilla ja 96mb cachella. Itse prossu-näyttis-piiristä ei tulisi jättimäinen, vaan sen päälle lyötäisiin v-cache-piiri erikseen. Kaksi pienempää piiriä joiden pinta-ala on X on halvempaa toteuttaa kuin yksi iso piiri, jonka pinta-ala on sama X.

Väitän siis, että AMD:n v-cache idea on syntynyt samoihin aikoihin kuin näyttisten cache ja kuningasidea on se, että sillä saadaan APU-piirien näytönohjaimet uudelle tasolle. Tämä mahdollistaa myös APU-piirien segmentoimisen tehokkaasti yhdellä piirillä. Karvalakkimallit ilman v-cachea ja tehotykit v-cache asennettuna. Helppoa ja halpaa. Intel jää nielemään pölyä ja myös nVidian erillisnäyttikset XX50-sarjaan asti tulevat katoamaan kun jytkytetään 1080p pelikelpoinen rdna2 APU v-cachella tulille.
 
Itte odotan mielenkiinnolla testejä uudesta 6900X LC mallista jossa on 18Gbps muistot, että näkyykö tuo 12,5% kaistan nousu miten testeissä. Siitä voidaan aika hyvin päätellä että onko toi 4K sakkaaminen suhteessa nvidiaan kaistasta johtuvaa vai siitä HUB:n löydöstä että nvidian ajurit aiheuttaa CPU pullonkaulassa sakkaamista jota ei amd:n puolella tapahdu.
Oma veikkaus on että suurta eroa ei ole ja amd:n suhteessa parempi teho CPU pullonkaula tilanteissa on nimenomaan nvidian ajureista aiheutuvaa.

Jos taas LC malli potkii 10% kovempaa kuin normi 6900X niin sitten 16Gbps muistit jarruttaa menoa/cachea ei ole tarpeeksi.
 
Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.


Amd taisi tappaa dlss. Ultra quality asetuksella melkein yhtä hyvä kuva mutta 40 prosenttia lisää fps sekä tukee useampia näytönohjamia.
 
Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.


Amd taisi tappaa dlss. Ultra quality asetuksella melkein yhtä hyvä kuva mutta 40 prosenttia lisää fps sekä tukee useampia näytönohjamia.

Tuskin tappoi, mutta tekee näemmä sen mihin on tarkoitettukin. Kuten lettijeesus Gamers Nexusilla totesi: Jos eroa kuvanlaadussa ei huomaa ilman vertailukuvaa, se toimii kuten pitääkin. Ja ainakin ultra quality vaikuttaisi pystyvän tuohon.
 
FSR vaikuttaa ihan pätevältä. Gamers Nexus, HUB, LTT ja TPU näyttävät kaikki pitävän laatua yllättävän hyvänä, ja suorituskykyä tulee ultra quality -asetuksellakin ihan merkittävästi lisää. Gamers Nexus huomioi, että Riftbreakerissa ray tracing -efektit ottivat aika paljon hittiä laadun suhteen.

Suoran DLSS-vertailun mahdollistavaa peliä odotellessa sanoisin alustavasti, että FSR teki AMD:n näyttiksistä pykälää kiinnostavampia itselleni.
 
Korkeimmilla preseteillä laatu on suhteellisen hyvää, mutta vastaavasti tietysti suorituskykylisä ei ole enää kovin kaksinen.
Ultralla GN:n Riftbreaker oli < 28% natiivia nopeampi, joten jos lähtötilanne on tyyliin 3xfps niin siihen alle 1/3 päälle ei kovin merkittävää eroa tee.

Ja sitten vastaavasti oikeasti nopeilla korteilla FSR:n käyttämisessä ei ole järkeä, koska parhaimmallakin asetuksella on sen verran iso negatiivinen vaikutus kuvanlaatuun, ettei sitä pelkistä stillikuvista tarvitse enää kytätä.
 
Korkeimmilla preseteillä laatu on suhteellisen hyvää, mutta vastaavasti tietysti suorituskykylisä ei ole enää kovin kaksinen.
Ultralla GN:n Riftbreaker oli < 28% natiivia nopeampi, joten jos lähtötilanne on tyyliin 3xfps niin siihen alle 1/3 päälle ei kovin merkittävää eroa tee.

Ja sitten vastaavasti oikeasti nopeilla korteilla FSR:n käyttämisessä ei ole järkeä, koska parhaimmallakin asetuksella on sen verran iso negatiivinen vaikutus kuvanlaatuun, ettei sitä pelkistä stillikuvista tarvitse enää kytätä.

Toisaalta kolmesta neljään FPS voi olla huomattavampi parannus, kuin 300 -> 400 fps.
 
FSR näyttää häviävän selvästi Unreal Engine 4:n omalle temporal upsample tekniikalle.

captureb6kbr.png
 
FSR näyttää häviävän selvästi Unreal Engine 4:n omalle temporal upsample tekniikalle.

captureb6kbr.png

Toi amd Fsr asetus on se huonoin performance. 4k resolle hardware unboxed mukaan ultra quality tai quality on hyvä. 1440p resoluutiolle sitten ultra quality.

Edit ja Amd jopa itse sanoi ettei sitä performance asetusta kannata käyttää. Varmaan halusivat markkinoida että tarjoaa mahdollisimman paljon fps. Ehkä joskus sitä parantelevat?
 
Viimeksi muokattu:
Toi amd Fsr asetus on se huonoin performance. 4k resolle hardware unboxed mukaan ultra quality tai quality on hyvä. 1440p resoluutiolle sitten ultra quality.

Edit ja Amd jopa itse sanoi ettei sitä performance asetusta kannata käyttää. Varmaan halusivat markkinoida että tarjoaa mahdollisimman paljon fps. Ehkä joskus sitä parantelevat?
Eiköhän nuo performancepresetit ole niitä varten joilla joku peli pyörii natiivina 15fps ja saavat tuolla tuolailtua 30-40 paikkeille. Ei varmaan hitti kuvalaatuun tuollaisessa keississä haittaa.
 
@k1nggg : in linkkaamat kuvat on vissiin Digital Foundryn videosta. Katoin HWU:n, GN:n ja DF:n videot tuosta Super Resolutionista tänään, ja mielestäni DF:n analyysi on niistä syvällisin ja osuvin.

Esimerkkikuvissa mitattiin FPS:n sijaan GPU:n käyttöastetta joka oli aika pitkälti identtinen. Toi kyseinen testikohta alkaa linkkaamassani videossa 10:20 kohdalla.

Alex here from Digital Foundry -

reading other reviews I think there is a general misapprehension happening about AMD's FSR in the tech press, so my review reads or watches rather differently. FSR is an image upscaling technique, like a bilinear or bicubic upscale you can do in Photoshop. AMD's own tech briefing and information describes FSR as an uspcaling technique to be compared with simple image space upscalers like Bilinear or Lanczos or Bicubic. It is better than those simple upscalers for the purpose of a video game image.
AMD's FSR is not an image reconstruction technique like checkerboard rendering, DLSS 1.0, DLSS 2.0, Temporal Anti-Aliasing Upscaling, or a variety of techniques which look to reconstruct the image's higher level detail beyond the spatial realm while Anti-Aliasing that new image information.
FSR is similarly not Anti-Aliasing - FSR comes after a game has already been anti-aliased and inherits the qualities, faults, and benefits of the anti-aliasing technique of the game in question.

The questions of FSR's usefulness is important within the context of what a game offers in its settings menu. If for some reason a game literally only offers basic image upscaling with a slider that uses bilinear filtering, or none of that and just has resolution options, then FSR will produce a more pleasing image than those options. But it is not and should not be thought of as an alternative to real image reconstruction techniques.
I say this for the academic purpose of properly classifying things, but also because practically, All people who game on PC should hope that devs implement something like Temporal Anti-Aliasing Upscaling in their game and not only offer something like FSR. TAA U is doing something completely different that has transformative image quality effects and should be desired.

Ekassa kappaleessa sanotaan kaikki olennainen, yksinkertaisella kuvanskaalauksella ei pötkitä pitkälle verrattuna järeisiin rekonstruktioratkaisuihin joissa hyödynnetään ajallista dataa.

FSR olisi toki kiva saada implementoitua vanhoihin peleihin plugarina, mutta uusiin peleihin toivoisi mieluummin jotain kunnon ratkaisua tyyliin DLSS tai TAAU.

Mut aika perus Radeon-tavaraa tämäkin, ollaan vuosia myöhässä oman Nvidia killerfeature-kloonin kanssa, tehdään siitä tarjoustalo-versio (FreeSync, FSR) joka toki tekee jotain mutta ei ole verrattavissa premiumratkaisuihin (G-sync, DLSS), ja toivotaan että omat asiakkaat ei huomaa eroa.
 
Viimeksi muokattu:
  • Tykkää
Reactions: hik
Mut aika perus Radeon-tavaraa tämäkin, ollaan vuosia myöhässä oman Nvidia killerfeature-kloonin kanssa, tehdään siitä tarjoustalo-versio (FreeSync, FSR) joka toki tekee jotain mutta ei ole verrattavissa premiumratkaisuihin (G-sync, DLSS), ja toivotaan että omat asiakkaat ei huomaa eroa.
Nvidia taasen tykkää suljetuista proprietary ratkaisuista ja rahastaa sillä sekä kieltäytyä tukemasta avoimia ratkaisuja ilman mitään järkevää syytä.

Onko physix kortit ja freesynkin tukemattomuus jo unohtunut?

On tämä FSR kuitenkin parempi, kuin ei mitään ja tämää oli vähän pakko tehdä tällein, jotta sen implemointi mahdollisimman moneen paikkaan olisi helppoa. Dlss vaatii vissiin vieläkin pelin pyörittämistä nvidian omilla servereillä 16k resolla, ennen kuin toimii ja senkin jälkeen peliin liittäminen on haastavampaa, ja esiintyy lähinnä nvidian sponssaamissa peleissä. En näe mitään syytä miksei tämä FSR voisi levitä moneen paikkaan jolloin tämä defacto antaa enemmän iloa, kuin DLSS.
 
Viimeksi muokattu:
FSR ei ole rekonstruointia, mutta se että sitä ei saisi verrata rekonstruointitekniikoihin on kyllä akateemista haihattelua. Se ON vastine DLSS:llä, ja näin ollen sitä ehdottomasti pitää verrata siihen nimenomaan loppukäyttäjän pelikokemuksen ollessa ratkaiseva tekijä.
 
Toi amd Fsr asetus on se huonoin performance. 4k resolle hardware unboxed mukaan ultra quality tai quality on hyvä. 1440p resoluutiolle sitten ultra quality.

Edit ja Amd jopa itse sanoi ettei sitä performance asetusta kannata käyttää. Varmaan halusivat markkinoida että tarjoaa mahdollisimman paljon fps. Ehkä joskus sitä parantelevat?

Tuossa kuvassa verrataan noita eli skaalaustekniikoita keskenään, eli kaikissa reso on tietysti sama. Fsr jopa yllättävän huono tuossa. Launchin pelit on ilmeiseti valittu aika tarkasti, kun tuo toimii parhaiten Terminatorissa jota juuri kukaan ei pelaa.
 
Dlss vaatii vissiin vieläkin pelin pyörittämistä nvidian omilla servereillä 16k resolla, ennen kuin toimii ja senkin jälkeen peliin liittäminen on haastavampa
Käsittääkseni pelikohtaista opettamista nvidian servereillä ei ole vaadittu DLSS 2.0 lähtien. Koski vain DLSS 1.0. Pelikohtainen implementointi kyllä vaaditaan (algoritmi tarvitsee liikevektoridataa).
 
Tuossa kuvassa verrataan noita eli skaalaustekniikoita keskenään, eli kaikissa reso on tietysti sama. Fsr jopa yllättävän huono tuossa. Launchin pelit on ilmeiseti valittu aika tarkasti, kun tuo toimii parhaiten Terminatorissa jota juuri kukaan ei pelaa.

Niin tosiaan mutta olisi sitä voinut myös verrata ultra qualityn tai qualityn resoluutiolla vs muita skaalaustekniikoita. Ilmeisesti Dlss toimii paljon paremmin kun dataa on vähemmän(eli skaalataan enemmän) ja taas Fsr heikentyy kuvanlaatu paljon. Ultra quality asetus tarjoaa kuitenkin mukavat 28-40 prosenttia lisää fps.
 
@k1nggg : in linkkaamat kuvat on vissiin Digital Foundryn videosta. Katoin HWU:n, GN:n ja DF:n videot tuosta Super Resolutionista tänään, ja mielestäni DF:n analyysi on niistä syvällisin ja osuvin.

DF:n analyysi oli kyllä hyvä, ainakin tuossa suhteessa ko. kanava on oppinut jotain. Niidenhän DLSS 1.0 analyysit oli lähinnä hypevideota: lähes alkuperäistä tai parempaa fps boostilla, vaikka se otti kuvanlaadussa pataan perus bilinear skaalaukselta sharpen filtterillä.
 
Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.


Näyttää siltä että vaikka Amd ei virallisesti tue nvidia 900 sarjaa toimii Fsr siinäkin joku käytti jopa gt 710 kanssa sitä :D

Joten potentiaaliset pelaajat on todella paljon enemmän(Ja uudemmat konsolitkin tukevat sitä) kuin Nvidian Dlss.
 
DF:n analyysi oli kyllä hyvä, ainakin tuossa suhteessa ko. kanava on oppinut jotain. Niidenhän DLSS 1.0 analyysit oli lähinnä hypevideota: lähes alkuperäistä tai parempaa fps boostilla, vaikka se otti kuvanlaadussa pataan perus bilinear skaalaukselta sharpen filtterillä.
?

DF tykkäsi FF15 DLSS 1.0 implementaatiosta, koska se oli heidän silmiinsä parempi kuin pelin oma natiivi+TAA viritys.
Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.


Metro Exoduksen implementaatio sai heiltä paskaa kuten kuuluikin koska lopputulos oli suttuista.
Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.


Voit ite toki hakea lisää esimerkkejä, mutta mistään hypevideoista ei ole kyse ellet tarkoituksellisesti jätä huomioimatta sitä mikä ei sovi siihen narratiiviin mitä haluat DF:sta luoda.
 
DF tykkäsi FF15 DLSS 1.0 implementaatiosta, koska se oli heidän silmiinsä parempi kuin pelin oma natiivi+TAA viritys.

Metro Exoduksen implementaatio sai heiltä paskaa kuten kuuluikin koska lopputulos oli suttuista.

Voit ite toki hakea lisää esimerkkejä, mutta mistään hypevideoista ei ole kyse ellet tarkoituksellisesti jätä huomioimatta sitä mikä ei sovi siihen narratiiviin mitä haluat DF:sta luoda.

Metron analyysiä en ollutkaan katsonut, mutta DF:n eka puraisu ja kirjoitettu artikkeli samoista materiaaleista oli kyllä hypeä. Kyllä ne DLSS ongelmat oli nähtävissä jo Final fantasyssa. Infiltratoria nekin vain ihmetteli sellaisenaan, kun osa saiteista vertasi DLSS kuvanlaatua custom resoihin, joilla saatiin sama suorituskyky paremmalla kuvanlaadulla.

Kuten sanoin ne ovat oppineet jotain, kun skaalauksia on ihmetelty muutaman vuoden ajan. DF:n FSR testi on ihan eri kaliberia, kuin DLSS:n ensipuraisu. Nyt ne osasi katsoa mitä FSR tekee hyvin ja mitä se tekee huonosti ja etsiä vertailukappaleita (TAAU, joka oli muuten unreal enginessä ennen DLSS 1.0 julkaisua).
 
Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.


Näyttää siltä että vaikka Amd ei virallisesti tue nvidia 900 sarjaa toimii Fsr siinäkin joku käytti jopa gt 710 kanssa sitä :D

Joten potentiaaliset pelaajat on todella paljon enemmän(Ja uudemmat konsolitkin tukevat sitä) kuin Nvidian Dlss.


Eiköhän toi toimi aika pitkälti kaikella rautalla jos kerta haswell IGP:lla pyörii.
 
Jo edellä mainittujen seikkojen lisäksi: mites fps käyttäytyy näissä eri skenarioissa?

KitGuru testaili myös tuota unrealin omaa skaalausta vs FSR. Tiivistelmänä:
- Matalilla resoilla unreal tekee parempaa jälkeä, kun temporal tekniikan takia se saa enemmän dataa ja siten tarkemman ja yksityiskohtaisemman kuvan.
- Unrealin ratkaisu tuottaa (ainakin godfallissa ja 67% / 77% skaalauksella) enemmän shimmeriä, mutta on aavistuksen tarkempi, mitä FSR. Kitguru rankkasi FSR:n paremmaksi shimmerin vähyyden takia. Performance tilaa ei testattu vastaavaa unrealin moodia vastaan, mutta siinä temporal ratkaisu menee jo reilusti ohi, kun lähdemateriaalia on paljon vähemmän spatialin käytössä.
- Unrealin ratkaisu on aavistuksen hitaampi.

Tuossa FSR Ultra Quality ja UE 77% on hyvin lähellä toisaan kuvanlaadussa, kuten ultra ja 67%. Tietty noilla tuloksilla ja laatueroilla, unreal peleissä kannattaisi käyttää unrealin omaa skaalausta, kun se on jo enginessä ja se tekee parempaa jälkeä 1080p monitorien omistajille ja erot tasottuu vasta isommilla resoilla.

unreal.png
 
Tuhnuhan se FSR on, niinkin arvata saattoi. Saa juu perffiä lisää, mutta kuvaa paskoo aika pahasti. Verrattavissa melkein DLSS 1.0 n julkasuun. Mutta nyt se kuvan paskominen onkin ihmeellisesti monesta ok, kun AMD:n propierity free tekniikka... :hmm:
 
Jos luit/katsoit niitä arvioita niin en heti keksi miten sait kuvanlaadun paskomisen ja dlss 1.0 öljykuvan liitettyä FSR:n isommille laatuasetuksille.

Tietty jos usko on kova, niin kait sitä saa itselleen seliteltyä mitä tahansa kun valitsee esimerkit sopivasti.

FSR on tervetullut kaikille pelaajille (iGPU porukasta lähtien) koska laatu on korkeilla asetuksilla riittävää ja kukin saa käyttää tai olla käyttämättä sitä asetusta mitä haluaa.

Jo pelkästään se, että ominaisuus on tuettuna niin monella GPU:lla muuttaa tämän tekniikan tukemisen paljon tärkeämmäksi kuin dlss:n konsanaan.

Toivottavasti tekee avoimuudellaan sen, että fsr olisi tuettuna lähes kaikissa tulevissa peleissä (Intel varmasti painostaa myös tähän jos heiltä kysytään).

Ja mitä noin muuten kyseiseen skaalaimeen tulee, niin yhtälailla se on versiota 1.0 joten ensimmäiseksi versioksi en oikein moitittavaa keksi (kuin ne selkeämmät, eli pelituen puute ja alhaisten resojen suttuisempi kuva).
 
Viimeksi muokattu:
Mun mielestä on ihan turha väittää, että FSR on turhake. Konsensus tech pressissä on vahvasti positiivinen.

Omasta mielestäni tärkein käyttökohde on 4k60 ray tracing. Se tiedetään jo, että ultra quality on 4k:lla enimmäkseen laadultaan hyvä. Ja että FSR parantaa frame ratea ko. asetuksilla ihan merkittävästi. Tulevat pelit sitten näyttää, että mikä on laatu-hitti nimenomaan ray tracingissa ja paljonko vahvasti ray tracingia käyttävissä peleissä tulee perffiä lisää.
 
Tuhnuhan se FSR on, niinkin arvata saattoi. Saa juu perffiä lisää, mutta kuvaa paskoo aika pahasti. Verrattavissa melkein DLSS 1.0 n julkasuun. Mutta nyt se kuvan paskominen onkin ihmeellisesti monesta ok, kun AMD:n propierity free tekniikka... :hmm:

Kyllä se on täysin ok että peliin lisätään fyytsöreitä joita KAIKKI voi käyttää. Se ei ole ok että peliin lisätään fyytsöreitä joita VAIN tiettyyjen "premium" korttien omistajat voivat käyttää. Varsinkin kun ei ole mitään syytä että DLSS on VAIN tiettyjen "premium" korttien ominaisuus, muu kuin nvidian ahneus.

Se on sitten jokaisen itsensä valittavissa että haluaako kyseisiä kuvanpaskontatekniikoita käyttää, mutta jos tuolla nyt esim. oma Vega 56 saa elinvuosia lisää niin en valita. Nyt on varsin huono aika päivittää näytönohjainta koska hinnat ja se fakta että RT kehittyy huimalla vauhdilla, ollen ehkä parin kolmen vuoden päästä jo siinä pisteessä että sillä jotain tekeekin.
 
Onhan tämä vähän hauska tilanne, että kilpaileva firma tuo tälle meikäläisen GTX 1660 Superille DLSS kilpailijan kun tuo itse valmistaja niin kiinnostunut ole tuomaan ominaisuuksia asiakkailleen. :hmm: On se jännää.
 
Voit ite toki hakea lisää esimerkkejä, mutta mistään hypevideoista ei ole kyse ellet tarkoituksellisesti jätä huomioimatta sitä mikä ei sovi siihen narratiiviin mitä haluat DF:sta luoda.

No kyllä se hypevideo oli, kun suunnilleen kaikki muut tech-mediat kritisoi DLSS 1.0 kuvanlaatua, ja syystäkin. Katso nyt itse nuo FF erot TAA vs DLSS 1.0, TAA selvästi tarkempi ja DLSS epätarkempi..

Mut aika perus Radeon-tavaraa tämäkin, ollaan vuosia myöhässä oman Nvidia killerfeature-kloonin kanssa, tehdään siitä tarjoustalo-versio (FreeSync, FSR) joka toki tekee jotain mutta ei ole verrattavissa premiumratkaisuihin (G-sync, DLSS), ja toivotaan että omat asiakkaat ei huomaa eroa.

Nvidian ongelma noissa on suljetut ratkaisut, jotka ei palvele lopulta kuluttajia parhaalla mahdollisella tavalla. Mites G-sync vs Adaptive sync taistossa kävi? Vilkaiseppa uusia pelimonitoreita, ja laske monessako ei ole Adaptive syncciä. Tai monessako G-sync -moduulillisessa näytössä ei ole jäätävästi ylihintaa. DLSS tuki on vuosien aikana jäänyt lopulta turhan pieneksi, ja jos AMD:n DSR pystyy kasvattamaan tukeaan paremmin, niin DSR:ssä on isosti potentiaalia. Kuvanlaatuun en ole vielä 100% tutustunut, katsotaan ja vertaillaan kun kerkeää. Ilmeisesti ei aivan surkeaa ultralla, eli potentiaalia on, aivan kuten oli aikanaan DLSS 1.0 :kin.
 
No kyllä se hypevideo oli, kun suunnilleen kaikki muut tech-mediat kritisoi DLSS 1.0 kuvanlaatua, ja syystäkin. Katso nyt itse nuo FF erot TAA vs DLSS 1.0, TAA selvästi tarkempi ja DLSS epätarkempi..
Mun mielestä DF:n analyysi meni nappiin. DLSS on tuota natiivi+TAA:ta suurimmaksi osin parempi. Kumpikaan ei ole täydellinen, mutta DLSS hoitaa esim. Noctiksen hiukset huomattavasti paremmin, ja FF15:n kaltaisessa third-person JRPG:ssä joudut tuijottamaan sitä lettiä koko pelin ajan. Kertooko se sitten tuon pelin TAA:n huonoudesta vai siitä että DLSS 1.0 toimi tuossa pelissä poikkeuksellisen hyvin on sitten eri asia. Totuus lienee jossain niiden välillä.

Nvidian ongelma noissa on suljetut ratkaisut, jotka ei palvele lopulta kuluttajia parhaalla mahdollisella tavalla. Mites G-sync vs Adaptive sync taistossa kävi? Vilkaiseppa uusia pelimonitoreita, ja laske monessako ei ole Adaptive syncciä. Tai monessako G-sync -moduulillisessa näytössä ei ole jäätävästi ylihintaa. DLSS tuki on vuosien aikana jäänyt lopulta turhan pieneksi, ja jos AMD:n DSR pystyy kasvattamaan tukeaan paremmin, niin DSR:ssä on isosti potentiaalia. Kuvanlaatuun en ole vielä 100% tutustunut, katsotaan ja vertaillaan kun kerkeää. Ilmeisesti ei aivan surkeaa ultralla, eli potentiaalia on, aivan kuten oli aikanaan DLSS 1.0 :kin.
Nvidiahan päätti mennä omalla scalerilla juuri siitä syystä että markkinoilla olleiden scalereiden laatu oli vuonna 2014-2016 G-Syncin läpilyönnin aikana täysin umpisurkea. FreeSync näyttöjen laadunvaihtelu oli vuosikaudet aivan valtavaa. Se että Nvidia lähti sertifioimaan oikeasti toimivia (eli ei flikkeröintiä, kunnon refresh rate ranget, se että se on käytössä out-of-the-box ilman säätöjä, ei kuvan repeilyä) adaptive-sync ratkaisuita G-Sync compatibleksi on paras juttu mitä pelimonitorimarkkinoilla on tapahtunut pitkään aikaan. Siitä hyötyivät myös AMD-käyttäjät, koska samaiset näytöt toimivat yhtä hyvin Radeon-korteilla.
 
Nvidiahan päätti mennä omalla scalerilla juuri siitä syystä että markkinoilla olleiden scalereiden laatu oli vuonna 2014-2016 G-Syncin läpilyönnin aikana täysin umpisurkea.

Nvidia olisi voinut tuoda jo tuolloin avoimeen ratkaisuun perustuvan VRR-ratkaisun, tai sitten lähteä tukemaan tuota Adaptive Synciä, mutta sen sijaan se päätti tehdä jälleen suljetun ominaisuuden, jolla se sai varmasti kivasti rahastettua kun sai siivun G-sync -näyttöjen myynnistä. Paras vitsi oli ne G-sync moduulin näytöt, jotka vaati tuulettimen, ja taitaa niitä vieläkin olla myynnissä.

FreeSync näyttöjen laadunvaihtelu oli vuosikaudet aivan valtavaa. Se että Nvidia lähti sertifioimaan oikeasti toimivia (eli ei flikkeröintiä, kunnon refresh rate ranget, se että se on käytössä out-of-the-box ilman säätöjä, ei kuvan repeilyä) adaptive-sync ratkaisuita G-Sync compatibleksi on paras juttu mitä pelimonitorimarkkinoilla on tapahtunut pitkään aikaan.

Tuolta on löytynyt jo pitkään mm. flicker free -sertifikaateilla varustettuja adaptive sync näyttöjä, josta löytyy kunnon refresh ratet yms. Jollekkin pelimassoista marginaaliselle ryhmälle jotka satsaa valtavasti rautaan, tuo G-sync on voinut olla hyvä juttu, niissä +144hz -näytöissä. Valtaosalle pelaajista ei, koska suurin osa ei käytä mitään 240hz -näyttöjä. Se että Adaptive sync / Freesync yleistyi lopulta, on parasta mitä pelimonitorimarkkinoille on pitkään aikaan tapahtunut, ja tuosta ei ansio mene Nvidialle, vaan päinvastoin, pitkään yrittivät ajaa omaa G-synciään, eivätkä edes sallineet Adaptive Synciä omille asiakkailleen.

Se Nvidian tarkoitus antaa g-sync sertifikaatti vain tietyille näytöille (flicker free yms.) oli ideana hyvä, mutta se olisi pitänyt perustua alusta asti avoimeen VRR-ratkaisuun. Lopulta Nvidia taipui, ja toi G-sync compatiblen (vai toiko näyttöjen valmistajat en tiedä) ja hyvä niin, mutta jo ennen tuota siellä on ollut täysin toimivia Freesync näyttöjä ja iät ja ajat. Joissain halvemmissa Freesync -näytöissä varmasti on ollut enemmän ongelmia.

Siitä hyötyivät myös AMD-käyttäjät, koska samaiset näytöt toimivat yhtä hyvin Radeon-korteilla.

Siis mistä hyötyivät AMD:n käyttäjät? G-sync compatiblestä? G-sync compatible perustuu ihan puhtaasti Adaptive Synciin siinä missä Freesync. Paremminkin voisi sanoa, että Adaptive syncistä hyötyi lopulta myös Nvidian käyttäjät.
 
Se Nvidian tarkoitus antaa g-sync sertifikaatti vain tietyille näytöille (flicker free yms.) oli ideana hyvä, mutta se olisi pitänyt perustua alusta asti avoimeen VRR-ratkaisuun. Lopulta Nvidia taipui, ja toi G-sync compatiblen (vai toiko näyttöjen valmistajat en tiedä) ja hyvä niin, mutta jo ennen tuota siellä on ollut täysin toimivia Freesync näyttöjä ja iät ja ajat. Joissain halvemmissa Freesync -näytöissä varmasti on ollut enemmän ongelmia.

nvidia sen toi, olihan niillä silloin kova rummutus kampania kun tuon compatible homman esittelivät.

Huvittavintahan tässä kaikessa on se että nvidialla on ajureissa ollut tuki kokoajan adaptive syncille, koska sitä käytettiin suuressa osassa läpyttimiä, ellei jopa kaikissa silloin kun oli pelkkä geesynkki. Mutta "premium" miehet eivät tällaista millään muista pirkkakalja höyryissään.
 
Nvidia olisi voinut tuoda jo tuolloin avoimeen ratkaisuun perustuvan VRR-ratkaisun, tai sitten lähteä tukemaan tuota Adaptive Synciä, mutta sen sijaan se päätti tehdä jälleen suljetun ominaisuuden, jolla se sai varmasti kivasti rahastettua kun sai siivun G-sync -näyttöjen myynnistä. Paras vitsi oli ne G-sync moduulin näytöt, jotka vaati tuulettimen, ja taitaa niitä vieläkin olla myynnissä.
AMD loi FreeSyncin nimenomaan reaktiona G-syncille, eikä toisinpäin. DP-standardin Adaptive sync oli alunperin tarkoitettu virransäästöominaisuudeksi näyttöihin, eikä pelejä sulavoittamaan.

Ei Nvidia tee noita featureita huvin vuoksi avoimiksi ellei niille ole jokin erityinen syy (esim Vulkanin RT-implementaatio on suurimmaksi osin Nvidia-insinöörien tekemä, koska Nvidian intresseissä on saada säteenseurantaa useampiin peleihin).

Eihän sen pitäisi tulla yllätyksenä että voittoa tavoitteleva firma luo innovaatioita joista se pystyy luomaan kilpailuetuja itselleen. AMD joutui siihen vastaamaan, ja lopulta voittajia ovat kuluttajien lisäksi sekä monitorivalmistajat että AMD ja Nvidia.

Tuolta on löytynyt jo pitkään mm. flicker free -sertifikaateilla varustettuja adaptive sync näyttöjä, josta löytyy kunnon refresh ratet yms. Jollekkin pelimassoista marginaaliselle ryhmälle jotka satsaa valtavasti rautaan, tuo G-sync on voinut olla hyvä juttu, niissä +144hz -näytöissä. Valtaosalle pelaajista ei, koska suurin osa ei käytä mitään 240hz -näyttöjä. Se että Adaptive sync / Freesync yleistyi lopulta, on parasta mitä pelimonitorimarkkinoille on pitkään aikaan tapahtunut, ja tuosta ei ansio mene Nvidialle, vaan päinvastoin, pitkään yrittivät ajaa omaa G-synciään, eivätkä edes sallineet Adaptive Synciä omille asiakkailleen.

Se Nvidian tarkoitus antaa g-sync sertifikaatti vain tietyille näytöille (flicker free yms.) oli ideana hyvä, mutta se olisi pitänyt perustua alusta asti avoimeen VRR-ratkaisuun. Lopulta Nvidia taipui, ja toi G-sync compatiblen (vai toiko näyttöjen valmistajat en tiedä) ja hyvä niin, mutta jo ennen tuota siellä on ollut täysin toimivia Freesync näyttöjä ja iät ja ajat. Joissain halvemmissa Freesync -näytöissä varmasti on ollut enemmän ongelmia.
Yksikään niistä ei ollut markkinoilla silloin kun G-sync julkaistiin. Siitähän tässä oli kyse. Et sä voi vertailla vuoden 2015-2016 näyttöjä huomattavasti uudempiin FreeSync näyttöihin, koska tekniikka liikkuu jatkuvasti eteenpään.

Häviävän pieni osa markkinoilla olleista FreeSync näytöistä edes sai G-sync Compatible tarran kylkeen kun tuo Compatible julkistettiin, koska valta-osa niistä markkinoilla olleista näytöistä oli täysin paskoja. Nykyään noita Compatible näyttöjä on huomattavasti enemmän, koska 1) tekniikka liikkuu eteenpäin 2) kuluttajat ovat entistä enemmän laatutietoisia 3) serttitarrat auttavat myynnissä.

Siis mistä hyötyivät AMD:n käyttäjät? G-sync compatiblestä? G-sync compatible perustuu ihan puhtaasti Adaptive Synciin siinä missä Freesync. Paremminkin voisi sanoa, että Adaptive syncistä hyötyi lopulta myös Nvidian käyttäjät.
AMD:n käyttäjät hyötyivät siitä että joku päätti ottaa laadun puheeksi ja kehitti sen takaavan sertifiointijärjestelmän. Sen olisi AMD hyvinkin voinut tehdä, mutta AMD:llä taisi olla tärkeämpää saada enemmän rasteja ruutuun kuin se että se ruuduissa olevat featuret on oikeasti toimivia.
 
Paras vitsi oli ne G-sync moduulin näytöt, jotka vaati tuulettimen, ja taitaa niitä vieläkin olla myynnissä.
Ei kai ne mitään vitsejä ole koska niissä on asic piiri sisällä joka optimoi overdrive säädöt fps/Hz mukaan, mihin ei mikään freesync/adaptive sync näyttö pysty. Siksi hintaa onkin ja jos haluaa parasta niin noilla näytöillä sitä saa vaikka joutuukin sitten maksamaan premiumista.
Itse kyllä olen tyytyväinen että Nvidia avasi tuon ns g-sync tuen myös asic-piirittömille näytöille, omakin on sellainen vaikka ei ole compatible leimaa saanut niin toimii mainiosti vrr.
 
Viimeksi muokattu:
Ei kai ne mitään vitsejä ole koska niissä on asic piiri sisällä joka optimoi overdrive säädöt fps/Hz mukaan, mihin ei mikään freesync/adaptive sync näyttö pysty. Siksi hintaa onkin ja jos haluaa parasta niin noilla näytöillä sitä saa vaikka joutuukin sitten maksamaan premiumista.
Itse kyllä olen tyytyväinen että Nvidia avasi tuon ns g-sync tuen myös asic-piirittömille näytöille, omakin on sellainen vaikka ei ole compatible leimaa saanut niin toimii mainiosti vrr.

Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.


Aika minimaalisia on ne ylivoimaiset "premium" fyytsörit ja on myös asioita jotka on sontaa verrattyna freesync näyttöön. Itte en ainakaan pysty mitenkään näkemään että g-syncillä saisi rahoilleen vastinetta kun paneelit on samat.
 
Häviävän pieni osa markkinoilla olleista FreeSync näytöistä edes sai G-sync Compatible tarran kylkeen kun tuo Compatible julkistettiin, koska valta-osa niistä markkinoilla olleista näytöistä oli täysin paskoja. Nykyään noita Compatible näyttöjä on huomattavasti enemmän, koska 1) tekniikka liikkuu eteenpäin 2) kuluttajat ovat entistä enemmän laatutietoisia 3) serttitarrat auttavat myynnissä.

Onko tarkkaa tietoa, mitä kaikkea tuohon Nvidian G-sync compatible sertifikaattiin vaaditaan? Nopealla googletuksella löysin vain ympäripyöreitä termejä laatutakeista. Joku Flickerfree on ollut peruskauraa jo pitkään (paitsi niissä paskoissa näytöissä), nopeasti googletettuna G-syncin syntyaikoihin markkinoilla pyörineissä hyvissä pelinäytöissä oli jo TUV-sertifikaatteja mm. Asuksella. Jotain muutakin tuohon G-sync -sertifikaattiin varmasti vaaditaan, mutta mitä? Joku tietty range VRR:ssä taisi ainakin olla.

Ei kai ne mitään vitsejä ole koska niissä on asic piiri sisällä joka optimoi overdrive säädöt fps/Hz mukaan, mihin ei mikään freesync/adaptive sync näyttö pysty. Siksi hintaa onkin ja jos haluaa parasta niin noilla näytöillä sitä saa vaikka joutuukin sitten maksamaan premiumista.

No joo hieman kärjistin, koska tuuletin näytön sisällä on minusta hieman koomista. Mutta okei, mitä tuo käytännössä tarkoittaa käyttäjälle? Eli mitä tuo ASIC pystyy tekemään mitä esim. Freesync Premium ei pysty pelikäytössä?
 
No joo hieman kärjistin, koska tuuletin näytön sisällä on minusta hieman koomista. Mutta okei, mitä tuo käytännössä tarkoittaa käyttäjälle? Eli mitä tuo ASIC pystyy tekemään mitä esim. Freesync Premium ei pysty pelikäytössä?
Tuosta käyttäjän @JiiPee jakamasta HUB:n videosta selviää mainiosti G-sync (asic) piirin edut. Mutta normaali käyttäjälle noi edut tuskin ovat hintansa arvoisia (tai riippuu kuinka kultasilmä on). Mutta jos saman näytön saisi aitona G-Sync versiona samaan hintaan kuin G-Sync compatiblen niin ei tarvitsisi paljoa miettiä, paitsi jos omistaa AMD:n näytönohjaimen.
Ja edelleen olen tyytyväinen että oma näyttöni toimii vrr:n suhteen Nvidian näytönohjaimella moitteettomasti omaan silmään vaikka ostaessa luvattiin vain Freesync 2 mainosteksteissä.
Edit. Ja en kyllä varmaan itsekkään ostaisi näyttöä jossa pieni tuuletin olisi pitämässä meteliä, mutta eikö niitä malleja ole myös ilman tuuletinta.
 
Viimeksi muokattu:
Onko tarkkaa tietoa, mitä kaikkea tuohon Nvidian G-sync compatible sertifikaattiin vaaditaan? Nopealla googletuksella löysin vain ympäripyöreitä termejä laatutakeista. Joku Flickerfree on ollut peruskauraa jo pitkään (paitsi niissä paskoissa näytöissä), nopeasti googletettuna G-syncin syntyaikoihin markkinoilla pyörineissä hyvissä pelinäytöissä oli jo TUV-sertifikaatteja mm. Asuksella. Jotain muutakin tuohon G-sync -sertifikaattiin varmasti vaaditaan, mutta mitä? Joku tietty range VRR:ssä taisi ainakin olla.

G-Sync Compatible Testing

If you want something that’ll fight screen tearing with your Nvidia graphics card right out of the box with satisfactory performance regardless of frame rates, official G-Sync Compatibility has its perks. To get why, it’s first important to understand what real Nvidia-certified G-Sync Compatibility is.

G-Sync Compatibility is a protocol within VESA’s DisplayPort 1.2 spec. That means it won’t work with HDMI connections (barring G-Sync Compatible TVs) or Nvidia cards older than the GTX 10-series. As you can see on Nvidia’s website, G-Sync Compatibility is available across a range of PC monitor brands, and even TVs (LG OLEDs, specifically) carry G-Sync Compatible certification.

Each monitor that gets the G-Sync Compatible stamp not only goes through the vendor’s own testing, as well as testing required to get its original Adaptive-Sync (most likely FreeSync) certification, but also Nvidia testing on multiple samples. Most monitors that apply for G-Sync Compatibility fail -- the success rate is under 10%, according to Nvidia’s Sharma. Earning the certification is about more than just being able to turn G-Sync on in the GeForce Experience app.

In May, Nvidia announced that only 28 (5.6%) of the 503 Adaptive-Sync monitors it tested for its G-Sync Compatibility program passed its tests. Apparently, 273 failed because their variable refresh rate (VRR) range wasn’t at least 2.4:1 (lowest refresh rate to highest refresh rate). At the time, Nvidia said this meant gamers were unlikely to get any of the benefits of VRR. Another 202 failed over image quality problems, such as flickering or blanking. “This could range in severity, from the monitor cutting out during gameplay (sure to get you killed in PvP MP games), to requiring power cycling and Control Panel changes every single time,” Nvidia explained. The remaining 33 monitors failed simply because they were no longer available.

“Some were okay, some were good, but many were just outright bad. And when I say bad, it's that the visual experience was very poor,” Sharma said. “And people would see things like extreme flicker in games, they’d see corruption on the stream, they've had difficulty enabling [VRR]. The supported VRR range would be really small.”

By January 2020, the G-Sync Compatible display count grew to 90 and is at 142 as of this writing.

Some of what Nvidia looks for when determining G-Sync Compatibility may be important to you too. Take the first thing Nvidia tests for: VRR range. In a G-Sync Compatible monitor, the maximum refresh rate of its VRR range divided by the lowest support refresh rate in the VRR must be 2.4 or higher. For example, a 120 Hz monitor should have a VRR range of 40-120 Hz (120 divided by 40 is 3, which is greater than 2.4. If the minimum range went up to 55 Hz, the quotient would be 2.2, which is higher than Nvidia’s 2.4 minimum).

“We're kind of sticklers on that because when you look at FPS output from games, it's variable,” Sharma said. “Very few games if any output consistently at a fixed rate … They vary all over the place, depending on how complex the scene is.”

With G-Sync Compatible certification, your monitor’s guaranteed to run Nvidia VRR at the monitor’s maximum refresh rate, but that’s not the case with non-certified monitors, and the issue’s even worse if the monitor’s overclocked.

There should also be no flickering, which happens when the monitor changes brightness levels at different refresh rates, a common characteristic of LCD panels, Sharma said. In our own testing, we’ve found that running G-Sync on a non-certified monitor sometimes results in a lot of flickering in windowed screens.

Nvidia also looks for “corruption artifacts,” according to the exec, and VRR must be enabled by default without having to go into the on-screen display (OSD) or any PC settings.

Of course, Nvidia also has testers take G-Sync Compatible prospects for a test drive, Nvidia will typically look at 2-3 samples typically per display but that number can also be as high as 6, depending on the screen and its “characteristics,” as Sharma put it. The process typically takes about 4 weeks for both existing and new monitors but that timeframe may have increased a bit of late, due to the pandemic (Nvidia’s certification process requires in-person testing).

Olennaiset kappaleet lihavoituna.
 
Ei kai ne mitään vitsejä ole koska niissä on asic piiri sisällä joka optimoi overdrive säädöt fps/Hz mukaan, mihin ei mikään freesync/adaptive sync näyttö pysty. Siksi hintaa onkin ja jos haluaa parasta niin noilla näytöillä sitä saa vaikka joutuukin sitten maksamaan premiumista.
Itse kyllä olen tyytyväinen että Nvidia avasi tuon ns g-sync tuen myös asic-piirittömille näytöille, omakin on sellainen vaikka ei ole compatible leimaa saanut niin toimii mainiosti vrr.
Mitenkään muuten keskusteluun osallistumatta siellä ei ole ASICia vaan ne ultimatetkin käyttää Intelin FPGA:ta (ohjehinta $500 tienoilla)
 
Kyllä se on täysin ok että peliin lisätään fyytsöreitä joita KAIKKI voi käyttää. Se ei ole ok että peliin lisätään fyytsöreitä joita VAIN tiettyyjen "premium" korttien omistajat voivat käyttää. Varsinkin kun ei ole mitään syytä että DLSS on VAIN tiettyjen "premium" korttien ominaisuus, muu kuin nvidian ahneus.

Se on sitten jokaisen itsensä valittavissa että haluaako kyseisiä kuvanpaskontatekniikoita käyttää, mutta jos tuolla nyt esim. oma Vega 56 saa elinvuosia lisää niin en valita. Nyt on varsin huono aika päivittää näytönohjainta koska hinnat ja se fakta että RT kehittyy huimalla vauhdilla, ollen ehkä parin kolmen vuoden päästä jo siinä pisteessä että sillä jotain tekeekin.

No mutta eihän tuotakaan nyt voi käyttää, kun kuvasta tulee "suttua". Eli on ihan turha, vai kuinka se menikään AMD fanipojilla sen DLSS 2.0:kin suhteen.

Onhan se parempi, kun DLSS 1.0 kuvan yleisen terävyyden suhteen, mutta siinäpä ne FSR:n meriitit onkin. Onhan juu helppo ottaa käyttöön ja tukea kaikkia laitteita, kun on alkeellinen ja yksinkertainen "PP-filtteri"

Onhan se vasta eka versio, mutta ei tuota voi varmaan hirveästi parantaa, ellei lähdetä temporaaliseen suuntaan seuraavan version kanssa. Hupsista kun lähteekin jalat alta sen todella helpon käyttöönoton kanssa siinä vaiheessa.

Toki on hyvä, että tulee edes jotain saataville, varsinkin konsolien näkökulmasta, vaikka tämä versio ei taida vielä konsoleilla toimia. Indie devaajat varsinkin varmasti ovat mielissään, kun löytyy suoraan joku bilineaarista upscalingia parempi tekniikka, ilman omaa isompaa panostusta.

DF:n video on ylivoisesti paras ja asiantuntevien näistä FSR:n arvioista kyllä.
 
FSR näyttää häviävän selvästi Unreal Engine 4:n omalle temporal upsample tekniikalle.

Saa nähdä tuleeko tuosta testistä uusintaversio. Ainakin redditin hardware kanavan postauksen kuvissa (käskyt mukana miten voi itse toistaa) aika vahva dof efekti katoaa samantien TAAU:ta käytettäessä.

Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.


""Digital Foundry made a critical mistake with their Kingshunt FSR Testing - TAAU apparently disables Depth of Field. Depth of Field causes the character model to look blurry even at Native settings (no upscaling)"

Digital Foundry made a critical mistake with their Kingshunt FSR Testing - TAAU apparently disables Depth of Field. Depth of Field causes the character model to look blurry even at Native settings (no upscaling)
 
No mutta eihän tuotakaan nyt voi käyttää, kun kuvasta tulee "suttua". Eli on ihan turha, vai kuinka se menikään AMD fanipojilla sen DLSS 2.0:kin suhteen.

Lähtökohta on se että kuvanpaskontaa ei käytetä. Mutta jos tuon avulla on lähitulevaisuudessa mahdollista skipata vaikka yksi geni näytönohjaimia, niin kyllä minä sen kortin olen valmis käyttämään. Perustelin jo miksi.
DLSS on saanut ja saa jatkossakin lokaa sen takia kun se ei TOIMI kuin pienellä määrällä näytönohjaimia ilman mitään pakottavaa syytä. Itse tekniikassa kun ei ole mitään sellaista joka nimenomaan estäisi sen toiminna vaikka GTX1080Ti:n kanssa. Se toimii ainoastaan RTX korteilla siitä syystä että nvidia yrittää pakottaa kaikki päivittämään korttinsa RTX:n. Eli käytännössä himoitsevat täyttä monopolia jonka ovat CUDA:n kanssa jo aikalailla saavuttanu datacenter puolella.
 
Se toimii ainoastaan RTX korteilla siitä syystä että nvidia yrittää pakottaa kaikki päivittämään korttinsa RTX:n. Eli käytännössä himoitsevat täyttä monopolia jonka ovat CUDA:n kanssa jo aikalailla saavuttanu datacenter puolella.

Mistäs revit tensor coret GTX kortteihin joita se DLSS hyödyntää?
 

Uusimmat viestit

Statistiikka

Viestiketjuista
297 766
Viestejä
5 077 151
Jäsenet
81 370
Uusin jäsen
Tompppeli

Hinta.fi

Back
Ylös Bottom