Mutta voittaako natiivin+terävöitysfiltteri maksimissa?Reddit - Dive into anything
www.reddit.com
4K:lla selkeä voitto DLSS:lle. Voittaa jopa natiivin laadussa.
Follow along with the video below to see how to install our site as a web app on your home screen.
Huomio: This feature may not be available in some browsers.
Mutta voittaako natiivin+terävöitysfiltteri maksimissa?Reddit - Dive into anything
www.reddit.com
4K:lla selkeä voitto DLSS:lle. Voittaa jopa natiivin laadussa.
Mihin viittaat?Mutta voittaako natiivin+terävöitysfiltteri maksimissa?
4K:lla selkeä voitto DLSS:lle. Voittaa jopa natiivin laadussa.
Katso noita kaukaisempia puita ja sähkölinjoja. DLSS näyttää jopa supersamplatulta, kun taas natiivi muuttuu puuroksi ja FSR taas ripuliksi.DLSS näyttää aliterävältä ja sumeammalta, kun taas sekä FSR että natiivi taas yliterävältä. Paras kuva olisi jossain noiden välimaastossa terävyyden suhteen, mutta DLSS tarjoaa jopa enemmän yksityiskohtia kuin natiivi, joka kyllä hieman outoa. En ole aiemmin nähnyt että DLSS lisää esim. puihin ja kasvustoon yksityiskohtia (oksiin ilmaantuu pidennystä jne.), vaan yleensä päinvastoin. Nämä käyttäjien kuvat on aivan yhtä tyhjän kanssa, kun on voitu käyttää ReShadea tai mitä tahansa vipstaakeja..
Nyt eletään vuotta 2021, ja vertailukohteina on DLSS 2.2 ja FSR 1.0. Jätetäänkö säteenseurantavertailut tekemättä koska Nvidialla on toinen geni menossa ja AMD:lla eka? Verrataanko volkkarin ensimmäistä täyssähköä vuoden 2011 Teslaan? No ei.DLSS on epäilemättä parempi kuin FSR, mutta löytyykö jotain pelikohtaisia ammattilaisten vertailuja? Hyvältä tuo FSR:kin näyttää siihen nähden, että tämä on AMD:n ''DLSS 1.0''. Nvidian ekat versiot oli aivan järkyttävää kuraa tähän verrattuna.
Nyt eletään vuotta 2021, ja vertailukohteina on DLSS 2.2 ja FSR 1.0.
Kyllä, ja eletään myös vuotta 2021 jossa verrataan jonkun keskiverto kyläläisen still-kuvia toisiinsa. Ja olihan siellä joku videokin, bitrateltaan jotain paskan ja omituisen paskan välimaastossa. Katsotaan kun saadaan lisää ammattilaisten materiaalia, tai vielä parempi kun itse testaa. Kuten kirjoitin, DLSS varmasti parempi kun otantaa on tarpeeksi, mutta tämä ei tietenkään sinulle riitä, vaan odotat jotain estotonta FSR:n dumaamista ja DLSS hehkuttamista....
Onhan se nyt hassua verrata stillejä, kun dlss toimii temporaalisesti. Millaiseksi sutuksi toi menee liikkeessä tai jos näkymän ohi liikkuu joku nopeahko kappale?
Argumentit tais loppua kesken.
Ei kukaan pelaa pelejä still kuvia katselemalla. Jos eroa ei huomaa paljaalla silmällä liikkeessä, niin sitä ei käytännössä ole olemassa sanoivat still kuvat mitä tahansa.
Argumentit tais loppua kesken.
Kyse on siitä että DLSS vetää kuvan sutuksi liikkeessä. Jos tuo sallitaan, niin amd:lta löytyy myös jotain ihan kauheita liikepohjaisia drs systeemejä joilla pilata kuva ja saada fps kuninkuus takaisin.Nyt kun sitten DLSS kääntää tämän päälaelleen niin keskitytäänkin sitten nopeassa liikkeessä tapahtuvaan arviointiin ja että "ei ole eroa käytännössä".
nVidian korttien kuvanlaatu oli muuten oikeasti aikoinaan niin suttuinen AMD:n tuotoksiin verrattuna, että sen näki ilman stillejäkin. Toki se on parantunut niistä ajoista, mutta en itse pidä still kuvia sopivana mihinkään peleihin liittyviin kuvanlaatuarvioihin, koska silmä ei reagoi pikkueroihin liikkeessä samalla tavalla kuin still kuviin.Silleensä tässä on taas tuon suhteen ollut takin kääntymistä ilmassa, kun perinteisestihän AMD:n korttien kuvanlaatua on sanottu paremmaksi ja sitä on tutkittu still-kuvista suurennuslasin kanssa että "pikselit on terävämpiä" ja nvidian kuvaa haukuttu suttuiseksi. Nyt kun sitten DLSS kääntää tämän päälaelleen niin keskitytäänkin sitten nopeassa liikkeessä tapahtuvaan arviointiin ja että "ei ole eroa käytännössä".
Itse arvostan edelleen periaatteellisesti sitä natiivikuvaa ja että kuva piirretään pikselintarkasti ja oikealla terävyydellä. Skaalauksia, terävöintejä ja muita kikkaviitosia laitetaan päälle vasta sitten kun FPS on aivan kelvottomissa lukemissa eikä asetu freesync-rangelle. Samalla periaatteella kuuntelen myös musiikkini mieluummin tarkoista studiomonitoreista kuin jostain maalailevista ja ääntä värittävistä "hifi"-kaiuttimista.
Onpas rumasti yliterävöitetty tuo dlss versio. Ihan luonnottoman näköinenJoissain peleissä DLSS jopa vähentää suttua.
Olisi toki hyvä jos kaikki kehittäjät laittaisivat DLSS:n terävöitys sliderin käyttäjien muokattavaksi, joissain peleissä DLSS:n terävöitys komponenttia voi säätää vapaasti.Onpas rumasti yliterävöitetty tuo dlss versio. Ihan luonnottoman näköinen
- Added Sharpening Slider – Developers can now add a slider to adjust sharpness, enabling users to make the image sharper or softer based on their own personal preferences.
Mitä ihme viivoja tossa native menee mustan reunan vieressäJoissain peleissä DLSS jopa vähentää suttua.
TAA:n aiheuttamaa ghosting efektiä liikkeessä.Mitä ihme viivoja tossa native menee mustan reunan vieressä
Onhan tuo DLSS tosiaan suuri parannus native verrattuna tässä kuvassaTAA:n aiheuttamaa ghosting efektiä liikkeessä.
Eli pystysuorat viivat on olleet myrkkyä DLSS:lle kun kamera liikkuu sivuttain, samaa tapahtuu myös vaakatason objekteihin kun liikutaan ylös/alas. 2.2 versiossa näitä pitäisi olla vähemmän, mutta ainakaan cyberpunkissa ei suurempaa eroa, kun siitä pelistä ei taida TAA:ta saada kytkettyä edes pois - Eli se peli artifactoi siitä huolimatta onko DLSS päällä vai ei.
Itse asiassa taisi olla että kyseisen pelin TAA piilotti niitä partikkeleita ja DLSS taas säilytti ne partikkelit mitkä näkyi ilman TAA:ta.Ja partikkelit tuntuu olevan edelleen tuon premium ominaisuuden ongelma, jota ei edelleenkään ole saatu kuriin. Vasta oli vertailukuvia ihan kuumimmalla hotilla premium versiolla jossa näkyi miten tämä premium ominaisuus taikoi hurjasti kuvaan lisää partikkeleita, kun taas pirkka ominaisuus kilpailijalta totteli kiltisti sitä mitä natiivi kuvassakin oli.
Heh, kaikenlaista huuhaata sitä taas levitellään.Ja partikkelit tuntuu olevan edelleen tuon premium ominaisuuden ongelma, jota ei edelleenkään ole saatu kuriin. Vasta oli vertailukuvia ihan kuumimmalla hotilla premium versiolla jossa näkyi miten tämä premium ominaisuus taikoi hurjasti kuvaan lisää partikkeleita, kun taas pirkka ominaisuus kilpailijalta totteli kiltisti sitä mitä natiivi kuvassakin oli.
Juuri näin. r/hardware - Comment by u/RearNutt on ”AMD FSR vs Nvidia DLSS: Same Games, Which is Better?”Itse asiassa taisi olla että kyseisen pelin TAA piilotti niitä partikkeleita ja DLSS taas säilytti ne partikkelit mitkä näkyi ilman TAA:ta.
Löytyykö täältä mielipiteitä aiheesta Nvidia vs. AMD Linuxilla, eli käytännössä ajureiden yms. suhteen? Pitäisi pingviinijurpona päivitellä näyttistä ja vaihtoehdot ovat käytännössä 6700XT ja 3060Ti. Tällä hetkellä koneessa on Nvidian 980Ti eivätkä poropietariajurit ole ihan hirveästi aiheuttaneet päänvaivaa (parissa pelissä ollut jotain epämääräistä ajureiden kaatuilua, jonka mutuilen johtuvan siitä että Nvidia tukee näin vanhoja kortteja vähän kehnommin, kuin uusia), mutta Mesan AMD-ajureita kehutaan laajasti.
Oma edellinen Linux-AMD -kokemus on vuodelta 2007 ja tuolloin mokomat eivät toimineet ollenkaan. Onko kellään kertoa kokemuksia tai pelottavia kauhutarinoita puolin tai toisin?
Suorituskyky näyttää tuon pohjalta aika hyvältä. Karvan 3070:stä kehnompi, mutta onhan tuo kortti jonkun verran halvempikin. Suorituskykyä enemmän mietityttää ajureiden vakaus, joka on historiallisesti ollut henkilökohtaisesti mulla ongelmana AMD:n kanssa. Viimeksi kun 2015 AMD-korttia käytin, tosin Windowsilla sillon, niin lähti palautukseen kun ajurit halusivat kaatua joka kerta, kun alt-tabasin pelistä Firefoxiin.AMD ajurit löytyy nykyisin suoraan kernelistä. AMD joutui jonkin verran tekemään töitä koodin siivoamista että ajurit kerneliin mukaan huolittiin että olettaisin niiden olevan varsin hyvällä mallilla.
Tuolla pikainen otanta mistä jotain suuntaa näkee myös suorituskyvystä. Positiivinen yllätys että suorituskykykin on saatu nyt sinne missä sen kuuluukin olla. Viimeeksi tainnu tsekata joskus 5000 sarjalaisten aikaan ja AMD oli jälessä.
Löytyykö täältä mielipiteitä aiheesta Nvidia vs. AMD Linuxilla, eli käytännössä ajureiden yms. suhteen? Pitäisi pingviinijurpona päivitellä näyttistä ja vaihtoehdot ovat käytännössä 6700XT ja 3060Ti. Tällä hetkellä koneessa on Nvidian 980Ti eivätkä poropietariajurit ole ihan hirveästi aiheuttaneet päänvaivaa (parissa pelissä ollut jotain epämääräistä ajureiden kaatuilua, jonka mutuilen johtuvan siitä että Nvidia tukee näin vanhoja kortteja vähän kehnommin, kuin uusia), mutta Mesan AMD-ajureita kehutaan laajasti.
Oma edellinen Linux-AMD -kokemus on vuodelta 2007 ja tuolloin mokomat eivät toimineet ollenkaan. Onko kellään kertoa kokemuksia tai pelottavia kauhutarinoita puolin tai toisin?
Jos suoraan sanotaan niin, jos tarvitset CUDAa, niin otat nVidian. Muussa tapauksessa unohdat että nVidia on olemassa ja otat AMD kortin suoraan.
Minulla on työkoneessa 3060 ja "hupikoneessa" 5700XT ja ero on kyllä ihan selvästi AMDn puolella.
Veikkauksia että onko 3dfx oikeasti tekemässä comebackin vai onko tää papa jensenin jotain viritelmiä?
Vai onko ihan vaan trolli
EDIT: Jaah hyvin trollilta kyllä haisee kun tarkemmin tutkii.
Trolli. nVidia omistaa tuon nimen ja kaiken sen aikoinaan kehittämän tekniikan eikä taatusti pykää itselleen kilpailijaa.
Igor ei ole mikään lukenut mies. Sehän testas lämpötyynyjä tässä hiljattain ja höpisi 50% alennetuista lämmöistä. Siis celsiusasteikolla, ymmärtämättä miten asteikko toimii ja miksei sillä asteikolla voida puhuta %-noususta tai laskuista.
Trolli. nVidia omistaa tuon nimen ja kaiken sen aikoinaan kehittämän tekniikan eikä taatusti pykää itselleen kilpailijaa.
Ei minunkaan mielestä, mutta se ei liity pointtiini. Mut hyvä heitto hei.Mielestäni siinä ei ole mitään väärää että Igor on paljastanut ettei premium korteissa ole premium padit.
Radeon Pro 580X with 8GB of GDDR5 memoryApplen piti tietenkin ampua vähän yli:
New AMD Radeon PRO W6000X Series GPUs Bring Groundbreaking High-Performance AMD RDNA 2 Architecture to Mac Pro
Hinta?
Näiden ostajat eivät hintaa kysele.
Kalleimman kohdalla tuskin pysytään nelinumeroisissa euro/dollarihinnoissa.
New AMD Radeon PRO W6000X Series GPUs Bring Groundbreaking High-Performance AMD RDNA 2 Architecture to Mac Pro
AMD today announced availability of the new AMD Radeon PRO W6000X series GPUs for Mac Pro. The new GPU product line delivers exceptional performance and incredible visual fidelity to power a wide variety of demanding professional applications and workloads, including 3D rendering, 8K video...www.techpowerup.com
MIten voi olla mahdollista, että W6800X Duo kortti olisi edullisempi kuin W6900X?Radeon Pro 580X with 8GB of GDDR5 memory
Radeon Pro W5500X with 8GB of GDDR6 memory+ $200.00
Radeon Pro W5700X with 16GB of GDDR6 memory+ $600.00
Two Radeon Pro W5700X with 16GB of GDDR6 memory each+ $1,600.00
Radeon Pro W6800X with 32GB of GDDR6 memory+ $2,400.00
Two Radeon Pro W6800X with 32GB of GDDR6 memory each+ $5,200.00
Radeon Pro W6900X with 32GB of GDDR6 memory+ $5,600.00
Two Radeon Pro W6900X with 32GB of GDDR6 memory each+ $11,600.00
Radeon Pro W6800X Duo with 64GB of GDDR6 memory+ $4,600.00
Two Radeon Pro W6800X Duo with 64GB of GDDR6 memory each+ $9,600.00
Kertoo varmaan enemmän siitä kuinka epätarkka tuo steamin systeemi on.Mielenkiintoista. Steam HW surveyn mukaan pelkästään 3090 lappuja on enemmän käytössä, kun koko RX6000 sarjaa yhteensä...
Kertoo varmaan enemmän siitä kuinka epätarkka tuo steamin systeemi on.
Tai sitten tiedostetaan että Steam survey on täynnä epäselvyyksiä ja siitä puuttuu kaikki läpinäkyvyys.Toisaalta mitään tarkempaa tilastoa ei ole olemassa niin tuolla mennään.
Veikkaampa että suurin kivi kengässä on toimitusvarmuus OEM maailmaa kiinnostavilla määrillä ja hinnoilla.AMD suurin ongelma näyttismyynnin kanssa on pidemmän aikaa ollut oikeastaan se, että AMD:llä on vaikea saada niitä valmiskoneisiin. Niissä on lähes poikkeuksetta Nvidian dGPU kortit, ainakin desktop-puolella, ja läppäripuolellakin Nvidian johto on massiivinen. Syitä siihen voidaan spekuloida lähes loputtomiin, mutta Radeonin huono maine ja olematon brändilisäarvo verrattuna Geforce-tarraan ovat varmasti osasyitä siihen. Erilliskorttien myynnissä AMD on onnistunut OEM-myyntiin verrattuna huomattavasti paremmin, niissä kun asiakkaat priorisoivat eri asioita kuin OEM:ien ostopäälliköt ja koneiden suunnittelijat.
edit: typo
Veikkaampa että suurin kivi kengässä on toimitusvarmuus OEM maailmaa kiinnostavilla määrillä ja hinnoilla.
Sillä se intelikin jyrää CPU maailmassa.
Jotain siellä AMD:llä kuitenkin tehdään oikein kun kurssia katsoo. Jos ei OEM puolella ole luottoa muka edelleenkään niin ilmeisesti sitten datacenter puolella on.
Mielenkiintoinen johtopäätös että siellä olisi käsijarru päällä (mitä ikinä se tarkoittaakaan) eikä esim. arkkitektuurillisesta eroista johtuva virrankulutusero. Amperestahan on tunnetusti vaikeaa saada kaikkea irti alhaisilla resoilla ja yksinkertaisilla kuomilla.
Mielenkiintoista myös huomata vsync virrankulutuksen noin 80w suuruiset pomppimiset 6800XT:llä. Aggressiivisten boostien syytä ehkä?