Virallinen: NVIDIA vs AMD (vs Intel) keskustelu- ja väittelyketju

  • Keskustelun aloittaja Keskustelun aloittaja Sampsa
  • Aloitettu Aloitettu
Löytyykö täältä mielipiteitä aiheesta Nvidia vs. AMD Linuxilla, eli käytännössä ajureiden yms. suhteen? Pitäisi pingviinijurpona päivitellä näyttistä ja vaihtoehdot ovat käytännössä 6700XT ja 3060Ti. Tällä hetkellä koneessa on Nvidian 980Ti eivätkä poropietariajurit ole ihan hirveästi aiheuttaneet päänvaivaa (parissa pelissä ollut jotain epämääräistä ajureiden kaatuilua, jonka mutuilen johtuvan siitä että Nvidia tukee näin vanhoja kortteja vähän kehnommin, kuin uusia), mutta Mesan AMD-ajureita kehutaan laajasti.

Oma edellinen Linux-AMD -kokemus on vuodelta 2007 ja tuolloin mokomat eivät toimineet ollenkaan. Onko kellään kertoa kokemuksia tai pelottavia kauhutarinoita puolin tai toisin?

AMD ajurit löytyy nykyisin suoraan kernelistä. AMD joutui jonkin verran tekemään töitä koodin siivoamista että ajurit kerneliin mukaan huolittiin että olettaisin niiden olevan varsin hyvällä mallilla.

Tuolla pikainen otanta mistä jotain suuntaa näkee myös suorituskyvystä. Positiivinen yllätys että suorituskykykin on saatu nyt sinne missä sen kuuluukin olla. Viimeeksi tainnu tsekata joskus 5000 sarjalaisten aikaan ja AMD oli jälessä.
 
AMD ajurit löytyy nykyisin suoraan kernelistä. AMD joutui jonkin verran tekemään töitä koodin siivoamista että ajurit kerneliin mukaan huolittiin että olettaisin niiden olevan varsin hyvällä mallilla.

Tuolla pikainen otanta mistä jotain suuntaa näkee myös suorituskyvystä. Positiivinen yllätys että suorituskykykin on saatu nyt sinne missä sen kuuluukin olla. Viimeeksi tainnu tsekata joskus 5000 sarjalaisten aikaan ja AMD oli jälessä.
Suorituskyky näyttää tuon pohjalta aika hyvältä. Karvan 3070:stä kehnompi, mutta onhan tuo kortti jonkun verran halvempikin. Suorituskykyä enemmän mietityttää ajureiden vakaus, joka on historiallisesti ollut henkilökohtaisesti mulla ongelmana AMD:n kanssa. Viimeksi kun 2015 AMD-korttia käytin, tosin Windowsilla sillon, niin lähti palautukseen kun ajurit halusivat kaatua joka kerta, kun alt-tabasin pelistä Firefoxiin.

Parilla kaverilla on ollut samantyylisiä ajuriongelmia punaisilla korteilla vielä ihan parin viime vuoden sisällä, mutta nekin olivat Windowsilla. Linux-ajureita monet väittävät todella hyviksi, monesti Windows-ajureita paremmiksikin, mutta nuo sitten taas ovat ties mitä Reddit-käyttäjien mielipiteitä. Suomalaiset mielipiteet ovat tunnetusti paljon luotettavampia. :)
 
@Latudor Nvidia-ajurit ovat toimivia esim. AI/ML käytössä. Ajurit tulee hakea distron omista repoista, koska ne on yleensä testattu toimiviksi käytössä olevan kernelversion kanssa ja tällöin välttää useimmat yhteensopivuusongelmat. Itse pyöritän yhdellä levyllä Manjaroa tensorflow/pytorch leikkimistä varten, ja mitään suurempia ongelmia ei ole tullut vastaan. Ongelmia tulee kyllä jos pitää pyörittää XWaylandia X11 legacy softia varten, koska Nvidia ei tue sitä virallisesti.

AMD ajurit ovat osa kerneliä, joka on lähtökohtaisesti parempi tapa hoitaa näitä asioita linuxpuolella. Ajurit ovat plug and play, ja ajuripaneelin puuttumista lukuunottamatta vähintään yhtä hyviä kuin Windows-puolella. OpenGL suorituskyky on huomattavasti parempaa kuin Windowsilla. Koko AMD:n ajuristackki meni remonttiin vuonna 2014-2015 ja tässä kohtaa sanoisin niiden olevan Linuxpuolella toimivampia kuin Nvidian, ja samaa tasoa Intelin kanssa.

Archin wiki on noille molemmille varmaan paras tukisivu.


tl;dr Jos ite ostaisin nimenomaan linuxpelaamista varten uutta korttia, ostaisin AMD:n.
 
Löytyykö täältä mielipiteitä aiheesta Nvidia vs. AMD Linuxilla, eli käytännössä ajureiden yms. suhteen? Pitäisi pingviinijurpona päivitellä näyttistä ja vaihtoehdot ovat käytännössä 6700XT ja 3060Ti. Tällä hetkellä koneessa on Nvidian 980Ti eivätkä poropietariajurit ole ihan hirveästi aiheuttaneet päänvaivaa (parissa pelissä ollut jotain epämääräistä ajureiden kaatuilua, jonka mutuilen johtuvan siitä että Nvidia tukee näin vanhoja kortteja vähän kehnommin, kuin uusia), mutta Mesan AMD-ajureita kehutaan laajasti.

Oma edellinen Linux-AMD -kokemus on vuodelta 2007 ja tuolloin mokomat eivät toimineet ollenkaan. Onko kellään kertoa kokemuksia tai pelottavia kauhutarinoita puolin tai toisin?

Jos suoraan sanotaan niin, jos tarvitset CUDAa, niin otat nVidian. Muussa tapauksessa unohdat että nVidia on olemassa ja otat AMD kortin suoraan.

Minulla on työkoneessa 3060 ja "hupikoneessa" 5700XT ja ero on kyllä ihan selvästi AMDn puolella.
 
Jos suoraan sanotaan niin, jos tarvitset CUDAa, niin otat nVidian. Muussa tapauksessa unohdat että nVidia on olemassa ja otat AMD kortin suoraan.

Minulla on työkoneessa 3060 ja "hupikoneessa" 5700XT ja ero on kyllä ihan selvästi AMDn puolella.

Ynnä jos linuxraudan arpomisessa on muuta jännää, niin level1tech on se paras lähde videomuodossa. Level1techillä on foorumikin. Sen lisäksi tuo mainittu tuo arch wiki on tekstiformatin suhteen parhaita infolähteitä (on muuten hyvä distro, ollut käytössä jostain 0.5 versiosta asti).

Pääpointit tulikin jo ylempänä. 6000 sarja ei tarvitse enää mitään pci reset kikkoja (vanhemmat amd:t tarvitsi) kvm käytössä, vaan on niin lähellä plug & playta, mitä se linuxissa voi olla ja ajuritkin toimii nätisti. Nvidialla on tosiaan se cuda, jos sitä tarvii, niin valinta on kyllä itsestäänselvä.
 
Veikkauksia että onko 3dfx oikeasti tekemässä comebackin vai onko tää papa jensenin jotain viritelmiä?

Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.


Vai onko ihan vaan trolli

EDIT: Jaah hyvin trollilta kyllä haisee kun tarkemmin tutkii.
 
Viimeksi muokattu:
Veikkauksia että onko 3dfx oikeasti tekemässä comebackin vai onko tää papa jensenin jotain viritelmiä?

Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.


Vai onko ihan vaan trolli

EDIT: Jaah hyvin trollilta kyllä haisee kun tarkemmin tutkii.

Trolli. nVidia omistaa tuon nimen ja kaiken sen aikoinaan kehittämän tekniikan eikä taatusti pykää itselleen kilpailijaa.
 
Trolli. nVidia omistaa tuon nimen ja kaiken sen aikoinaan kehittämän tekniikan eikä taatusti pykää itselleen kilpailijaa.

Jooh, Igor oli vaan tuosta uutisoinut niin sen takia itte osin nielaisin tuon. Ilmeisesti Igor tarttee clickbaittejä...
 
Igor ei ole mikään lukenut mies. Sehän testas lämpötyynyjä tässä hiljattain ja höpisi 50% alennetuista lämmöistä. Siis celsiusasteikolla, ymmärtämättä miten asteikko toimii ja miksei sillä asteikolla voida puhuta %-noususta tai laskuista.
 
Igor ei ole mikään lukenut mies. Sehän testas lämpötyynyjä tässä hiljattain ja höpisi 50% alennetuista lämmöistä. Siis celsiusasteikolla, ymmärtämättä miten asteikko toimii ja miksei sillä asteikolla voida puhuta %-noususta tai laskuista.

Mielestäni siinä ei ole mitään väärää että Igor on paljastanut ettei premium korteissa ole premium padit.
 
Trolli. nVidia omistaa tuon nimen ja kaiken sen aikoinaan kehittämän tekniikan eikä taatusti pykää itselleen kilpailijaa.

Se mitä olen lukenut, niin ei omista 3DFX:n nimeä. Nvidia osti suunnilleen kaiken 3dfx:n omistaman kuten patentit, laitokset/tekniikan, työntekijätkään ei tainneet kuulua diiliin (osa työntekijöistä meni ATI:lle kehittämään esim. crossfireä).

"SANTA CLARA, CA – DECEMBER 15, 2000 – NVIDIA® Corporation (Nasdaq: NVDA) today announced that it has signed a definitive agreement to acquire certain graphics related assets of 3dfx Interactive"

Ei toki tee tuosta "palaa takaisin" twitteristä yhtään vähemmän trollia. Teknisesti mahdollista se kuitenkin voisi olla.
 
Vielä tohon 3dfx-läppään liittyen - Igor on sellanen heppu että se linkittää kaikkea mitä netistä löytää ja pistää sen omalle sivulle disclaimerilla että "juu ottakaa hippusellinen suolaa ennen kuin luette ja plöpläpläp", ja sitten ku yksi kymmenestä osuu oikeaan niin toki silloin pitää mainita siitä että oltiin ekojen joukossa kertomassa asiasta. Niistä väärinmenneistä ei tartte muistuttaa ja jos muistuttaisi niin Igor ottaa disclaimerkortin taskusta. Rautatabloidia se pyörittää, ei varteenotettavaa julkaisua.

Igor vissiin uskoi toden teosta että 3dfx aloittaa toiminnan tyhjästä noin vain vaikka kaikki firman brändit ja IP:t on nykyään Nvidian taskussa. Ei siinä että twittertili on tehty samana kuukautena eikä sieltä ole tullut mitään muuta julki, eikä siinä ettei kys. firmaa ole mihinkään rekattu.

Näin uskoi näköjään myös tämän threadin yksi neropateista.

Mielestäni siinä ei ole mitään väärää että Igor on paljastanut ettei premium korteissa ole premium padit.
Ei minunkaan mielestä, mutta se ei liity pointtiini. Mut hyvä heitto hei.
 
Applen piti tietenkin ampua vähän yli:

New AMD Radeon PRO W6000X Series GPUs Bring Groundbreaking High-Performance AMD RDNA 2 Architecture to Mac Pro

1628004837688.png

Hinta?
Näiden ostajat eivät hintaa kysele.
Kalleimman kohdalla tuskin pysytään nelinumeroisissa euro/dollarihinnoissa.

 
Applen piti tietenkin ampua vähän yli:

New AMD Radeon PRO W6000X Series GPUs Bring Groundbreaking High-Performance AMD RDNA 2 Architecture to Mac Pro

1628004837688.png

Hinta?
Näiden ostajat eivät hintaa kysele.
Kalleimman kohdalla tuskin pysytään nelinumeroisissa euro/dollarihinnoissa.

Radeon Pro 580X with 8GB of GDDR5 memory
Radeon Pro W5500X with 8GB of GDDR6 memory+ $200.00
Radeon Pro W5700X with 16GB of GDDR6 memory+ $600.00
Two Radeon Pro W5700X with 16GB of GDDR6 memory each+ $1,600.00
Radeon Pro W6800X with 32GB of GDDR6 memory+ $2,400.00
Two Radeon Pro W6800X with 32GB of GDDR6 memory each+ $5,200.00
Radeon Pro W6900X with 32GB of GDDR6 memory+ $5,600.00
Two Radeon Pro W6900X with 32GB of GDDR6 memory each+ $11,600.00
Radeon Pro W6800X Duo with 64GB of GDDR6 memory+ $4,600.00
Two Radeon Pro W6800X Duo with 64GB of GDDR6 memory each+ $9,600.00
 
Radeon Pro 580X with 8GB of GDDR5 memory
Radeon Pro W5500X with 8GB of GDDR6 memory+ $200.00
Radeon Pro W5700X with 16GB of GDDR6 memory+ $600.00
Two Radeon Pro W5700X with 16GB of GDDR6 memory each+ $1,600.00
Radeon Pro W6800X with 32GB of GDDR6 memory+ $2,400.00
Two Radeon Pro W6800X with 32GB of GDDR6 memory each+ $5,200.00
Radeon Pro W6900X with 32GB of GDDR6 memory+ $5,600.00
Two Radeon Pro W6900X with 32GB of GDDR6 memory each+ $11,600.00
Radeon Pro W6800X Duo with 64GB of GDDR6 memory+ $4,600.00
Two Radeon Pro W6800X Duo with 64GB of GDDR6 memory each+ $9,600.00
MIten voi olla mahdollista, että W6800X Duo kortti olisi edullisempi kuin W6900X?
Tuplasti muistia, kaksi GPU:ta, 50% enemmän stream prosessoreita...
Mutta niinpä tuolla Applen sivulla sanotaan.
 
Juuh Steamin tilastot on äärimmäisen tarkat, toki niitä aina kaikki yläasteen matikalla liikenteessä olevat kritisoi kun "ei ole mulle eikä naapurin Eskolle ikinä tullut sitä kyselyä!". Ihan samalla tavalla Maikkari pystyy arvioimaan kuinka monta katsojaa Salkkareilla oli viime viikon tiistaina vaikkei kukaan minullekaan soittanut katsoinko vai en.
 
Toisaalta mitään tarkempaa tilastoa ei ole olemassa niin tuolla mennään.
Tai sitten tiedostetaan että Steam survey on täynnä epäselvyyksiä ja siitä puuttuu kaikki läpinäkyvyys.
Se nyt on ihan selvä että kun NVIDIA toimittaa 4:1 vrt AMD, ei Steamin väittämä 14:1 ero Ampere vs RDNA2 välillä voi pitää paikkaansa, etenkin kun se on nimenomaan NVIDIA jonka kortteja menee enemmän muuhunkin käyttöön
 
Steam Surveylla on ongelmia tunnistaa noita RDNA2-kortteja. Veikkaan että osa niistä tunnistautuu nimikkeellä "AMD Radeon HD 8800 Series". Saman huomaa macOS-puolella missä M1-GPU:t näkyy samalla nimikkeellä nekin. En tiedä tarkoittaa toi nyt sitä että väärin tunnistunut kortti on aina "AMD Radeon HD 8800 Series" vai että tämä bugi koskee vain tiettyjä kortteja.

Se käy ilmi katsomalla "AMD Radeon HD 8800 series" korttien osuuden nousua viime kuukausien aikana (maalikuusta heinäkuuhun 0.46% -> 0,51% -> 0,58% -> 0,62% -> 0,70%).

Jos tuo 0,70% lisätään kylmästi tuohon artikkelissa listattujen RDNA2-korttien osuuteen (yhteensä 0,34%), ollaan 1,04%:ssa vastaan Amperen 3,98%, joka kuulostaa huomattavasti realistisemmalta ottaen huomioon esim. JPR:n markkina-osuusanalyysit ja niiden tulokset, jossa Nvidia toimitti 81% dGPUista Q1 2021, ja AMD taas loput 19%.

Tuo 3,98% vs 1,04% on markkina-osuuksiksi (tai tarkemmin sanottuna Amperen ja RDNA2:n väliseksi suhteeksi) konvertoituna Amperen osalta (3,98/5,02) = 79,28% ja RDNA2 osalta 20,72%.

Se, onko noi kaikki "AMD Radeon HD 8800 Series" kortit sitten oikeasti RDNA2 kortteja, ei tiedetä varmuudella, mutta itse uskon näin olevan. Huhtikuun datassa näkyy kaksi eri "AMD Radeon HD 8800 Series" nimikkeellä olevaa datapointtia joista ensimmäinen on esiintynyt ensimmäistä kertaa tammikuussa ja nousee jatkuvasti, toinen taas laskee ja on listan hännillä. Lienee selvää että se eka näistä on RDNA2 ja toinen sitten ne oikeat 8800 Series näyttikset (jotka julkaistiin alunperin vuonna 2013 OEM:lle)

-----------------------

Mitä nyt tulee tuohon yleiseen markkinatilanteeseen, niin tässä mun mietteitä siitä:

AMD suurin ongelma näyttismyynnin kanssa on pidemmän aikaa ollut oikeastaan se, että AMD:llä on vaikea saada niitä valmiskoneisiin. Niissä on lähes poikkeuksetta Nvidian dGPU kortit, ainakin desktop-puolella, ja läppäripuolellakin Nvidian johto on massiivinen. Syitä siihen voidaan spekuloida lähes loputtomiin, mutta Radeonin huono maine ja olematon brändilisäarvo verrattuna Geforce-tarraan ovat varmasti osasyitä siihen. Erilliskorttien myynnissä AMD on onnistunut OEM-myyntiin verrattuna huomattavasti paremmin, niissä kun asiakkaat priorisoivat eri asioita kuin OEM:ien ostopäälliköt ja koneiden suunnittelijat.

edit: typo
 
Viimeksi muokattu:
AMD suurin ongelma näyttismyynnin kanssa on pidemmän aikaa ollut oikeastaan se, että AMD:llä on vaikea saada niitä valmiskoneisiin. Niissä on lähes poikkeuksetta Nvidian dGPU kortit, ainakin desktop-puolella, ja läppäripuolellakin Nvidian johto on massiivinen. Syitä siihen voidaan spekuloida lähes loputtomiin, mutta Radeonin huono maine ja olematon brändilisäarvo verrattuna Geforce-tarraan ovat varmasti osasyitä siihen. Erilliskorttien myynnissä AMD on onnistunut OEM-myyntiin verrattuna huomattavasti paremmin, niissä kun asiakkaat priorisoivat eri asioita kuin OEM:ien ostopäälliköt ja koneiden suunnittelijat.

edit: typo
Veikkaampa että suurin kivi kengässä on toimitusvarmuus OEM maailmaa kiinnostavilla määrillä ja hinnoilla.

Sillä se intelikin jyrää CPU maailmassa.
 
Veikkaampa että suurin kivi kengässä on toimitusvarmuus OEM maailmaa kiinnostavilla määrillä ja hinnoilla.

Sillä se intelikin jyrää CPU maailmassa.

Jotain siellä AMD:llä kuitenkin tehdään oikein kun kurssia katsoo. Jos ei OEM puolella ole luottoa muka edelleenkään niin ilmeisesti sitten datacenter puolella on.
Hyvä vaan ettei osakemarkkinoilla mistään steam surveystä vedellä johtopäätöksiä, jos vedeltäisiin niin kurssi sakkaisi pahasti. :)

Se on selvää että AMD ei pysty nyt valmistamaan niin paljon rojua mitä myyntiin menisi, mutta silloin kun AMD on TSMC:ltä allokointia tehnyt niin ei varmasti kukaan osannut olettaa että kysyntä olisi kyltymätöntä. Allokoinnin lisääminen taas hetkessä ei ole mahdollista koska TSMC:n kapasiteetti on kokonaan käytössä. Niinsanotussa normaalissa tilanteessahan ei yleensä ihan koko kapasiteetti ole käytössä, jolloin voidaan huoltoja suunnitella paremmin ja voidaan myös reagoida nopeammin joihinkin hetkellisiin kysyntä piikkeihin.
 
Jotain siellä AMD:llä kuitenkin tehdään oikein kun kurssia katsoo. Jos ei OEM puolella ole luottoa muka edelleenkään niin ilmeisesti sitten datacenter puolella on.

Konesalipuolella on hauska epäpyhä kombinaatio. Nvidian dgx a100 koneissa on amd:n cpu:t mukana. Edellisissä dgx myllyissä oli intelin cpu:t. Toki AMD on pärjännyt myös omillansa kuten ne uudet supertietokoneet todistavat. Ne ovat amd:n gpu:lla ja cpu:lla.

 
Mielenkiintoinen johtopäätös että siellä olisi käsijarru päällä (mitä ikinä se tarkoittaakaan) eikä esim. arkkitektuurillisesta eroista johtuva virrankulutusero. Amperestahan on tunnetusti vaikeaa saada kaikkea irti alhaisilla resoilla ja yksinkertaisilla kuomilla.

Mielenkiintoista myös huomata vsync virrankulutuksen noin 80w suuruiset pomppimiset 6800XT:llä. Aggressiivisten boostien syytä ehkä?

Muistelin että nvidia on rinkulan pyörittelyä rajoittanut aiemminkin, mutta ilmeisesti toi on vain kyseisen 3080Ti:n ongelma koska ZOTAC GeForce RTX 3090 AMP Extreme Holo käppyrä näyttää ihan toisenlaiselta

power-consumption.png


Ja tuota radeoneitten vsync sahaamista itsekin ihmettelen. Todennäköisesti jostain agressiivisesta boostailustahan siinä on kyse, varmaan AMD:n kannattaisi hiukan tutkia tuota koska näyttää varsin rumalta myös kulutuksen puoleen kun tolleen sahaa vaikka ei varmasti tarttis sahata. Tuo sahaaminen tuntuu toistuvan ihan kaikilla 6000 sarjalaisilla eli se ei ole mikään tietyn kortin ongelma vaan kaikkien rdna2 korttien ongelma. Taino, ei se varmaan sinäänsä ongelma ole jos frametime on flatti, mutta kyllähän tuolla sahauksella turhaan virtaa poltetaan.

EDIT: Niin ja RDNA2 julkasun aikaan oli kova kulutus idlessä ja video decoodauksessa, sen ne sai korjattua keväällä.
 
FSR saattaa vaipua nopeasti unholaan, mikäli XeSS on oikeasti käytettävissä täysimääräisesti kaikkien valmistajien GPU:lla (niiden ominaisuuksien salliessa).

Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.
 
FSR saattaa vaipua nopeasti unholaan, mikäli XeSS on oikeasti käytettävissä täysimääräisesti kaikkien valmistajien GPU:lla (niiden ominaisuuksien salliessa).

Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.

Vain DP4A:ta tukevilla. NVIDIAlla tuki on tainnut olla jo pidempään, mutta AMD lisäsi tuen mukaan vasta kesken RDNA1-sukupolven (ts Navi10 ei tue, muut tukee) ((vai olikohan se että toimii millä vaan mutta hyödyntää RPM:ää (rapid packed math) vain Navi1x:stä eteenpäin, poislukien Navi10))
 
FSR saattaa vaipua nopeasti unholaan, mikäli XeSS on oikeasti käytettävissä täysimääräisesti kaikkien valmistajien GPU:lla (niiden ominaisuuksien salliessa).

Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.


En laittaisi liikaa painoa parin sekunnin pätkälle yhdestä pelistä. Kuvanlaatu muissa tilanteissa voi olla aika paljon huonompi, voi olla artifakteja jne.
 
Kilpailu on hieno asia. UE5:ssa on TSR sisäänleivottuna, nvidian DLSS2 pluginina ja nyt tuo intelin XeSS. Ja tietenkin amd:n FSR, joka tosin toimii ihan eri tavalla kuin nuo edellämainitut kuvanhuonontajat.

Mielenkiinnolla odotan, että onnistuuko joku saamaan kuvanhuonontajan sellaiseen kuntoon, että hyvin harva enää pitää kuvanhuononnuksen määrää suhteessa parannettuun suorituskykyyn muuna kuin voittona. Aina pitäisi muistaa ottaa huomioon suorituskyky ja se miltä peli näyttää liikkeessä 99%+ ajasta. Pysäytyskuviin tai hyvin harvoin tapahtuviin artifaktoihin ei ehkä kannata muiden kuin puristien tarttua. Osa pelaa pelejä, osa pelaa zoomattuja pysäytyskuvia internet-forumilla. Rikkaat tietenkin ostavat tykeimmän gpu:n ja eivät tarvi kompromisseja.
 
Viimeksi muokattu:
En laittaisi liikaa painoa parin sekunnin pätkälle yhdestä pelistä. Kuvanlaatu muissa tilanteissa voi olla aika paljon huonompi, voi olla artifakteja jne.

Kaikissa skaalaustekniikoissa on jotain artifakteja tai luontaisia heikkouksia.
Intel luonnollisesti esittelee best-casea kuten kaikki muutkin tahot.

Avoin, FSR:ää kehittyneempi skaalaustekniikka on hyvinkin tervetullut. FSR on korkeimmalla laatuasetuksella yleisesti hyvä siihen nähden mitä se on, muttei se laadussa pärjää viimeisimmille DLSS iteraatioille.
Avoin tekniikka, joka olisi FSR:ää parempi olisi kaikkien kannalta etu, myös silloin vaikka se jäisi DLSS:lle jollain tai kaikilla osa-alueilla.

Intelillä on myös aika paljon lihasta (HR & IMR) heittää tuohon ominaisuuteen, mikäli niin halutaan.
 
Nuo intelin promokuvat XeSS:n toiminnasta saa ottaa kilon suolapalan kanssa. Kuka muistaa nvidian DLSS promot ja millaista vaseliinia silmille ne pelit sitten olivatkin. Sitten vielä tähän lisäksi intelin yleinen paskuus ohjelmistoissa ja ajureissa jne.
 
Nuo intelin promokuvat XeSS:n toiminnasta saa ottaa kilon suolapalan kanssa. Kuka muistaa nvidian DLSS promot ja millaista vaseliinia silmille ne pelit sitten olivatkin. Sitten vielä tähän lisäksi intelin yleinen paskuus ohjelmistoissa ja ajureissa jne.
Mikä ihmeen yleinen paskuus ohjelmistoissa ja ajureissa jne? Tarkoitatko nyt sitä kun pelit bugaavat ehkä vähän AMD:ta ja NVIDIAa useammin Intelin vanhemmilla integroiduilla, joita ei edes käytännössä oltu tarkoitettu pelaamiseen?
 
Mikä ihmeen yleinen paskuus ohjelmistoissa ja ajureissa jne? Tarkoitatko nyt sitä kun pelit bugaavat ehkä vähän AMD:ta ja NVIDIAa useammin Intelin vanhemmilla integroiduilla, joita ei edes käytännössä oltu tarkoitettu pelaamiseen?
Paljon ollut huonoja kokemuksia intelin tuotteiden kanssa tässä ajan saatossa. Esimerkkinä intel LAN ajurien kanssa. Intelin ohjelmisto bugaa kesken asennuksen eikä sen jälkeen suostu asentumaan, ei muka ollut intel tuotetta koneessa. Sittenhän se nähdään kun intel saa korttinsa myyntiin..
 
Kilpailu on hieno asia. UE5:ssa on TSR sisäänleivottuna, nvidian DLSS2 pluginina ja nyt tuo intelin XeSS. Ja tietenkin amd:n FSR, joka tosin toimii ihan eri tavalla kuin nuo edellämainitut kuvanhuonontajat.

Mielenkiinnolla odotan, että onnistuuko joku saamaan kuvanhuonontajan sellaiseen kuntoon, että hyvin harva enää pitää kuvanhuononnuksen määrää suhteessa parannettuun suorituskykyyn muuna kuin voittona. Aina pitäisi muistaa ottaa huomioon suorituskyky ja se miltä peli näyttää liikkeessä 99%+ ajasta. Pysäytyskuviin tai hyvin harvoin tapahtuviin artifaktoihin ei ehkä kannata muiden kuin puristien tarttua. Osa pelaa pelejä, osa pelaa zoomattuja pysäytyskuvia internet-forumilla. Rikkaat tietenkin ostavat tykeimmän gpu:n ja eivät tarvi kompromisseja.
Kyllähän tarvii tehdä kompromisseja. Kun halu on jo 120 fps 4k ultra+rt tasainen framerate. En ole rikas, mutta harrastukset maksaa. Heh.

Itse asiaan, eipä tossa 4k 120 fps ihan hirveästi häiritse joku satunnainen härö. Korkea reso ja fps pehmentää paremmin kuin luulisi.
 
Kyllähän tarvii tehdä kompromisseja. Kun halu on jo 120 fps 4k ultra+rt tasainen framerate. En ole rikas, mutta harrastukset maksaa. Heh.

Itse asiaan, eipä tossa 4k 120 fps ihan hirveästi häiritse joku satunnainen härö. Korkea reso ja fps pehmentää paremmin kuin luulisi.

4k 120fps on kyllä tiukka tavoite säteenseurannan kera. Ehkä next gen:ssa luojan vuonna 2022 onnistuu paremmin ilman dlss/tsr/fsr/XeSS settiä. Ainakin rdna3+chiplet huhut luovat vahvoja mielikuvia mahdollisesta suorituskyvystä. Pinkka saa olla kyllä ostajalla kunnossa, jos huhujen mukaiset gpu:t tulevat markkinoille. Voi olla huippumallien hinnat 2ke+ alkaen. Tosi ei siinä mitään vikaa minusta ole. Myydäänhän niitä ferrarejakin vaikka useimmille riittää toyota.
 
Itse toivon tältä Intel dlss tekniikalta laatua nimen omaan tuonne 1080p ja 1440p resoihin raytracingin kanssa. FSR on 4k ja laadukkailla asetuksilla riittävän hyvä, mutta alhaisemmilla resoilla (varsinkin 1080p) tarvitsisi paljon lisää.

Tai tietty enemmän ja paremmin on tietty aina tavoitteena, mutta ei kuuta taivaalta tarvitse välttämättä kerralla saada.

Vähän vaan saatavuusongelmat komponenteilla arveluttaa, kun samasta säkistä Intel näitä repii kun ei ole omilla tehtailla tehtäviä.
 
Esimerkkinä intel LAN ajurien kanssa.

Toissapäivänä jouduin huomaamaan että Intel Wireless-AC 9560 ei mitenkään välttämättä pelaa yhteen wifi6-tukiasemien kanssa. Ongelma on luokkaa, että muutkin laitteet lakkaa toimimasta kunnolla, ja tuota esiintyy muillakin kuin mulla. Uusin ajuri asennettu ja ei vaan toimi.
 
En laittaisi liikaa painoa parin sekunnin pätkälle yhdestä pelistä. Kuvanlaatu muissa tilanteissa voi olla aika paljon huonompi, voi olla artifakteja jne.

No toi viteo oli ainakin oman katselun aikaan piilotettu, eli ei ilmeisesti edes tarkoitettu pelituolikenraalien katseltavaksi. Videolla myös kerrottiin että Intelillä on vertailuvideoita tarjolla suoralla latauksella ilman pakkaus hävikkejä. Edelleen ne videot on tuskin pelituolikenraalien ladattavissa.
 
Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.
 
4k 120fps on kyllä tiukka tavoite säteenseurannan kera. Ehkä next gen:ssa luojan vuonna 2022 onnistuu paremmin ilman dlss/tsr/fsr/XeSS settiä. Ainakin rdna3+chiplet huhut luovat vahvoja mielikuvia mahdollisesta suorituskyvystä. Pinkka saa olla kyllä ostajalla kunnossa, jos huhujen mukaiset gpu:t tulevat markkinoille. Voi olla huippumallien hinnat 2ke+ alkaen. Tosi ei siinä mitään vikaa minusta ole. Myydäänhän niitä ferrarejakin vaikka useimmille riittää toyota.
Jos rehellisiä ollaan, niin vauhdikkaammissa peleissä, joissa 120 fps merkkaa oikeasti (fps, ajopelit, etc.), ei detailitaso liikkeessä oo niin justiinsa. Eri asia sitten joku rdr2 tms, jossa liike on vähän hitaampaa ja katse ohjautuu automaattisesti maisemiin.

Aika hyvän 4k-kokemuksen saa jo nyt rtx 3080;llä.
 
Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.

Ihan ok:lta tuo näyttää, vaikka natiivi onkin huomattavasti paremman näköinen etenkin mitä tulee reunoihin ja shimmeröinnin määrään. Esim tuo alempi, kaareve putki kohdassa 1:03 pukkaa sahalaitaa XeSS:llä kun taas natiivi on huomattavasti smuutimpi. XeSS vaikuttaisi myös yliterävöittävän tekstuureja aika roimasti joka johtaa tuollaiseen yleiseen rakeisuuteen. Toivottavasti Intel saa parannettua tuota julkaisuun.

Kannattaa muistaa että lähin vertauskohta on DLSS Performance, eikä suinkaan DLSS Quality joka usein onnistuu jopa voittamaan natiivin kuvanlaadussa.
 
Kannattaa muistaa että lähin vertauskohta on DLSS Performance, eikä suinkaan DLSS Quality joka usein onnistuu jopa voittamaan natiivin kuvanlaadussa.

Annatko sellaisen pelin, jossa DLSS Quality voittaa natiivin kuvanlaadussa, vai rölläätkö vaan? Oletko RDR2 DLSS kokeillut?

Ihan ok:lta tuo näyttää, vaikka natiivi onkin huomattavasti paremman näköinen etenkin mitä tulee reunoihin ja shimmeröinnin määrään.

Tämä kommenttisi pätee täysin RDR2 DLSS Qualityyn kun olen nyt enemmän pelaillut. Shimmeröinti jatkuvaa, esineitä esim. korttipöydässä katosi kesken kaiken(?!), natiivina ei kadonnut, junaraiteet shimmeröi ja puuroutuu, puut ja maasto shimmeröi, turkit ja ihmisten karvoitus ei piirry läheskään kuten natiivissa jne. Annappa joku peli jossa voin todentaa, että DLSS pääsisi edes LÄHELLE natiivia?

Ja RDR2 suorituskyky boosti on vaatimaton. Ainoa missä DLSS jokseenkin RDR2 ajaa asiansa, on TAA:n ja MSAA:n korvaamisessa. Mutta se ilmeisesti sitten maksaa juuri suorituskyvyssä, jonka myötä boosti DLSS ON on vain 5-20fps. Vai mistä lie johtuu..
 
Annatko sellaisen pelin, jossa DLSS Quality voittaa natiivin kuvanlaadussa, vai rölläätkö vaan? Oletko RDR2 DLSS kokeillut?



Tämä kommenttisi pätee täysin RDR2 DLSS Qualityyn kun olen nyt enemmän pelaillut. Shimmeröinti jatkuvaa, esineitä esim. korttipöydässä katosi kesken kaiken(?!), natiivina ei kadonnut, junaraiteet shimmeröi ja puuroutuu, puut ja maasto shimmeröi, turkit ja ihmisten karvoitus ei piirry läheskään kuten natiivissa jne. Annappa joku peli jossa voin todentaa, että DLSS pääsisi edes LÄHELLE natiivia?

Ja RDR2 suorituskyky boosti on vaatimaton. Ainoa missä DLSS jokseenkin RDR2 ajaa asiansa, on TAA:n ja MSAA:n korvaamisessa. Mutta se ilmeisesti sitten maksaa juuri suorituskyvyssä, jonka myötä boosti DLSS ON on vain 5-20fps. Vai mistä lie johtuu..

Esim. Chernobylite näyttää yksityiskohtien puolesta natiivia paremmalta, mahdollisista haittavaikutuksista tuon tapauksessa ei vastaavasti ole kyllä tietoa.
 
Annatko sellaisen pelin, jossa DLSS Quality voittaa natiivin kuvanlaadussa, vai rölläätkö vaan? Oletko RDR2 DLSS kokeillut?



Tämä kommenttisi pätee täysin RDR2 DLSS Qualityyn kun olen nyt enemmän pelaillut. Shimmeröinti jatkuvaa, esineitä esim. korttipöydässä katosi kesken kaiken(?!), natiivina ei kadonnut, junaraiteet shimmeröi ja puuroutuu, puut ja maasto shimmeröi, turkit ja ihmisten karvoitus ei piirry läheskään kuten natiivissa jne. Annappa joku peli jossa voin todentaa, että DLSS pääsisi edes LÄHELLE natiivia?

Ja RDR2 suorituskyky boosti on vaatimaton. Ainoa missä DLSS jokseenkin RDR2 ajaa asiansa, on TAA:n ja MSAA:n korvaamisessa. Mutta se ilmeisesti sitten maksaa juuri suorituskyvyssä, jonka myötä boosti DLSS ON on vain 5-20fps. Vai mistä lie johtuu..

Tämä taas kuulostaa sille, että et ole itse missään muussa pelissä edes kokeillut DLSS:ää. RDR2 varmaan yksi paskimpia DLSS implementaatioita.
 
Annatko sellaisen pelin, jossa DLSS Quality voittaa natiivin kuvanlaadussa, vai rölläätkö vaan?

Aina löytyy kohtia joissa DLSS Quality on huonompi kuin natiivi 4K, mutta usein löytyy myös kohtia joissa DLSS Quality on parempi. Yleensä tämä johtuu siitä, että pelin oma TAA-implementaatio ei ole ihan parasta A-luokkaa, ja DLSS yleensä korvaa tuon TAA:n.

Muutama esimerkki hyvistä DLSS-implementaatioista: Metro Exodus Enhanced Edition, Cyberpunk 2077, Control, Mechwarrior 5 Mercenaries ja Watch Dogs Legion.

Näissä jokaisessa DLSS Quality on _paikoittain_ parempi kuin natiivi 4K, mutta ei aina. Ihan hyvä suoritus, kun ottaa huomioon 2560x1440 renderöintiresoluution, ja vielä parempi kun vertaa vastaavan suorituskyvyn tarjoavaan perinteisesti skaalattuun resoluutioon, joka on sitten jo melko järkyttävää katsottavaa.

RDR2:ssa on poikkeuksellisen matala nopeusetu, tyypillisesti FPS nousee paljon enemmän.

ennenwanhaan kuvan huononnuksia kutsuttiiin huijaukseksi. nyt ne on ihanaa

Jos epäilijät vertaisi DLSS:ää natiivin sijaan perinteisesti skaalattuun resoluutioon jolla saadaan sama suorituskyky, niin hyödyt rupeaisi olemaan heillekin selvempiä.
 
Tässäpä esimerkiksi video Death Strandingistä, jossa 4K natiiviresolla rampissa näkyy shimmeriä ja moirea, mutta DLSS Quality 2560x1440 näyttää saman kohdan paljon nätimmin.

Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.



Jos näyttölaitteesi on pienempiresoluutioinen videon vertailu saattaa vääristyä.
 
Niinhän sitä on nyt menty toista sukupolvea konsoleilla aika pitkälti nyt

Olisiko parempi vetää vain natiivi 4K ja 15fps? Vai olisiko kuitenkin checkerboard rendering, DLSS ja kumppanit parannuksia vanhempiin skaalaustekniikoihin verrattuna, kun skaalata joka tapauksessa täytyy jos halutaan pitää ruudunpäivitysnopeus kelvollisena? Pelaako natiivi-4K-huutelijat aina pelinsä surkealla ruudunpäivitysnopeudella tai karsituilla grafiikoilla?
 
Viimeksi muokattu:
Olisiko parempi vetää vain natiivi 4K ja 15fps? Vai olisiko kuitenkin checkerboard rendering ja DLSS parannuksia vanhempiin skaalaustekniikoihin verrattuna, kun skaalata joka tapauksessa täytyy jos halutaan pitää ruudunpäivitysnopeus kelvollisena?
Ihmettelen vain miksi PC puolella tästä moni vetää herneen nenään ja varsinkin kun se on yleensä itse päätettävissä haluaako sitä käyttää vai ei
 

Statistiikka

Viestiketjuista
297 749
Viestejä
5 076 701
Jäsenet
81 368
Uusin jäsen
Mkama

Hinta.fi

Back
Ylös Bottom