Virallinen: NVIDIA vs AMD (vs Intel) keskustelu- ja väittelyketju

  • Keskustelun aloittaja Keskustelun aloittaja Sampsa
  • Aloitettu Aloitettu
4K:lla selkeä voitto DLSS:lle. Voittaa jopa natiivin laadussa.

DLSS näyttää aliterävältä ja sumeammalta, kun taas sekä FSR että natiivi taas yliterävältä. Paras kuva olisi jossain noiden välimaastossa terävyyden suhteen, mutta DLSS tarjoaa jopa enemmän yksityiskohtia kuin natiivi, joka kyllä hieman outoa. En ole aiemmin nähnyt että DLSS lisää esim. puihin ja kasvustoon yksityiskohtia (oksiin ilmaantuu pidennystä jne.), vaan yleensä päinvastoin. Mutta kai tuo on normaalia. Noin muuten, nämä käyttäjien kuvat on aivan yhtä tyhjän kanssa, kun on voitu käyttää ReShadea tai mitä tahansa vipstaakeja oman agendansa pönkittämiseksi..

DLSS on epäilemättä parempi kuin FSR, mutta löytyykö jotain pelikohtaisia ammattilaisten vertailuja? Hyvältä tuo FSR:kin näyttää siihen nähden, että tämä on AMD:n ''DLSS 1.0''. Nvidian ekat versiot oli aivan järkyttävää kuraa tähän verrattuna.
 
DLSS näyttää aliterävältä ja sumeammalta, kun taas sekä FSR että natiivi taas yliterävältä. Paras kuva olisi jossain noiden välimaastossa terävyyden suhteen, mutta DLSS tarjoaa jopa enemmän yksityiskohtia kuin natiivi, joka kyllä hieman outoa. En ole aiemmin nähnyt että DLSS lisää esim. puihin ja kasvustoon yksityiskohtia (oksiin ilmaantuu pidennystä jne.), vaan yleensä päinvastoin. Nämä käyttäjien kuvat on aivan yhtä tyhjän kanssa, kun on voitu käyttää ReShadea tai mitä tahansa vipstaakeja..
Katso noita kaukaisempia puita ja sähkölinjoja. DLSS näyttää jopa supersamplatulta, kun taas natiivi muuttuu puuroksi ja FSR taas ripuliksi.

Tää on rekonstruktioalgoritmin etu verrattuna köykäisiin lanczos+terävöitys virityksiin, koska ensimmäisellä voidaan luoda lisää alipikselitarkkuutta kun taas toisella yritetään koijata käyttäjää uskomaan että yliterävöitetty kuva sisältäisi lisää informaatiota.

DLSS on epäilemättä parempi kuin FSR, mutta löytyykö jotain pelikohtaisia ammattilaisten vertailuja? Hyvältä tuo FSR:kin näyttää siihen nähden, että tämä on AMD:n ''DLSS 1.0''. Nvidian ekat versiot oli aivan järkyttävää kuraa tähän verrattuna.
Nyt eletään vuotta 2021, ja vertailukohteina on DLSS 2.2 ja FSR 1.0. Jätetäänkö säteenseurantavertailut tekemättä koska Nvidialla on toinen geni menossa ja AMD:lla eka? Verrataanko volkkarin ensimmäistä täyssähköä vuoden 2011 Teslaan? No ei.
 
Nyt eletään vuotta 2021, ja vertailukohteina on DLSS 2.2 ja FSR 1.0.

Kyllä, ja eletään myös vuotta 2021 jossa verrataan jonkun keskiverto kyläläisen still-kuvia toisiinsa. Ja olihan siellä joku videokin, bitrateltaan jotain paskan ja omituisen paskan välimaastossa. Katsotaan kun saadaan lisää ammattilaisten materiaalia, tai vielä parempi kun itse testaa. Kuten kirjoitin, DLSS varmasti parempi kun otantaa on tarpeeksi, mutta tämä ei tietenkään sinulle riitä, vaan odotat jotain estotonta FSR:n dumaamista ja DLSS hehkuttamista....
 
Kyllä, ja eletään myös vuotta 2021 jossa verrataan jonkun keskiverto kyläläisen still-kuvia toisiinsa. Ja olihan siellä joku videokin, bitrateltaan jotain paskan ja omituisen paskan välimaastossa. Katsotaan kun saadaan lisää ammattilaisten materiaalia, tai vielä parempi kun itse testaa. Kuten kirjoitin, DLSS varmasti parempi kun otantaa on tarpeeksi, mutta tämä ei tietenkään sinulle riitä, vaan odotat jotain estotonta FSR:n dumaamista ja DLSS hehkuttamista....
:lol:

Argumentit tais loppua kesken.
 
:lol:

Argumentit tais loppua kesken.
Ei kukaan pelaa pelejä still kuvia katselemalla. Jos eroa ei huomaa paljaalla silmällä liikkeessä, niin sitä ei käytännössä ole olemassa sanoivat still kuvat mitä tahansa.
 
Silleensä tässä on taas tuon suhteen ollut takin kääntymistä ilmassa, kun perinteisestihän AMD:n korttien kuvanlaatua on sanottu paremmaksi ja sitä on tutkittu still-kuvista suurennuslasin kanssa että "pikselit on terävämpiä" ja nvidian kuvaa haukuttu suttuiseksi. Nyt kun sitten DLSS kääntää tämän päälaelleen niin keskitytäänkin sitten nopeassa liikkeessä tapahtuvaan arviointiin ja että "ei ole eroa käytännössä".

Itse arvostan edelleen periaatteellisesti sitä natiivikuvaa ja että kuva piirretään pikselintarkasti ja oikealla terävyydellä. Skaalauksia, terävöintejä ja muita kikkaviitosia laitetaan päälle vasta sitten kun FPS on aivan kelvottomissa lukemissa eikä asetu freesync-rangelle. Samalla periaatteella kuuntelen myös musiikkini mieluummin tarkoista studiomonitoreista kuin jostain maalailevista ja ääntä värittävistä "hifi"-kaiuttimista.
 
Nyt kun sitten DLSS kääntää tämän päälaelleen niin keskitytäänkin sitten nopeassa liikkeessä tapahtuvaan arviointiin ja että "ei ole eroa käytännössä".
Kyse on siitä että DLSS vetää kuvan sutuksi liikkeessä. Jos tuo sallitaan, niin amd:lta löytyy myös jotain ihan kauheita liikepohjaisia drs systeemejä joilla pilata kuva ja saada fps kuninkuus takaisin.
 
Joissain peleissä DLSS jopa vähentää suttua.

EU7IjGOUUAcJTJJ
 
Silleensä tässä on taas tuon suhteen ollut takin kääntymistä ilmassa, kun perinteisestihän AMD:n korttien kuvanlaatua on sanottu paremmaksi ja sitä on tutkittu still-kuvista suurennuslasin kanssa että "pikselit on terävämpiä" ja nvidian kuvaa haukuttu suttuiseksi. Nyt kun sitten DLSS kääntää tämän päälaelleen niin keskitytäänkin sitten nopeassa liikkeessä tapahtuvaan arviointiin ja että "ei ole eroa käytännössä".

Itse arvostan edelleen periaatteellisesti sitä natiivikuvaa ja että kuva piirretään pikselintarkasti ja oikealla terävyydellä. Skaalauksia, terävöintejä ja muita kikkaviitosia laitetaan päälle vasta sitten kun FPS on aivan kelvottomissa lukemissa eikä asetu freesync-rangelle. Samalla periaatteella kuuntelen myös musiikkini mieluummin tarkoista studiomonitoreista kuin jostain maalailevista ja ääntä värittävistä "hifi"-kaiuttimista.
nVidian korttien kuvanlaatu oli muuten oikeasti aikoinaan niin suttuinen AMD:n tuotoksiin verrattuna, että sen näki ilman stillejäkin. Toki se on parantunut niistä ajoista, mutta en itse pidä still kuvia sopivana mihinkään peleihin liittyviin kuvanlaatuarvioihin, koska silmä ei reagoi pikkueroihin liikkeessä samalla tavalla kuin still kuviin.
 
Onpas rumasti yliterävöitetty tuo dlss versio. Ihan luonnottoman näköinen
Olisi toki hyvä jos kaikki kehittäjät laittaisivat DLSS:n terävöitys sliderin käyttäjien muokattavaksi, joissain peleissä DLSS:n terävöitys komponenttia voi säätää vapaasti.

Edit: Ilmeisesti terävöitys slideri on uusi ominaisuus DLSS 2.2 versiossa, mutta joissain peleissä kuten Crysis Remastered ja Cyberpunk 2077 on pystynyt säätämään DLSS:n terävyyttä konsolilla.


  • Added Sharpening Slider – Developers can now add a slider to adjust sharpness, enabling users to make the image sharper or softer based on their own personal preferences.
 
Viimeksi muokattu:
Nvidian experiencen kautta on kuitenkin yleensä onnistunut terävöinti jos sitä on tarvinnut, toki ihan hyvä jos peliin tulisi omat sliderinsä, ettei tuota yliterävöintiä tapahtuisi.

Mutta niin kauan kun tämän kaltaisia ongelmia on, niin ei se DLSS myöskään ole mikään graalin malja ilman virheitä:
1627548515453.png


Vasemmalla still-kuva jossa kaapeleihin tulee lisää detailia verrattuna natiiviin (jossa yhden pikselin paksuuden kohdalla se viiva osittain häviää kokonaan), oikealla sitten liikutaan hahmolla sivuttain, että kamera seuraa myös kyseistä liikesuuntaa.

Toki tämä ei ilmeisesti ole DLSS 2.2 kun kyseessä vanhempi peli Death Stranding, mutta natiivilla pelkästään TAA päällä niitä ghosting artifakteja ei taas ilmene tuossa kaapelin kohdalla liikeessä, toisin kuin ylläolevassa tilanteessa DLSS päällä.
Liikkeessä myös DLSS kuva sumenee hiukan noin yleisesti terävöinnistä huolimatta vrt. still kuvaan jos suurennuslasilla tuota ihmettelee. Se ei kuitenkaan häiritse niin paljoa kuin nuo artifaktit.
4k resoluutio käytössä ja tuossa on siis ollut experiencen kautta hiukan sharpness filtteriä päällä, kun tuon version DLSS ei tosiaan näyttäisi yhtä terävältä muuten kuin perus natiivilla.

Eli pystysuorat viivat on olleet myrkkyä DLSS:lle kun kamera liikkuu sivuttain, samaa tapahtuu myös vaakatason objekteihin kun liikutaan ylös/alas. 2.2 versiossa näitä pitäisi olla vähemmän, mutta ainakaan cyberpunkissa ei suurempaa eroa, kun siitä pelistä ei taida TAA:ta saada kytkettyä edes pois - Eli se peli artifactoi siitä huolimatta onko DLSS päällä vai ei.

Olisi mukavaa, jos saisi näistä myös kuvankaappauksia kun ollaan liikeessä, eikä pelkästään ylipakattua videokuvaa tai niitä still-kuvia, jossa DLSS kyllä osaa hommansa.
 
Viimeksi muokattu:
Eli pystysuorat viivat on olleet myrkkyä DLSS:lle kun kamera liikkuu sivuttain, samaa tapahtuu myös vaakatason objekteihin kun liikutaan ylös/alas. 2.2 versiossa näitä pitäisi olla vähemmän, mutta ainakaan cyberpunkissa ei suurempaa eroa, kun siitä pelistä ei taida TAA:ta saada kytkettyä edes pois - Eli se peli artifactoi siitä huolimatta onko DLSS päällä vai ei.

Ja partikkelit tuntuu olevan edelleen tuon premium ominaisuuden ongelma, jota ei edelleenkään ole saatu kuriin. Vasta oli vertailukuvia ihan kuumimmalla hotilla premium versiolla jossa näkyi miten tämä premium ominaisuus taikoi hurjasti kuvaan lisää partikkeleita, kun taas pirkka ominaisuus kilpailijalta totteli kiltisti sitä mitä natiivi kuvassakin oli.
 
Ja partikkelit tuntuu olevan edelleen tuon premium ominaisuuden ongelma, jota ei edelleenkään ole saatu kuriin. Vasta oli vertailukuvia ihan kuumimmalla hotilla premium versiolla jossa näkyi miten tämä premium ominaisuus taikoi hurjasti kuvaan lisää partikkeleita, kun taas pirkka ominaisuus kilpailijalta totteli kiltisti sitä mitä natiivi kuvassakin oli.
Itse asiassa taisi olla että kyseisen pelin TAA piilotti niitä partikkeleita ja DLSS taas säilytti ne partikkelit mitkä näkyi ilman TAA:ta.
 
Ja partikkelit tuntuu olevan edelleen tuon premium ominaisuuden ongelma, jota ei edelleenkään ole saatu kuriin. Vasta oli vertailukuvia ihan kuumimmalla hotilla premium versiolla jossa näkyi miten tämä premium ominaisuus taikoi hurjasti kuvaan lisää partikkeleita, kun taas pirkka ominaisuus kilpailijalta totteli kiltisti sitä mitä natiivi kuvassakin oli.
Heh, kaikenlaista huuhaata sitä taas levitellään.

DLSS piirtää partikkelit UE4:n TAA:ta paremmin, ei hallusinoi niitä tms. TAA suttaa ne pois näkyvistä.

Partikkelit saadaan myös näkymään paremmin ottamalla antialiasointi kokonaan pois tai vaihtamalla gen5 TAA:han.

PS. FSR saadaan noissa UE 4.26 peleissä näyttämään paremmalta vaihtamalla tuohon gen5 TAA:han. Ominaisuus on tosin kehitysaseteella vielä.
 
Ettei olisi tarkoittanut sitä kun aiemmissa DLSS versioissa nimenomaan hukkui partikkeleita monessa pelissä? Uudemmissa versioissa tilanne parantunut ja vissiin tuo UE:ne oma TAA on myös hukannut, mutta kaikki pelit ei sitä käytä, ei edes kaikki UE-pelit
 
Löytyykö täältä mielipiteitä aiheesta Nvidia vs. AMD Linuxilla, eli käytännössä ajureiden yms. suhteen? Pitäisi pingviinijurpona päivitellä näyttistä ja vaihtoehdot ovat käytännössä 6700XT ja 3060Ti. Tällä hetkellä koneessa on Nvidian 980Ti eivätkä poropietariajurit ole ihan hirveästi aiheuttaneet päänvaivaa (parissa pelissä ollut jotain epämääräistä ajureiden kaatuilua, jonka mutuilen johtuvan siitä että Nvidia tukee näin vanhoja kortteja vähän kehnommin, kuin uusia), mutta Mesan AMD-ajureita kehutaan laajasti.

Oma edellinen Linux-AMD -kokemus on vuodelta 2007 ja tuolloin mokomat eivät toimineet ollenkaan. Onko kellään kertoa kokemuksia tai pelottavia kauhutarinoita puolin tai toisin?
 
Löytyykö täältä mielipiteitä aiheesta Nvidia vs. AMD Linuxilla, eli käytännössä ajureiden yms. suhteen? Pitäisi pingviinijurpona päivitellä näyttistä ja vaihtoehdot ovat käytännössä 6700XT ja 3060Ti. Tällä hetkellä koneessa on Nvidian 980Ti eivätkä poropietariajurit ole ihan hirveästi aiheuttaneet päänvaivaa (parissa pelissä ollut jotain epämääräistä ajureiden kaatuilua, jonka mutuilen johtuvan siitä että Nvidia tukee näin vanhoja kortteja vähän kehnommin, kuin uusia), mutta Mesan AMD-ajureita kehutaan laajasti.

Oma edellinen Linux-AMD -kokemus on vuodelta 2007 ja tuolloin mokomat eivät toimineet ollenkaan. Onko kellään kertoa kokemuksia tai pelottavia kauhutarinoita puolin tai toisin?

AMD ajurit löytyy nykyisin suoraan kernelistä. AMD joutui jonkin verran tekemään töitä koodin siivoamista että ajurit kerneliin mukaan huolittiin että olettaisin niiden olevan varsin hyvällä mallilla.

Tuolla pikainen otanta mistä jotain suuntaa näkee myös suorituskyvystä. Positiivinen yllätys että suorituskykykin on saatu nyt sinne missä sen kuuluukin olla. Viimeeksi tainnu tsekata joskus 5000 sarjalaisten aikaan ja AMD oli jälessä.
 
AMD ajurit löytyy nykyisin suoraan kernelistä. AMD joutui jonkin verran tekemään töitä koodin siivoamista että ajurit kerneliin mukaan huolittiin että olettaisin niiden olevan varsin hyvällä mallilla.

Tuolla pikainen otanta mistä jotain suuntaa näkee myös suorituskyvystä. Positiivinen yllätys että suorituskykykin on saatu nyt sinne missä sen kuuluukin olla. Viimeeksi tainnu tsekata joskus 5000 sarjalaisten aikaan ja AMD oli jälessä.
Suorituskyky näyttää tuon pohjalta aika hyvältä. Karvan 3070:stä kehnompi, mutta onhan tuo kortti jonkun verran halvempikin. Suorituskykyä enemmän mietityttää ajureiden vakaus, joka on historiallisesti ollut henkilökohtaisesti mulla ongelmana AMD:n kanssa. Viimeksi kun 2015 AMD-korttia käytin, tosin Windowsilla sillon, niin lähti palautukseen kun ajurit halusivat kaatua joka kerta, kun alt-tabasin pelistä Firefoxiin.

Parilla kaverilla on ollut samantyylisiä ajuriongelmia punaisilla korteilla vielä ihan parin viime vuoden sisällä, mutta nekin olivat Windowsilla. Linux-ajureita monet väittävät todella hyviksi, monesti Windows-ajureita paremmiksikin, mutta nuo sitten taas ovat ties mitä Reddit-käyttäjien mielipiteitä. Suomalaiset mielipiteet ovat tunnetusti paljon luotettavampia. :)
 
@Latudor Nvidia-ajurit ovat toimivia esim. AI/ML käytössä. Ajurit tulee hakea distron omista repoista, koska ne on yleensä testattu toimiviksi käytössä olevan kernelversion kanssa ja tällöin välttää useimmat yhteensopivuusongelmat. Itse pyöritän yhdellä levyllä Manjaroa tensorflow/pytorch leikkimistä varten, ja mitään suurempia ongelmia ei ole tullut vastaan. Ongelmia tulee kyllä jos pitää pyörittää XWaylandia X11 legacy softia varten, koska Nvidia ei tue sitä virallisesti.

AMD ajurit ovat osa kerneliä, joka on lähtökohtaisesti parempi tapa hoitaa näitä asioita linuxpuolella. Ajurit ovat plug and play, ja ajuripaneelin puuttumista lukuunottamatta vähintään yhtä hyviä kuin Windows-puolella. OpenGL suorituskyky on huomattavasti parempaa kuin Windowsilla. Koko AMD:n ajuristackki meni remonttiin vuonna 2014-2015 ja tässä kohtaa sanoisin niiden olevan Linuxpuolella toimivampia kuin Nvidian, ja samaa tasoa Intelin kanssa.

Archin wiki on noille molemmille varmaan paras tukisivu.


tl;dr Jos ite ostaisin nimenomaan linuxpelaamista varten uutta korttia, ostaisin AMD:n.
 
Löytyykö täältä mielipiteitä aiheesta Nvidia vs. AMD Linuxilla, eli käytännössä ajureiden yms. suhteen? Pitäisi pingviinijurpona päivitellä näyttistä ja vaihtoehdot ovat käytännössä 6700XT ja 3060Ti. Tällä hetkellä koneessa on Nvidian 980Ti eivätkä poropietariajurit ole ihan hirveästi aiheuttaneet päänvaivaa (parissa pelissä ollut jotain epämääräistä ajureiden kaatuilua, jonka mutuilen johtuvan siitä että Nvidia tukee näin vanhoja kortteja vähän kehnommin, kuin uusia), mutta Mesan AMD-ajureita kehutaan laajasti.

Oma edellinen Linux-AMD -kokemus on vuodelta 2007 ja tuolloin mokomat eivät toimineet ollenkaan. Onko kellään kertoa kokemuksia tai pelottavia kauhutarinoita puolin tai toisin?

Jos suoraan sanotaan niin, jos tarvitset CUDAa, niin otat nVidian. Muussa tapauksessa unohdat että nVidia on olemassa ja otat AMD kortin suoraan.

Minulla on työkoneessa 3060 ja "hupikoneessa" 5700XT ja ero on kyllä ihan selvästi AMDn puolella.
 
Jos suoraan sanotaan niin, jos tarvitset CUDAa, niin otat nVidian. Muussa tapauksessa unohdat että nVidia on olemassa ja otat AMD kortin suoraan.

Minulla on työkoneessa 3060 ja "hupikoneessa" 5700XT ja ero on kyllä ihan selvästi AMDn puolella.

Ynnä jos linuxraudan arpomisessa on muuta jännää, niin level1tech on se paras lähde videomuodossa. Level1techillä on foorumikin. Sen lisäksi tuo mainittu tuo arch wiki on tekstiformatin suhteen parhaita infolähteitä (on muuten hyvä distro, ollut käytössä jostain 0.5 versiosta asti).

Pääpointit tulikin jo ylempänä. 6000 sarja ei tarvitse enää mitään pci reset kikkoja (vanhemmat amd:t tarvitsi) kvm käytössä, vaan on niin lähellä plug & playta, mitä se linuxissa voi olla ja ajuritkin toimii nätisti. Nvidialla on tosiaan se cuda, jos sitä tarvii, niin valinta on kyllä itsestäänselvä.
 
Veikkauksia että onko 3dfx oikeasti tekemässä comebackin vai onko tää papa jensenin jotain viritelmiä?



Vai onko ihan vaan trolli

EDIT: Jaah hyvin trollilta kyllä haisee kun tarkemmin tutkii.
 
Viimeksi muokattu:
Veikkauksia että onko 3dfx oikeasti tekemässä comebackin vai onko tää papa jensenin jotain viritelmiä?



Vai onko ihan vaan trolli

EDIT: Jaah hyvin trollilta kyllä haisee kun tarkemmin tutkii.

Trolli. nVidia omistaa tuon nimen ja kaiken sen aikoinaan kehittämän tekniikan eikä taatusti pykää itselleen kilpailijaa.
 
Trolli. nVidia omistaa tuon nimen ja kaiken sen aikoinaan kehittämän tekniikan eikä taatusti pykää itselleen kilpailijaa.

Jooh, Igor oli vaan tuosta uutisoinut niin sen takia itte osin nielaisin tuon. Ilmeisesti Igor tarttee clickbaittejä...
 
Igor ei ole mikään lukenut mies. Sehän testas lämpötyynyjä tässä hiljattain ja höpisi 50% alennetuista lämmöistä. Siis celsiusasteikolla, ymmärtämättä miten asteikko toimii ja miksei sillä asteikolla voida puhuta %-noususta tai laskuista.
 
Igor ei ole mikään lukenut mies. Sehän testas lämpötyynyjä tässä hiljattain ja höpisi 50% alennetuista lämmöistä. Siis celsiusasteikolla, ymmärtämättä miten asteikko toimii ja miksei sillä asteikolla voida puhuta %-noususta tai laskuista.

Mielestäni siinä ei ole mitään väärää että Igor on paljastanut ettei premium korteissa ole premium padit.
 
Trolli. nVidia omistaa tuon nimen ja kaiken sen aikoinaan kehittämän tekniikan eikä taatusti pykää itselleen kilpailijaa.

Se mitä olen lukenut, niin ei omista 3DFX:n nimeä. Nvidia osti suunnilleen kaiken 3dfx:n omistaman kuten patentit, laitokset/tekniikan, työntekijätkään ei tainneet kuulua diiliin (osa työntekijöistä meni ATI:lle kehittämään esim. crossfireä).

"SANTA CLARA, CA – DECEMBER 15, 2000 – NVIDIA® Corporation (Nasdaq: NVDA) today announced that it has signed a definitive agreement to acquire certain graphics related assets of 3dfx Interactive"

Ei toki tee tuosta "palaa takaisin" twitteristä yhtään vähemmän trollia. Teknisesti mahdollista se kuitenkin voisi olla.
 
Vielä tohon 3dfx-läppään liittyen - Igor on sellanen heppu että se linkittää kaikkea mitä netistä löytää ja pistää sen omalle sivulle disclaimerilla että "juu ottakaa hippusellinen suolaa ennen kuin luette ja plöpläpläp", ja sitten ku yksi kymmenestä osuu oikeaan niin toki silloin pitää mainita siitä että oltiin ekojen joukossa kertomassa asiasta. Niistä väärinmenneistä ei tartte muistuttaa ja jos muistuttaisi niin Igor ottaa disclaimerkortin taskusta. Rautatabloidia se pyörittää, ei varteenotettavaa julkaisua.

Igor vissiin uskoi toden teosta että 3dfx aloittaa toiminnan tyhjästä noin vain vaikka kaikki firman brändit ja IP:t on nykyään Nvidian taskussa. Ei siinä että twittertili on tehty samana kuukautena eikä sieltä ole tullut mitään muuta julki, eikä siinä ettei kys. firmaa ole mihinkään rekattu.

Näin uskoi näköjään myös tämän threadin yksi neropateista.

Mielestäni siinä ei ole mitään väärää että Igor on paljastanut ettei premium korteissa ole premium padit.
Ei minunkaan mielestä, mutta se ei liity pointtiini. Mut hyvä heitto hei.
 
Applen piti tietenkin ampua vähän yli:

New AMD Radeon PRO W6000X Series GPUs Bring Groundbreaking High-Performance AMD RDNA 2 Architecture to Mac Pro

1628004837688.png

Hinta?
Näiden ostajat eivät hintaa kysele.
Kalleimman kohdalla tuskin pysytään nelinumeroisissa euro/dollarihinnoissa.

 
Applen piti tietenkin ampua vähän yli:

New AMD Radeon PRO W6000X Series GPUs Bring Groundbreaking High-Performance AMD RDNA 2 Architecture to Mac Pro

1628004837688.png

Hinta?
Näiden ostajat eivät hintaa kysele.
Kalleimman kohdalla tuskin pysytään nelinumeroisissa euro/dollarihinnoissa.

Radeon Pro 580X with 8GB of GDDR5 memory
Radeon Pro W5500X with 8GB of GDDR6 memory+ $200.00
Radeon Pro W5700X with 16GB of GDDR6 memory+ $600.00
Two Radeon Pro W5700X with 16GB of GDDR6 memory each+ $1,600.00
Radeon Pro W6800X with 32GB of GDDR6 memory+ $2,400.00
Two Radeon Pro W6800X with 32GB of GDDR6 memory each+ $5,200.00
Radeon Pro W6900X with 32GB of GDDR6 memory+ $5,600.00
Two Radeon Pro W6900X with 32GB of GDDR6 memory each+ $11,600.00
Radeon Pro W6800X Duo with 64GB of GDDR6 memory+ $4,600.00
Two Radeon Pro W6800X Duo with 64GB of GDDR6 memory each+ $9,600.00
 
Radeon Pro 580X with 8GB of GDDR5 memory
Radeon Pro W5500X with 8GB of GDDR6 memory+ $200.00
Radeon Pro W5700X with 16GB of GDDR6 memory+ $600.00
Two Radeon Pro W5700X with 16GB of GDDR6 memory each+ $1,600.00
Radeon Pro W6800X with 32GB of GDDR6 memory+ $2,400.00
Two Radeon Pro W6800X with 32GB of GDDR6 memory each+ $5,200.00
Radeon Pro W6900X with 32GB of GDDR6 memory+ $5,600.00
Two Radeon Pro W6900X with 32GB of GDDR6 memory each+ $11,600.00
Radeon Pro W6800X Duo with 64GB of GDDR6 memory+ $4,600.00
Two Radeon Pro W6800X Duo with 64GB of GDDR6 memory each+ $9,600.00
MIten voi olla mahdollista, että W6800X Duo kortti olisi edullisempi kuin W6900X?
Tuplasti muistia, kaksi GPU:ta, 50% enemmän stream prosessoreita...
Mutta niinpä tuolla Applen sivulla sanotaan.
 
Juuh Steamin tilastot on äärimmäisen tarkat, toki niitä aina kaikki yläasteen matikalla liikenteessä olevat kritisoi kun "ei ole mulle eikä naapurin Eskolle ikinä tullut sitä kyselyä!". Ihan samalla tavalla Maikkari pystyy arvioimaan kuinka monta katsojaa Salkkareilla oli viime viikon tiistaina vaikkei kukaan minullekaan soittanut katsoinko vai en.
 
Toisaalta mitään tarkempaa tilastoa ei ole olemassa niin tuolla mennään.
Tai sitten tiedostetaan että Steam survey on täynnä epäselvyyksiä ja siitä puuttuu kaikki läpinäkyvyys.
Se nyt on ihan selvä että kun NVIDIA toimittaa 4:1 vrt AMD, ei Steamin väittämä 14:1 ero Ampere vs RDNA2 välillä voi pitää paikkaansa, etenkin kun se on nimenomaan NVIDIA jonka kortteja menee enemmän muuhunkin käyttöön
 
Steam Surveylla on ongelmia tunnistaa noita RDNA2-kortteja. Veikkaan että osa niistä tunnistautuu nimikkeellä "AMD Radeon HD 8800 Series". Saman huomaa macOS-puolella missä M1-GPU:t näkyy samalla nimikkeellä nekin. En tiedä tarkoittaa toi nyt sitä että väärin tunnistunut kortti on aina "AMD Radeon HD 8800 Series" vai että tämä bugi koskee vain tiettyjä kortteja.

Se käy ilmi katsomalla "AMD Radeon HD 8800 series" korttien osuuden nousua viime kuukausien aikana (maalikuusta heinäkuuhun 0.46% -> 0,51% -> 0,58% -> 0,62% -> 0,70%).

Jos tuo 0,70% lisätään kylmästi tuohon artikkelissa listattujen RDNA2-korttien osuuteen (yhteensä 0,34%), ollaan 1,04%:ssa vastaan Amperen 3,98%, joka kuulostaa huomattavasti realistisemmalta ottaen huomioon esim. JPR:n markkina-osuusanalyysit ja niiden tulokset, jossa Nvidia toimitti 81% dGPUista Q1 2021, ja AMD taas loput 19%.

Tuo 3,98% vs 1,04% on markkina-osuuksiksi (tai tarkemmin sanottuna Amperen ja RDNA2:n väliseksi suhteeksi) konvertoituna Amperen osalta (3,98/5,02) = 79,28% ja RDNA2 osalta 20,72%.

Se, onko noi kaikki "AMD Radeon HD 8800 Series" kortit sitten oikeasti RDNA2 kortteja, ei tiedetä varmuudella, mutta itse uskon näin olevan. Huhtikuun datassa näkyy kaksi eri "AMD Radeon HD 8800 Series" nimikkeellä olevaa datapointtia joista ensimmäinen on esiintynyt ensimmäistä kertaa tammikuussa ja nousee jatkuvasti, toinen taas laskee ja on listan hännillä. Lienee selvää että se eka näistä on RDNA2 ja toinen sitten ne oikeat 8800 Series näyttikset (jotka julkaistiin alunperin vuonna 2013 OEM:lle)

-----------------------

Mitä nyt tulee tuohon yleiseen markkinatilanteeseen, niin tässä mun mietteitä siitä:

AMD suurin ongelma näyttismyynnin kanssa on pidemmän aikaa ollut oikeastaan se, että AMD:llä on vaikea saada niitä valmiskoneisiin. Niissä on lähes poikkeuksetta Nvidian dGPU kortit, ainakin desktop-puolella, ja läppäripuolellakin Nvidian johto on massiivinen. Syitä siihen voidaan spekuloida lähes loputtomiin, mutta Radeonin huono maine ja olematon brändilisäarvo verrattuna Geforce-tarraan ovat varmasti osasyitä siihen. Erilliskorttien myynnissä AMD on onnistunut OEM-myyntiin verrattuna huomattavasti paremmin, niissä kun asiakkaat priorisoivat eri asioita kuin OEM:ien ostopäälliköt ja koneiden suunnittelijat.

edit: typo
 
Viimeksi muokattu:
AMD suurin ongelma näyttismyynnin kanssa on pidemmän aikaa ollut oikeastaan se, että AMD:llä on vaikea saada niitä valmiskoneisiin. Niissä on lähes poikkeuksetta Nvidian dGPU kortit, ainakin desktop-puolella, ja läppäripuolellakin Nvidian johto on massiivinen. Syitä siihen voidaan spekuloida lähes loputtomiin, mutta Radeonin huono maine ja olematon brändilisäarvo verrattuna Geforce-tarraan ovat varmasti osasyitä siihen. Erilliskorttien myynnissä AMD on onnistunut OEM-myyntiin verrattuna huomattavasti paremmin, niissä kun asiakkaat priorisoivat eri asioita kuin OEM:ien ostopäälliköt ja koneiden suunnittelijat.

edit: typo
Veikkaampa että suurin kivi kengässä on toimitusvarmuus OEM maailmaa kiinnostavilla määrillä ja hinnoilla.

Sillä se intelikin jyrää CPU maailmassa.
 
Veikkaampa että suurin kivi kengässä on toimitusvarmuus OEM maailmaa kiinnostavilla määrillä ja hinnoilla.

Sillä se intelikin jyrää CPU maailmassa.

Jotain siellä AMD:llä kuitenkin tehdään oikein kun kurssia katsoo. Jos ei OEM puolella ole luottoa muka edelleenkään niin ilmeisesti sitten datacenter puolella on.
Hyvä vaan ettei osakemarkkinoilla mistään steam surveystä vedellä johtopäätöksiä, jos vedeltäisiin niin kurssi sakkaisi pahasti. :)

Se on selvää että AMD ei pysty nyt valmistamaan niin paljon rojua mitä myyntiin menisi, mutta silloin kun AMD on TSMC:ltä allokointia tehnyt niin ei varmasti kukaan osannut olettaa että kysyntä olisi kyltymätöntä. Allokoinnin lisääminen taas hetkessä ei ole mahdollista koska TSMC:n kapasiteetti on kokonaan käytössä. Niinsanotussa normaalissa tilanteessahan ei yleensä ihan koko kapasiteetti ole käytössä, jolloin voidaan huoltoja suunnitella paremmin ja voidaan myös reagoida nopeammin joihinkin hetkellisiin kysyntä piikkeihin.
 
Jotain siellä AMD:llä kuitenkin tehdään oikein kun kurssia katsoo. Jos ei OEM puolella ole luottoa muka edelleenkään niin ilmeisesti sitten datacenter puolella on.

Konesalipuolella on hauska epäpyhä kombinaatio. Nvidian dgx a100 koneissa on amd:n cpu:t mukana. Edellisissä dgx myllyissä oli intelin cpu:t. Toki AMD on pärjännyt myös omillansa kuten ne uudet supertietokoneet todistavat. Ne ovat amd:n gpu:lla ja cpu:lla.

 
Mielenkiintoinen johtopäätös että siellä olisi käsijarru päällä (mitä ikinä se tarkoittaakaan) eikä esim. arkkitektuurillisesta eroista johtuva virrankulutusero. Amperestahan on tunnetusti vaikeaa saada kaikkea irti alhaisilla resoilla ja yksinkertaisilla kuomilla.

Mielenkiintoista myös huomata vsync virrankulutuksen noin 80w suuruiset pomppimiset 6800XT:llä. Aggressiivisten boostien syytä ehkä?

Muistelin että nvidia on rinkulan pyörittelyä rajoittanut aiemminkin, mutta ilmeisesti toi on vain kyseisen 3080Ti:n ongelma koska ZOTAC GeForce RTX 3090 AMP Extreme Holo käppyrä näyttää ihan toisenlaiselta

power-consumption.png


Ja tuota radeoneitten vsync sahaamista itsekin ihmettelen. Todennäköisesti jostain agressiivisesta boostailustahan siinä on kyse, varmaan AMD:n kannattaisi hiukan tutkia tuota koska näyttää varsin rumalta myös kulutuksen puoleen kun tolleen sahaa vaikka ei varmasti tarttis sahata. Tuo sahaaminen tuntuu toistuvan ihan kaikilla 6000 sarjalaisilla eli se ei ole mikään tietyn kortin ongelma vaan kaikkien rdna2 korttien ongelma. Taino, ei se varmaan sinäänsä ongelma ole jos frametime on flatti, mutta kyllähän tuolla sahauksella turhaan virtaa poltetaan.

EDIT: Niin ja RDNA2 julkasun aikaan oli kova kulutus idlessä ja video decoodauksessa, sen ne sai korjattua keväällä.
 

Statistiikka

Viestiketjuista
259 272
Viestejä
4 503 280
Jäsenet
74 378
Uusin jäsen
Mirle78

Hinta.fi

Back
Ylös Bottom