AMD-spekulaatioketju (RDNA:n ja CDNA:n tulevat sukupolvet)

Ei, vaan koska prossuna on Ryzen NVIDIA ottaa omaa syytään penalttia joissain peleissä, korjaisivat ajurinsa.
En kyllä muista nähneeni testejä joissa yksikään noista peleistä kuuluisi siihen joukkoon jossa NVIDIAn ajurit pissivät jos prosessorina on Ryzen.


Annetaan kuitenkin propsit sinne minne ne kuuluu, tuo on PCWorldin previkka, ei VideoCardzin.
Hands-on: AMD's Radeon Vega Frontier Edition vs Nvidia Titan Xp

Miten "yhtä nopea kuin Titan Xp" peleissä kääntyy yhtäkkiä "yhtä nopea tai hieman nopeampi kuin 1080", kun ei ole edes mitään benchmark-lukuja millä verrata mahdolliseen toiseen kokoonpanoon 1080:lla?
Joka tapauksessa vaikuttaa erittäin hyvältä suorituskyky ainakin noissa peleissä, kun RX-version pitäisi olla pelikäytössä vielä nopeampi ja nyt ollaan jo Titan Xp -tasolla

Täysin yhtähyvin voitaisiin todeta, että Ryzen nyt vain on suunniteltu sillätavoin pieleen, että sille pitää ihan erikseen optimoida koodia, että siitä saa suorituskyvyn irti. Ja koska Ryzen on selkeästi ilmestynyt viimeksi, niin ajurit ovat kunnossa, mutta prosessori pissii. Sama ilmiö esiintyy myös peleissä ryzenin kanssa ihan yleisesti, joten nimenomaan prossu on se, joka on syytä korjata.
 
Täysin yhtähyvin voitaisiin todeta, että Ryzen nyt vain on suunniteltu sillätavoin pieleen, että sille pitää ihan erikseen optimoida koodia, että siitä saa suorituskyvyn irti. Ja koska Ryzen on selkeästi ilmestynyt viimeksi, niin ajurit ovat kunnossa, mutta prosessori pissii. Sama ilmiö esiintyy myös peleissä ryzenin kanssa ihan yleisesti, joten nimenomaan prossu on se, joka on syytä korjata.

eb6.jpg

"Ryzen optimoinneista" hyötyy myös kaikki intelin moniytimiset prossut... :rolleyes:
 
Täysin yhtähyvin voitaisiin todeta, että Ryzen nyt vain on suunniteltu sillätavoin pieleen, että sille pitää ihan erikseen optimoida koodia, että siitä saa suorituskyvyn irti. Ja koska Ryzen on selkeästi ilmestynyt viimeksi, niin ajurit ovat kunnossa, mutta prosessori pissii. Sama ilmiö esiintyy myös peleissä ryzenin kanssa ihan yleisesti, joten nimenomaan prossu on se, joka on syytä korjata.
mietitääs nyt. Ikuisuus optimoitu pääasiassa Intelille, Intelin prossut hyötyvät myös Ryzen optimoinneista ja vain NVIDIAn näyttiksillä on merkittävää syorituskykyeroa Intelin ja Ryzenin välillä osassa pelejä.. Juu, selvästi AMDn vika
 
Nvidia nyt on koittanut vähän väliä syöttää jotain omaa suljettua "standardiaan" joten itse ovat kuoppansa kaivaneet.
 
Täysin yhtähyvin voitaisiin todeta, että Ryzen nyt vain on suunniteltu sillätavoin pieleen, että sille pitää ihan erikseen optimoida koodia, että siitä saa suorituskyvyn irti. Ja koska Ryzen on selkeästi ilmestynyt viimeksi, niin ajurit ovat kunnossa, mutta prosessori pissii. Sama ilmiö esiintyy myös peleissä ryzenin kanssa ihan yleisesti, joten nimenomaan prossu on se, joka on syytä korjata.
Ja silti nuo "Ryzen" optimoinnit eivät tunnu heikentävän menoa Intelilläkään, päinvastoin. Olikohan kyse enemmän siitä, että alkuperäiset optimoinnit peleissä on tehty ns. vituiksi?

Mutta nyt on hyvä mahdollisuus siihen, että jos Vega:n vauhti on jossain 1080Ti:n paikkeilla, niin nVidiankin on pakko korjata ajurinsa tai katsella kun Ryzenin omistajat ostavat Radeonia. Sen verran paha käpy noissa nVidian ajurioptimoinneissa on Ryzenin kanssa.
 
Ja silti nuo "Ryzen" optimoinnit eivät tunnu heikentävän menoa Intelilläkään, päinvastoin. Olikohan kyse enemmän siitä, että alkuperäiset optimoinnit peleissä on tehty ns. vituiksi?

Mutta nyt on hyvä mahdollisuus siihen, että jos Vega:n vauhti on jossain 1080Ti:n paikkeilla, niin nVidiankin on pakko korjata ajurinsa tai katsella kun Ryzenin omistajat ostavat Radeonia. Sen verran paha käpy noissa nVidian ajurioptimoinneissa on Ryzenin kanssa.

Kyse on lähinnä siitä, että ei ole huomattu merkittävää nopeuseroa, kun on tehty tietyllä tavalla. Kannattaa ottaa huomioon, että perinteinen "pelirauta" on intelin 4T4C prossu.

Mitä enemmän prossuissa on coreja, sitä väistämättömämmin kannattaa estää threadien pompottelu corelta toiselle ym optimoinnit.

Varmasti katsovat, mitä asialle voi tehdä, mutta eiköhän noiden ajureiden rukkaaminen ole ainakin puolenvuoden - vuoden projekti tai pitempikin. Ovat kuitenkin nykyään ihan järjetön möhkäle, joka sisältää paljon koodia, jonka on toimittava ehdottoman oikein tai koko kone kaatuu (tai ainakin softat)..

JOS ja vain jos Vega oikeasti pärjää 1080Ti:lle, on sangen mahdollista, että Ryzen kokoonpanoon kannattaa hommata sitten AMD:n näyttis ja Intel kokoonpanoon Nvidian näyttis.

-------------------------
Kuten joskus yli 5 vuotta sitten totesin tulevan tapahtumaan:
Tulevaisuudessa ei ole niinkään merkittävää, miten hyvä IPC itse corella on. Sillä on merkitystä, kenellä on paras muistiohjain.
Näköjään tuohon voi nyt lisätä: Kenellä on paras I/O corejen välillä ja muutenkin I/O puoli.

Sama voi hyvinkin päteä myös GPU puolella..
-------------------------
 
Nvidia nyt on koittanut vähän väliä syöttää jotain omaa suljettua "standardiaan" joten itse ovat kuoppansa kaivaneet.

DX11 ja DX12 ovat ihan yhtä suljettuja standardeja kaikille valmistajille, eivätkä ole Nvidian suunnittelemia. En siis nyt alkuunkaan ymmärrä, mitä yrität sanoa.
 
Varmasti katsovat, mitä asialle voi tehdä, mutta eiköhän noiden ajureiden rukkaaminen ole ainakin puolenvuoden - vuoden projekti tai pitempikin. Ovat kuitenkin nykyään ihan järjetön möhkäle, joka sisältää paljon koodia, jonka on toimittava ehdottoman oikein tai koko kone kaatuu (tai ainakin softat)..

Ei.

Toiminnallisuuden muuttaminen ja optimointioptioiden muuttaminen on aivan eri asia.

Joskus riittää se, että päivitetään uudempaan versioon kääntäjästä, eikä tarvi muuttaa mitään omasta koodista eikä makefileistä.

Joskus riittää se, että annetaan kääntäjälle yksi erilainen optimointiflagi.

Usein tarvii sitten myös itse koodia muuttaa, mutta vaikka koodin koko on kymmeniä tai satoja megatavuja, ne kriittiset innerloopit on siitä yllättävän pieni osa.

Kuten joskus yli 5 vuotta sitten totesin tulevan tapahtumaan:
Tulevaisuudessa ei ole niinkään merkittävää, miten hyvä IPC itse corella on. Sillä on merkitystä, kenellä on paras muistiohjain.

Ei, vaan sillä on eniten merkitystä, kenen OoOE piilottaa kakkuhudit parhaiten, kenen haarautumisennustin ennustaa vähiten pieleen, ja kenen prefetcheri hakee datat parhaiten muistista että niitä kakkuhuteja tulee mahdollisimman vähän.

Näköjään tuohon voi nyt lisätä: Kenellä on paras I/O corejen välillä ja muutenkin I/O puoli.
-------------------------

Ei tämä ole mikään "Nyt"-juttu. Onnettomat välimuistit ja piirin sisäiset väylät on ollut syy miksi esim, joskus 5 vuotta sitten silloin ihan pätevät ARM Cortex A9-ytimet saivat käytännön suorituskyvyssä turpiin Intelin onnettomilta ensimmäisen sukupolven Atomeilta. Samoin paremmat välimuistit ja väylät on ollut syy miksi qualcommin ARM-SoCit ovat käytännössä pärjänneet jo kauan usein paremmin kuin jotkut Samsungin tai TI:n ARM-SoCt.

Ja järeissä palvelinprossoreissa on jo vuosikymmenet ollut todella järeitä välimuisteja ja väyliä.
 
DX11 ja DX12 ovat ihan yhtä suljettuja standardeja kaikille valmistajille, eivätkä ole Nvidian suunnittelemia. En siis nyt alkuunkaan ymmärrä, mitä yrität sanoa.

Cuda ja gsync nyt tulee ensimmäisenä mieleen mutta on noita varmaan aika monia muitakin historian varrella.
 
Ei.

Toiminnallisuuden muuttaminen ja optimointioptioiden muuttaminen on aivan eri asia.

Joskus riittää se, että päivitetään uudempaan versioon kääntäjästä, eikä tarvi muuttaa mitään omasta koodista eikä makefileistä.

Joskus riittää se, että annetaan kääntäjälle yksi erilainen optimointiflagi.

Usein tarvii sitten myös itse koodia muuttaa, mutta vaikka koodin koko on kymmeniä tai satoja megatavuja, ne kriittiset innerloopit on siitä yllättävän pieni osa.



Ei, vaan sillä on eniten merkitystä, kenen OoOE piilottaa kakkuhudit parhaiten, kenen haarautumisennustin ennustaa vähiten pieleen, ja kenen prefetcheri hakee datat parhaiten muistista että niitä kakkuhuteja tulee mahdollisimman vähän.



Ei tämä ole mikään "Nyt"-juttu. Onnettomat välimuistit ja piirin sisäiset väylät on ollut syy miksi esim, joskus 5 vuotta sitten silloin ihan pätevät ARM Cortex A9-ytimet saivat käytännön suorituskyvyssä turpiin Intelin onnettomilta ensimmäisen sukupolven Atomeilta. Samoin paremmat välimuistit ja väylät on ollut syy miksi qualcommin ARM-SoCit ovat käytännössä pärjänneet jo kauan usein paremmin kuin jotkut Samsungin tai TI:n ARM-SoCt.

Ja järeissä palvelinprossoreissa on jo vuosikymmenet ollut todella järeitä välimuisteja ja väyliä.
Griffin-trolliin tuli näköjään taas tartuttua itse kukin... :)
Juu, epäilen ettei Nvidia ole niin ihastunut että AMD tunkee nyt joka puolelle häiritsemään heidän suvereeniuttaan. Varmaan jotain ajurioptimointia on Ryzeneille tulossa, mutta epäilen ettei ole ihan korkeimmalla prioriteettilistalla kumminkaan. Mukavampi ohjata omat asiakkaat Intelin leiriin kuin tukemaan kilpailijan GPU-kehitystä ostamalla heidän CPU:itaan.

Nosta välimuisteista vielä, niin niillähän IBM on säätänyt jo vuosikymmenet. Heillä kun ollut ne järeimmät palvelinsalilaitteet, niin varmaan matkan varrella huomanneet, että kun virtuaalipalvelimia tulee samaan runkoon satoja tai tuhansia, niin jonkun CPU:n nopeus ei ole enää kuin yksi pala palapelissä. Tärkeintä on throughput ja vielä mahdollisimman tasainen sekä lineaaristi skaalautuva sellainen. Kuorma-auto vs. henkilöauto-vertailu kuvaa hyvin eroa perus-korttipalvelimeen. Ongelma on tietysti hinta, nopeat välimuistit ovat kalliita etenkin prosessoreissa majailevat Lx-cachet, jotka vielä vievät arvokasta laskentatilaa sirulta. Tämä dilemma ei varmaan ole häviämässä mihinkään. Välimuistit pitäisi olla mahdollisimman nopeita, olla mahdollisimman lähellä itse laskentaa, sitä pitäisi olla mahdollisimman paljon...ja samalla pitäisi se itse prosessorin logiikka tunkea jonnekin. Näyttäisi siltä että aika samoissa haarukoissa nuo välimuistit menevät eli jonkunlainen matemaattinen malli varmaan löytyy mikä on riittävä määrä eri tason välimuisteja kuhunkin kokoluokkaan ja käyttötarkoitukseen. Kasvavat core-määrät vaativat välimuisteja pakosti lisää, joten pienemmille valmistustekniikoille riittää kysyntää että piirit saadaan pidettyä kohtuullisen kokoisina. Onhan tuo EPYC jo nyt aika jäätävän kokoinen.
 
Ei.

Toiminnallisuuden muuttaminen ja optimointioptioiden muuttaminen on aivan eri asia.

Joskus riittää se, että päivitetään uudempaan versioon kääntäjästä, eikä tarvi muuttaa mitään omasta koodista eikä makefileistä.

Joskus riittää se, että annetaan kääntäjälle yksi erilainen optimointiflagi.

Usein tarvii sitten myös itse koodia muuttaa, mutta vaikka koodin koko on kymmeniä tai satoja megatavuja, ne kriittiset innerloopit on siitä yllättävän pieni osa.

Enemmän, kuin vähän luulen, että nyt ei riitä jonkin optimointiflagin muuttaminen (kyse on kuitenkin ajurista). En ihmettelisi, vaikka kriittisiä kohtia olisi tehty jopa käsin assemblynä sinne sekaan.

Muutenkin, kun kyseessä on ajuritason homma, niin tuskimpa kääntäjääkään ihan vain lennosta vaihdellaan. Joudutaan tekemään todella kattavia kokeita erilaisilla ohjelmistoilla ja kokoonpanoilla sekä asetuksilla, tuollaisen vaihdon jälkeen ja se on sekä kallista, että aikaa vievää..

Muutokset voivat olla isojakin, jos Nvidia , niin kuin on väitetty tekee prossulla asioita ajurissa, joka taas johtaa prossun usein ryzenin kannalta epäedullisiin tilanteisiin. Kyseessä kun välttämättä ei tosiaankaan ole pelkkä ajuri vaan esim ajurin ja pelin yhteisvaikutus. Eli myös käyttismuokkaus voisi parantaa tilannetta..
 
Nosta välimuisteista vielä, niin niillähän IBM on säätänyt jo vuosikymmenet. Heillä kun ollut ne järeimmät palvelinsalilaitteet, niin varmaan matkan varrella huomanneet, että kun virtuaalipalvelimia tulee samaan runkoon satoja tai tuhansia, niin jonkun CPU:n nopeus ei ole enää kuin yksi pala palapelissä. Tärkeintä on throughput ja vielä mahdollisimman tasainen sekä lineaaristi skaalautuva sellainen. Kuorma-auto vs. henkilöauto-vertailu kuvaa hyvin eroa perus-korttipalvelimeen. Ongelma on tietysti hinta, nopeat välimuistit ovat kalliita etenkin prosessoreissa majailevat Lx-cachet, jotka vielä vievät arvokasta laskentatilaa sirulta. Tämä dilemma ei varmaan ole häviämässä mihinkään. Välimuistit pitäisi olla mahdollisimman nopeita, olla mahdollisimman lähellä itse laskentaa, sitä pitäisi olla mahdollisimman paljon...ja samalla pitäisi se itse prosessorin logiikka tunkea jonnekin. Näyttäisi siltä että aika samoissa haarukoissa nuo välimuistit menevät eli jonkunlainen matemaattinen malli varmaan löytyy mikä on riittävä määrä eri tason välimuisteja kuhunkin kokoluokkaan ja käyttötarkoitukseen. Kasvavat core-määrät vaativat välimuisteja pakosti lisää, joten pienemmille valmistustekniikoille riittää kysyntää että piirit saadaan pidettyä kohtuullisen kokoisina. Onhan tuo EPYC jo nyt aika jäätävän kokoinen.

Välimuistit tulevat ongelmiksi, kun coreja tulee n+1 kpl. Tällöin käy usein helposti s.e. jos käyttis ei tiedä prossun rakennetta ja pidä threadeja coreilla, joiden välimuisteissa on tarvittava data, joudutaan tekemään hitaita hakuja eri prossun osista ristiin. Mitä enemmän coreja on, sitä enemmän näitä tilanteita tulee..

Ryzeni on näiltä osin rakenteeltaan heikko. Sen coret ovat sinällään erittäin kilpailukykyisiä, mutta tällä hetkellä kokonaisuuden latistaa edellä mainittu asia peleissä, jotka hyvä, että osaavat käyttää yleensä yli 4:ää säiettä.

Toivottavasti AMD tekee MS:n kanssa tiivistä yhteistyötä, että käyttis saadaan toimimaan paremmin tuonkaltaisen rakenteen kanssa yhteen.. Ohjelmatkin kehittyvät sinällään tietysti jonkinverran, kun kääntäjät kehittyvät, mutta tuo muutos vaatii helposti vuosia aikaa..
 
Cuda ja gsync nyt tulee ensimmäisenä mieleen mutta on noita varmaan aika monia muitakin historian varrella.
Ja sitten tietty noi 3D-lasiviritykset, jotka kyllä kaikki taitavat olla aika suljettuja ratkaisuja...eiku sielläkin taisi olla avoin Vesa-standardi. Ja eikös tuo Nvidian Gameworks ollut aika tehokas viritys sitoa asiakkaat omaan ekosysteemin. Itse kääntäisin kysymyksen toisin päin: mitä avoimella mallilla toimivia ratkaisuja Nvidia on tuonut markkinoille...ikinä? Ainakaan itselle ei nyt heti tule mieleen muuta kuin tuo Linux-Nouveau-viritys. Toki Nvidian maksimoi voittonsa niin hyvin kuin pystyy, mutta se ei tarkoita sitä että heistä pitäisi tykätä. Samanlainen viha-rakkaus-suhde on esim. Microsoftin ja Intelin kanssa. Karmeata rahastusta, mutta pakko niitä ostaa. Kuitenkin jos vaihtoehto tulee niin ei paljoa lojaliteettia löydy vaan heti pois ja niin näyttäisi nyt tapahtuvan AMD:n prossujen kanssa. Vastaanotto on ollut hyvä ja joka paikassa porukka on että vihdoin joku vetämään Inteliä pataan. Pitkässä juoksussa tie on kuitenkin avoimien ratkaisujen. Linuxit, Vulkan/OpenGL, Androidit, Apachet, Mongot, GitHubit jne. Siinä mielessä näkisin että AMD:n linja on pitkän päälle oikea.
 
DX11 ja DX12 ovat ihan yhtä suljettuja standardeja kaikille valmistajille, eivätkä ole Nvidian suunnittelemia. En siis nyt alkuunkaan ymmärrä, mitä yrität sanoa.

Cuda ja gsync nyt tulee ensimmäisenä mieleen mutta on noita varmaan aika monia muitakin historian varrella.

Nuo eivät liity tähän asiaan millääntavoin.

on suljettuja ja on suljettuja. directx:t ovat toki suljettuja sinänsä, mutta MS sallii kenen tahansa tekevän yhteensopivia tuotteita. Sitten on nvidian tapa tehdä suljettuja juttuja jotka on sidottu vain heidän rautaansa ilman että kilpailijat voisivat niitä hyödyntää vaikka rauta siihen kykenisikin. omalla tavallaan pahin on gsync, joka rajoittaa paitsi ominaisuuden nvidian näyttiksille, myös estää avoimen vesan standardin käytön nvidian näyttiksillä vaikka ne epäilemättä sitä osaisivatkin käyttää
 
on suljettuja ja on suljettuja. directx:t ovat toki suljettuja sinänsä, mutta MS sallii kenen tahansa tekevän yhteensopivia tuotteita. Sitten on nvidian tapa tehdä suljettuja juttuja jotka on sidottu vain heidän rautaansa ilman että kilpailijat voisivat niitä hyödyntää vaikka rauta siihen kykenisikin. omalla tavallaan pahin on gsync, joka rajoittaa paitsi ominaisuuden nvidian näyttiksille, myös estää avoimen vesan standardin käytön nvidian näyttiksillä vaikka ne epäilemättä sitä osaisivatkin käyttää

Kaikkein huvittavinta on se että nvidia tukisi adaptive syncciä ihan pienellä ajurifiksauksella, mutta eivät suostu sitä tekemään. Monet läppärit joissa nvidian piiri jo käyttävät sitä, mutta se on silti nimetty g-synciksi vaikka paneelista ei g-sync moduulia löydy.
 
on suljettuja ja on suljettuja. directx:t ovat toki suljettuja sinänsä, mutta MS sallii kenen tahansa tekevän yhteensopivia tuotteita. Sitten on nvidian tapa tehdä suljettuja juttuja jotka on sidottu vain heidän rautaansa ilman että kilpailijat voisivat niitä hyödyntää vaikka rauta siihen kykenisikin.

Ei se välttämättä huono asia ole, Cuda on toimiva ja hyvin tuettu mistä syystä se on vieläkin hyvin suosittu. Harva enää edes muistaa että AMD:llä oli oma vastaava stream-viritys, kun ei ole tukea niin käyttäjät pääosin kiersivät kaukaa.
 
on suljettuja ja on suljettuja. directx:t ovat toki suljettuja sinänsä, mutta MS sallii kenen tahansa tekevän yhteensopivia tuotteita. Sitten on nvidian tapa tehdä suljettuja juttuja jotka on sidottu vain heidän rautaansa ilman että kilpailijat voisivat niitä hyödyntää vaikka rauta siihen kykenisikin. omalla tavallaan pahin on gsync, joka rajoittaa paitsi ominaisuuden nvidian näyttiksille, myös estää avoimen vesan standardin käytön nvidian näyttiksillä vaikka ne epäilemättä sitä osaisivatkin käyttää

Ja miten tämä liittyy ajurikoodin hitaaseen pyörimiseen ryzenillä:
EI TASAN MITENKÄÄN.

Gsync on LÄHINNÄ rautaratkaisu, kuvan ulostulossa ja monitorin puolella. Ei liity mitenkään ajureiden prossunkäyttöön ryzenin kanssa, josta tässä huomautin.

VAI Onko muka niin, että ajurien käyttäytyminen ryzenin kanssa muuttuu selvästi, riippuen siitä, onko GSYNC päällä vai ei? Onko tuosta tehty testiä?

En ole myöskään kuullut, että tuo ryzenin kanssa tahmominen riippuisi mitenkään siitä, käyttääkö sovellutus CUDAa vai ei. Onko tastä testejä?

Ajurit on tasan kaikilla valmistajilla sidottu valmistajan rautaan, koska ne ovat se rajapinta esim gpu:n ja DX:n välillä.

Otin asian esille alun perin ihan siksi, että huomasin testissä asian, joka saattaa hyvinkin painottaa tulosta jopa huomattavasti Vegan suuntaan.

Kunhan tuo julkaistaan, niin jos ovat suurinpiirtein tasaveroiset, niin jo nyt tietää, että testin muusta kokoonpanosta riippuen voi toinen näyttää toista nopeammalta ja se tulee aiheuttamaan epäselvyyksiä. Voi hyvinkin olla, voidaan vain sanoa kortin X olevan nopein, JOS...
 
Ei se välttämättä huono asia ole, Cuda on toimiva ja hyvin tuettu mistä syystä se on vieläkin hyvin suosittu.

CUDA on erittäin huonosti tuettu millään muulla kuin nVidian raudalla.

Harva enää edes muistaa että AMD:llä oli oma vastaava stream-viritys, kun ei ole tukea niin käyttäjät pääosin kiersivät kaukaa.

AMD luopui omasta "stream-virityksestään" jotta siirryttäisiin käyttämään avointa OpenCLää ja koodarien tarvisi koodata koodinsa vain kertaalleen ja se pyörisi kaikkien raudalla.

No, nVidia jatkoi omaan suljettuun CUDAnsa panostamista ja pitää OpenCLää toisen luokan kansalaisena. Käytännössä CUDA-runtime optimoidaan ensin ja paremmin ja sitten koodareita motivoidaan kirjoittamaan nVidialle proprietaryä CUDA-koodia sillä, että se usein nVidian raudalla ehkä toimii hiukan nopeammin kuin OpenCL, koska nvidian OpenCL-ajoympäristö on huonommin optimoitu.
 
nVidian ajurikoodin pyöriminen Ryzenillä ei liity TASAN MITENKÄÄN AMDn Vega-näyttikseen, joka on tämän viestiketjun aihe.

Liittyy kiinteästi, kun käydään spekuloimaan kortin suhteellista nopeutta VS Nvidian näyttikset, tuon täällä esitetyn testin raakileen perusteella.
 
CUDA on erittäin huonosti tuettu millään muulla kuin nVidian raudalla.



AMD luopui omasta "stream-virityksestään" jotta siirryttäisiin käyttämään avointa OpenCLää ja koodarien tarvisi koodata koodinsa vain kertaalleen ja se pyörisi kaikkien raudalla.

No, nVidia jatkoi omaan suljettuun CUDAnsa panostamista ja pitää OpenCLää toisen luokan kansalaisena. Käytännössä CUDA-runtime optimoidaan ensin ja paremmin ja sitten koodareita motivoidaan kirjoittamaan nVidialle proprietaryä CUDA-koodia sillä, että se usein nVidian raudalla ehkä toimii hiukan nopeammin kuin OpenCL, koska nvidian OpenCL-ajoympäristö on huonommin optimoitu.

Muistelen vahvasti, että AMD tai muut ei halunnut maksaa lisenssimaksuja Nvidialle. Miksi Nvidian tarvitsisi lahjoittaa CUDA muille? Sille ei kuitenkaan ole käyttöpakkoa missään ojelmassa. Jos se on huono, niin tekee sen sovelluksen Sille OpenCL:lle. Jos ei toimi Nvidian näyttiksellä, niin ajaa sitä sitten Intelin tai AMD:n näyttiksellä (Jos kyseessä on PC sovellutus).

Ilmeisesti Nvidia katsoo OpenCL:n olevan senverran kehno, että sitä ei kannata tukea (Nvidia ei niitä puutteita pysty siinä mitenkään välttämättä itse korjaamaan, vaikka haluaisi) ja tarjoaa paremmin toimivan vaihtoehdon, jolle antaa tukea, jolloin sitä halutaan käyttää...
 
Ja miten tämä liittyy ajurikoodin hitaaseen pyörimiseen ryzenillä:
EI TASAN MITENKÄÄN.

Gsync on LÄHINNÄ rautaratkaisu, kuvan ulostulossa ja monitorin puolella. Ei liity mitenkään ajureiden prossunkäyttöön ryzenin kanssa, josta tässä huomautin.

VAI Onko muka niin, että ajurien käyttäytyminen ryzenin kanssa muuttuu selvästi, riippuen siitä, onko GSYNC päällä vai ei? Onko tuosta tehty testiä?

En ole myöskään kuullut, että tuo ryzenin kanssa tahmominen riippuisi mitenkään siitä, käyttääkö sovellutus CUDAa vai ei. Onko tastä testejä?

Ajurit on tasan kaikilla valmistajilla sidottu valmistajan rautaan, koska ne ovat se rajapinta esim gpu:n ja DX:n välillä.

Otin asian esille alun perin ihan siksi, että huomasin testissä asian, joka saattaa hyvinkin painottaa tulosta jopa huomattavasti Vegan suuntaan.

Kunhan tuo julkaistaan, niin jos ovat suurinpiirtein tasaveroiset, niin jo nyt tietää, että testin muusta kokoonpanosta riippuen voi toinen näyttää toista nopeammalta ja se tulee aiheuttamaan epäselvyyksiä. Voi hyvinkin olla, voidaan vain sanoa kortin X olevan nopein, JOS...
Pitäisköhän sun Griffin nyt vähän hengähtää välillä? Alkaa taas lähteä lapasesta. Vartin sisään kolme viestiä samaan ketjuun alkaa olla jo melko haipakkaa. :)
 
[offtopic]

Muistelen vahvasti, että AMD tai muut ei halunnut maksaa lisenssimaksuja Nvidialle. Miksi Nvidian tarvitsisi lahjoittaa CUDA muille? Sille ei kuitenkaan ole käyttöpakkoa missään ojelmassa. Jos se on huono, niin tekee sen sovelluksen Sille OpenCL:lle. Jos ei toimi Nvidian näyttiksellä, niin ajaa sitä sitten Intelin tai AMD:n näyttiksellä (Jos kyseessä on PC sovellutus).

Ilmeisesti Nvidia katsoo OpenCL:n olevan senverran kehno, että sitä ei kannata tukea (Nvidia ei niitä puutteita pysty siinä mitenkään välttämättä itse korjaamaan, vaikka haluaisi) ja tarjoaa paremmin toimivan vaihtoehdon, jolle antaa tukea, jolloin sitä halutaan käyttää...

Oletko idiootti vai trolli?

Sillä, mitä sinä muistelet hyvin vahvojen anti-punaisten lasiesi kanssa on vain hyvin vähän tekemistä todellisuuden kanssa.

CUDA on nVidian oma suljettu standardi jota nVidia yrittää puskea läpi tasan sen takia, että se haluaa lukita ihmiset käyttämään omaa rautaansa.

Sinulla tuntuu olevan muutenkin todella vaikea ymmärtää mikä on standardien pointti.
OpenCL on se Kaikkien yhteinen avoin standardi.

Ja OpenCL on "aina" toiminut nvidian näyttiksillä, nvidia on "aina" tukenut OpenCLää. Eikä kukaan (muu kuin sinä) täällä ole väittänyt mitään muuta.

nVidia vaan tukee OpenCLää HUONOMMIN kuin CUDAa. Huonommalla suorituskyvyllä jne.

[/offtopic]
 
Muistelen vahvasti, että AMD tai muut ei halunnut maksaa lisenssimaksuja Nvidialle. Miksi Nvidian tarvitsisi lahjoittaa CUDA muille? Sille ei kuitenkaan ole käyttöpakkoa missään ojelmassa. Jos se on huono, niin tekee sen sovelluksen Sille OpenCL:lle. Jos ei toimi Nvidian näyttiksellä, niin ajaa sitä sitten Intelin tai AMD:n näyttiksellä (Jos kyseessä on PC sovellutus).

Ilmeisesti Nvidia katsoo OpenCL:n olevan senverran kehno, että sitä ei kannata tukea (Nvidia ei niitä puutteita pysty siinä mitenkään välttämättä itse korjaamaan, vaikka haluaisi) ja tarjoaa paremmin toimivan vaihtoehdon, jolle antaa tukea, jolloin sitä halutaan käyttää...
Voi olla aika hiljaista että kukaan haluaisi maksaa lisenssimaksuja rajapinnasta jonka ominaisuudet on suunniteltu yhden valmistajan raudalle, jos se edes olisi mahdollista.

NVIDIA on Khronoksen jäsen ja sillä on kaikki mahdollisuudet vaikuttaa OpenCL:n kehitykseen kuten muillakin saman tason jäsenillä.
NVIDIAlla olisi myös mahdollisuus tukea OpenCL:ää kunnolla eikä laahata tukeaan vuosia perässä (esimerkiksi AMD julkaisi OpenCL 2.0 -ajurit 2014, NVIDIA julkaisi OpenCL 2.0 -beeta-ajurit vasta tänä vuonna)
NVIDIAlla olisi ollut myös mahdollisuus luovuttaa CUDA Khronokselle ja sanoa että käyttäkää tota pohjana ja tehkää siitä avoin rajapinta, aivan kuten AMD teki Mantlella.

Eli kyllä, se on ihan NVIDIAsta ja sen tekemistä ratkaisuista kiinni, mahdollisuuksia olisi ollut vaikka muille jakaa.
 
AMD luopui omasta "stream-virityksestään" jotta siirryttäisiin käyttämään avointa OpenCLää ja koodarien tarvisi koodata koodinsa vain kertaalleen ja se pyörisi kaikkien raudalla.

Tai sitten totesivat, että eivät pysty kilpailemaan CUDAa vastaan Streamilla ja se kuopattiin kannattamattomana, koodareiden intresseillä tuskin oli mitään tekemistä tuon päätöksen kanssa, tai siinä mielessä ehkä oli ettei haluttu kenenkään enää kärsivän yrittäessään koodata streamille ;)
 
Joinaan nyt keskusteluun kun taas tiedetään enemmän/huhuja liikkuu.

Siis nyt kun päästiin näihin rajapintoihin niin onhan se selvä asia, että jos dominoit markkinoita ja ekosysteemi kutakuinkin perustuu valtaosin yhteen raudan valmistajan laitteisiin niin kannattaahan se softapuoli rajapintoja myöden kanssa ottaa haltuun varsinkin silloin jos kilpailevalla puolella ei riitä resurssit.
Tämä CUDA homma on hyvin samanlainen lähestymis tapa tuon GameWorksin kanssa.
Yksi konsti on myydä suljettua lähdekoodia lisenssien avulla ja sisällyttää sponsorit ja tuki siihen samaan syssyyn. Koska Nvidia dominoi sekä peli puolella että ihan renderöintipuolella niin massia on pyrkiä vielä lisää monopolisoimaan. Tätä yritykset tekevät jos vain pystyvät ja jos roolit olisi AMDn ja Nvidian välilllä eri päin niin näihtäisiin juurikin samaa. Se että jos menee huonosti on helppo tekeytyä uhriksi vaikkakin AMDn kanssa on huomattu että rauta ei kelvannut silloin aikoinaan vaikka se olisi teknologian puolesta ollut järkevää...
AMDlla ei ole välttämättä rahaa kehittää uusia rajapintoja tai ohjelmistoja, joten sen takia avoimen lähdekoodin ajaminen markkinoille ja avoin yhteistyö muiden yhteisöjen kanssa on ainoa vaihtoehto. Se että kumpi on parempi vahtoehto on loputon jupakka, mutta jos esim. Nvidian tarkoituksena on nimen omaan estää AMDn raudan välkkyminen omissa titteleissään ja sitä ei ajotakkaan myöntää (vaikkakin todisteita on) on taas asia erikseen. Nvidia omistaa CUDAN ja siitä tulee maksaa. AMD ei omista Vulkania eikä siitä maksa kukaan. Tästä on väännetty kättä Mantlesta asti. Sama pätee CUDAan ja OpenCLään.
Noh ei ole omaa alaa niin en keskity sitten tämän syvemmälle, muhin aiheisiin.

Vegan yrityksille ja kehitykseen suunnattu Frontier Edition näyttäisi tarvitsevan 2x8-pin virtaliitintä ja TDPt on kerrottu olevan 300-375w. Tuohon on varmaan otettu huomioon kellotuspotentiaali ja se ettei RX 480 virtaongelmat toistu heti liitin standardien kanssa. Muuten tuntuisi että kortti liikkuu alle 300w luokassa ihan vaan tuon HBM2 takia ja se että kortilla pitäisi olla 4x parempi hyötysuhte vs 2,5X Polariksella. En muista referenssi pistettä (oliko Hawaiji vai Fiji???), mutta Vegan pitäisi noitten slaidien mukaan olla 30-40% energia tehokkaampi kuin polaris. Muistaakseni Polariksen osalta AMD vertasi pelkkää ydintä eikä muistit liity tähän. Noh jälleen kerran pieni spekulointi, mutta jos luetaan techpowerupin sivuja niin RX 480 on 40-50% riippuen resoluutiosta vs GTX 1080ti niin silloin RX Vega pääsee ~375w virrankulukseen muistien kanssa ja siitä nyt se 30-40% olisi ~265W eli 275W TDP niin kuin aina ennekin.

"Korjaus" Siis 250w olis core ja siihen HBM2 eli jotain 275w luokkaa jolloin tuo 4x on aika kaukaa haettu...

Kuitenkin uskoisin tuon Frontier Editionin haukkaavan +300w vasta siinä vaiheessa kun sitä fp16 aletaan käyttämään. Olen monelta kuullut että voit tehdä joko fp32 tai fp16, vaikka laskentateho tuplaantuu niin virran kulutus pysyy samana. Noh tässä vaiheessa on vaikea sanoa että paljonko arkkitehtuuri tähän vaikuttaa.
Kuitenkin pelaamisessa pystään pelkällä fp32 puolella ja niin kuin tuolla on useasti jo sanottu RX Vegan ajurit eivät ole samat tuon Frontier editionin kanssa joka on lähes GTX 1080ti kanssa tasoissa. Noiden ajurien eroja ei vielä tiedetä emmekä myös tiedä paljonko tuo RX Vegan mikrokoodi vaikuttaa virrankulutukseen jne.
Lisäksi vaikka GTX 1080ti on 250W TDP niin AIB kortit vetää helposti sen 350w...

Vähän tuntuu siltä että AMDlla on jälleen uusi Fury X ja Nvidialla on jälleen GTX 980ti. Tosin AMDlla on muistin määrä hallussa ja tarvittava muistin määrä uudella kontrollerilla on pienempi ja GTX 1080ti ei ole suhteessa niin hyvä kellotettava kuin 980ti.
Noh Volta on tulossa, mutta jälleen kerran huhut nousee että Nvidia heittäisi Pascalin 12nm prosessille ja Volta pysyisi "tenser ytimien kanssa" täysin tekoälyn puolella. Se miten Frontier Edition pärjää AMDn omien testien mukaan Nvidia Titan XPlle, Nividia tarvitsee kovemmat kellotaajuudet taas jälleen pärjätäkseen, toki Quadro vertauksia ei ole joten.....
Mutta en myöskään usko tuon 12nm olevan mikään suuri mullistaja koska se ei uutisten mukaan ole kummoinen parannus 16nm suhteen vaan jokin rebrandi ja jotain alueita prosessissa korjattu.
Noh kuitenkin tämä tarkoittaisi sitä että Maxwell junnaa vielä 12nm asti ja AMD joutuu kirimään. Vielä kun tietäisi että luottaakko tuohon 375w TDP hommaan vai siihen 2,5x vs 4x...
 
Viimeksi muokattu:
Mitähän paskaa tämän veggulin kanssa

Radeon™ Vega Frontier Edition

Compute Units64 nCU
Typical Engine Clock (MHz)1382
Peak Engine Clock (MHz)1600
Peak Half Precision Compute Performance26.2TFLOPS
Peak Single Precision Compute Performance13.1TFLOPS
Peak Double Precision Compute Performance819GFLOPS
Stream Processors4096
Peak Triangle/s (BT/s)6.4
 
Arvostelijoille ei ole jaettu kortteja, ja vähän näyttäisi, ettei niitä ole kauppiaillakaan vielä. Oli itse piiri millainen tahansa, tämä on huonoa PR:ää: 1) On vaikea nähdä, että suorituskyvylle tapahtuisi enää kuukauden aikana paljon. 2) Huonon suorituskyvyn peittely räjähtää takuuvarmasti silmille. 3) Hyvää ei tarvitse näin tarmokkaasti piilotella. Nyt valitusta linjasta tulee lähinnä vaikutelma, että pöksyihin lurahti jotain ja kukaan ei tiedä, mitä pitäisi tehdä.
 
Vega Frontier Edition VRMark–Orange Room Score: 8,157
Asus GTX 1080 Strix OC-Orange Room: 10,834

redditiltä poimittu.....
 
Vega Frontier Edition VRMark–Orange Room Score: 8,157
Asus GTX 1080 Strix OC-Orange Room: 10,834

redditiltä poimittu.....

Tuo ei sinänsä kerro kovin paljon, koska Orange Room on ilmeisesti aika CPU-riippuvainen ja testikoneena oli 2,4 GHz Xeon (E: oli sittenkin 3,5 GHz).
 
Viimeksi muokattu:
Jospa odoteltaisiin vielä niitä virallisia revikoita, varsinkin RX-sarjasta. Oletettavasti ne kiinnostaa tämän forumin kansaa enemmän kuin FE-namustelut.
 
Vega Frontier Edition VRMark–Orange Room Score: 8,157
Asus GTX 1080 Strix OC-Orange Room: 10,834

redditiltä poimittu.....

VRMark–Orange Room onkin varmaan prio 1 "peli" johon uuden arkkitehtuurin "ei-pelikortti" optimoidaan. :D
Odotellaan niitä oikeita tuloksia. :)
 
Testaisivat nyt jotain 3D-markkia ja pelejä niin voisi sanoa melko lopullisen sanan näitten tehosta. :kahvi:
 
Tuntuisi että AMD hehkuttaisi kovasti näitä kortteja, jos ne olisi oikeasti tehokkaita.
 
Tuntuisi että AMD hehkuttaisi kovasti näitä kortteja, jos ne olisi oikeasti tehokkaita.
Eihän ne nyt mitenkään huonolta tälläkään hetkeltä vaikuta. Ovat luvanneet, että RX-sarja on FE-sarjaa tehokkaampia. Tästä varmasti saadaan lisätietoa lähitulevaisuudessa.

Ehkä AMD tiedostaa, että kilpailijan voittavan kortin kehittämiseen meni yli vuosi pitempään kuin itse kilpailijalla, jolloin ei pysty ihan takki auki huutelemaan 'kuka on kingi, RANE ON KINGI' -tyylisesti. Pääasia kuitenkin, että ovat takaisin kelkassa.
 
VRMark–Orange Room onkin varmaan prio 1 "peli" johon uuden arkkitehtuurin "ei-pelikortti" optimoidaan. :D
Odotellaan niitä oikeita tuloksia. :)
Se nyt on vain yksi softa muiden joukossa kun ei ole vielä muita tuloksia ilmestynyt.
Vai pitäisikö sitä verrata Titan XP:hen softassa josta tuki puuttuu eikä quadroon joka on vielä halvempi :rofl:
 
Arvostelijoille ei ole jaettu kortteja, ja vähän näyttäisi, ettei niitä ole kauppiaillakaan vielä. Oli itse piiri millainen tahansa, tämä on huonoa PR:ää: 1) On vaikea nähdä, että suorituskyvylle tapahtuisi enää kuukauden aikana paljon. 2) Huonon suorituskyvyn peittely räjähtää takuuvarmasti silmille. 3) Hyvää ei tarvitse näin tarmokkaasti piilotella. Nyt valitusta linjasta tulee lähinnä vaikutelma, että pöksyihin lurahti jotain ja kukaan ei tiedä, mitä pitäisi tehdä.
sebbbi kertoi B3D:lla saaneensa jo Vega FE:n, ei kertonut tarkemmin mistä mutta nykyään on kuitenkin ihan indiekehittäjä eli ei ainakaan minkään ison studion erioikeutena tuota saanut
 
Tuo ei sinänsä kerro kovin paljon, koska Orange Room on ilmeisesti aika CPU-riippuvainen ja testikoneena oli 2,4 GHz Xeon (E: oli sittenkin 3,5 GHz).

Tuo käytetty prossu on käytännössä sama kuin i7-5930k, E5 16xx v3 xeonit olivat vielä kelloteltavia. Jos jollaki sattuu olemaan moinen ajakoon vakiolla ton benchin ja kertokoon tuloksensa... Toisaalta sekään ei tarkoita että tulokset olisivat keskenään vielä kovin vertailukelpoisia.
 
sebbbi kertoi B3D:lla saaneensa jo Vega FE:n, ei kertonut tarkemmin mistä mutta nykyään on kuitenkin ihan indiekehittäjä eli ei ainakaan minkään ison studion erioikeutena tuota saanut

I handed the board to him myself earlier today in Helsinki, over a beer. The joys of looking after Game Engineering for Europe. Full architecture details will come out later, can't spoil that, but it is FL 12_1 top tier for everything.

#2158Rys, 9 minutes ago
 
Vega Frontier Edition VRMark–Orange Room Score: 8,157
Asus GTX 1080 Strix OC-Orange Room: 10,834

redditiltä poimittu.....
Ajurit eivät kuulema ole pelikäyttöön optimoituja tai ainakin näin väitetään Vegan kohdalla. Sillä voi olla jo huomattava vaikutus yksinään
 
Mitähän paskaa tämän veggulin kanssa

Radeon™ Vega Frontier Edition

Compute Units64 nCU
Typical Engine Clock (MHz)1382
Peak Engine Clock (MHz)1600
Peak Half Precision Compute Performance26.2TFLOPS
Peak Single Precision Compute Performance13.1TFLOPS
Peak Double Precision Compute Performance819GFLOPS
Stream Processors4096
Peak Triangle/s (BT/s)6.4
Linukka-ajurit heti saatavilla. Melkeinhän tässä kyynel tulee silmäkulmaan kuinka maailma kehittynyt muutamassa vuodessa. :)
 
Eipä tule enää odoteltua Vegaa. Katse suuntana siis nvidian tuotteisiin.
Varmaan typerin temppu mitä juuri nyt voi tehdä. Hinta mitä todennäköisemmin tulee olemaan edullisempi kuin Nvidian vastaavat kortit. Jos Nvidia päättää iskeä takaisin, niin tipputtavat omien korttiensa hintoja, jos taas ei, niin Vega. Lopputulema kuitenkin on että hinta per suorituskyky tulee laskemaan. Tietysti jos haluaa sen parhaimman välittämättä yhtään mitä maksaa, niin sitten olisi kannattanut ostaa se 1080Ti heti kun tuli tai sitten Titan XP tai sitten...
 
June 27, 2017
Radeon Vega Frontier Edition Availability
Radeon Vega Frontier Edition graphics cards are available from retailers in select regions today with an SEP of $999 USD for the air-cooled edition. The water-cooled edition is expected to launch in Q3 with an SEP of $1499.

AMD Launches the World’s Fastest Graphics Card for Machine Learning Development and Advanced Visualization Workloads, Radeon Vega Frontier Edition, Available Now


Pian pitäisi alkaa tippua vertailuja ja sitten itkua kun ei ollutkaan niin nopea, jonka jälkeen pyhää raivoa AMD:tä kohtaan. Toivottavasti ainakin isot vertailusaitit tekevät testit nyt ensisijaisesti ammattilaiskäyttö mielessä, eikä pelkkää Hitmania pyörittäen. Veikkaanpa vaan että pelilekkereiksi se kuitenkin menee, minkä perusteella sitten päätellään/päätetään kuinka nopea se tuleva RX Vega-pelioptimoitu kortti on. Mielenkiinnolla kyllä silti odotan esim. Anandtechin vertailua. Olisihan se hauska nähdä AMD vaihteeksi kärjessä edes noissa synteettisissä testeissä.
 
Ottamatta kantaa itse Vegaan, niin tämä launchi oli kyllä todella surkeasti toteutettu. Aiheuttaa lähinnä negatiivisia mielikuvia kyseistä tuotetta kohtaan.
 
Ottamatta kantaa itse Vegaan, niin tämä launchi oli kyllä todella surkeasti toteutettu. Aiheuttaa lähinnä negatiivisia mielikuvia kyseistä tuotetta kohtaan.

Nimenomaan. Jos olisi tultu avoimin kortein ja kerrottu vaikka, että ajuripuoli on vielä keskeneräinen, se olisi todennäköisesti ylläpitänyt kiinnostusta ensi kuuhun. Tällainen nollajulkaisu (ei edes paperijulkaisu), jossa selvästi piilotellaan suorituskykyä, saa aikaan vain epäluottamusta ja heikentää mielikuvia.
 

Uusimmat viestit

Statistiikka

Viestiketjuista
261 304
Viestejä
4 534 403
Jäsenet
74 784
Uusin jäsen
vanahabanjo

Hinta.fi

Back
Ylös Bottom