Raja Koduri: Intelin GPU-tiimi saavutti merkittävän virstanpylvään XeHP-grafiikkapiirin parissa

  • Keskustelun aloittaja Keskustelun aloittaja Kaotik
  • Aloitettu Aloitettu

Kaotik

Banhammer
Ylläpidon jäsen
Liittynyt
14.10.2016
Viestejä
22 630
intel-xe-xehp-dgpu-team-20191206.jpg



Intel valmistelee parhaillaan Xe-arkkitehtuurin alle kolmea eri mikroarkkitehtuuria. Xe:n alle kuuluvat prosessoroihin integroitava XeLP-arkkitehtuuri, erillisnäytönohjainten XeHP-arkkitehtuuri ja HPC-laskentaan suunnattu XeHPC-arkkitehtuuri.

Intelin Raja Koduri on nyt twiitannut yhtiön Intiassa sijaitsevan kehitysosaston saavuttaneen merkittävän askeleen XeHP-arkkitehtuurin tiimoilta tarkentamatta kuitenkaan mitä tarkalleen on saavutettu. Kodurin twiitin mukaan kehittäjät ovat antaneet piirille lempinimen ”The Baap of All”. Baap on hindiä ja tarkoittaa isää. Piirin kerrotaan olevan paitsi suurin ikinä Intiassa suunniteltu piiri, myös historian suurimpia piirejä ylipäätään. Toistaiseksi ei ole tiedossa viittasiko Intelin väliaikainen toimitusjohtaja Bob Swan juuri tähän piiriin, kun hän kertoi viime osavuosikatsauksessaan yhtiön käynnistäneen ensimmäisen Xe-erillisgrafiikkapiirin onnistuneesti laboratorioissaan.

Maininta piirin suuresta koosta herättää helposti useita kysymyksiä. On selvää, ettei yhdeksi maailman suurimmista siruista kuvailtu piiri voi sopia joka näytönohjainluokkaan, joten se lienee tarkoitettu lähinnä datakeskuksiin ja mahdollisesti kaikkein tehokkaimpiin kuluttaja- tai ns. ”prosumer”-malleihin. Tämä tarkoittaisi samalla sitä, että XeHP-arkkitehtuuriin perustuvia piirejä on tultava markkinoille useampia, jotta Intel pystyy kattamaan aikomansa suorituskykyluokat taloudellisesti järkevästi.

Twitter-käyttäjä nimimerkillä Shobu_ twiittasi Rajalle olleensa pettynyt ettei piirin lempinimeksi tullut Baahubali -elokuvien mukaan. Koduri vastasi twiittiin ”There’s another one round the corner” eli kulman takana olisi tulossa vielä seuraava, mutta ei tarkentanut viittasiko hän sillä uuteen Baahubali-elokuvaan vai XeHP-grafiikkapiiriin. Kuluttajahintaisten näytönohjainten kannalta on toivottavaa, että kyse on jälkimmäisestä.

Lähde: Raja Koduri @ Twitter

Huom! Foorumiviestistä saattaa puuttua kuvagalleria tai upotettu video.

Linkki alkuperäiseen uutiseen (io-tech.fi)

Palautelomake: Raportoi kirjoitusvirheestä
 
Viimeksi muokattu:
Helvetin iso piiri, eli voisi kuvitella että myös virrankulutus ja perf/w surkea? Onko tuossa nyt hirveänä juhlimista?
 
Ei kait näyttiksissä ole vaikeaa tehdä "maailman isoin" piiri. Saman toistoahan se GPU on täynnä.
Se taas on eri asia, mikä on suorituskyky /W

Jos esim suorituskykyä on 2080Ti:n verran, niin eipä se mitään auta, jos kortti vie tehoa 2 kertaisen määrän ja keittolevykin kalpenee kateudesta. Lisäksi jos piiri on mieletön jööti, niin sen valmistus on kallista ja koska valmistuskapasiteetti on hyvin rajallista nykyään, niin tuollaisen piirin myytihinta on joko "ei oo" tai todella kallis.

On siis vähän köyhä leuhkimisen aihe "teimmepä maailman isoimman GPU:n"

Se olisi tietysti hyvä, jos saataisiin kilpailua aikaan, mutta toistaiseksi ei vakuuta, ollenkaan.
 
Helvetin iso piiri, eli voisi kuvitella että myös virrankulutus ja perf/w surkea? Onko tuossa nyt hirveänä juhlimista?
Onko RTX 2080 Ti:n tai Voltan perf/watt surkeita? Ne on meinaan suurimmasta päästä piirejä mitä on tehty
 
Onko RTX 2080 Ti:n tai Voltan perf/watt surkeita? Ne on meinaan suurimmasta päästä piirejä mitä on tehty
Ei toki, mutta Nvidia hiukan eri asia kuin markkinoille vasta tulossa oleva intel :think: Ja tuskin se nyt hirveän hyvä asia on Nvidiankaan mielestä että ne piirit on niin hemmetin isoja, ennemmin ne pienempiä piirejä möisi samalla katteella.
 
Ei toki, mutta Nvidia hiukan eri asia kuin markkinoille vasta tulossa oleva intel :think: Ja tuskin se nyt hirveän hyvä asia on Nvidiankaan mielestä että ne piirit on niin hemmetin isoja, ennemmin ne pienempiä piirejä möisi samalla katteella.
Vaikkei Intelillä ole samanlaista kokemusta erillisistä grafiikkapiireistä kuin NVIDIAlla niillä on paitsi yleistä kokemusta laajemmasta skaalasta erilaisia piirejä, myös intiimimpi yhteistyö ja sen kautta ymmärrys valmistusprosessista mitä käytetään (enkä tarkoita etteikö TSMC, Samsung yms kertoisi kaikkea tarvittavaa asiakkailleen, mutta on se eri asia että tuotantolaitos on samaa firmaa)
 
Kai se pointti tässä on että otetaan kasa heppuja intiasta ja saadaan tehtyä tuote joka varmaankaa ei ole helpoin mahdollinen koska suuria valmistajia maailmalla ei ole kuin kaksi.

Tuskin Nvidian tai AMDn ensimmäinen pc näytönohjain on ollu 2080ti tasoinen, johon nyt verrataan.
Katsotaan vaikka 5 vuotta mitä alkaa tulla.

Itse ymmärrän tälläisen tekstin :"Bangalore celebrated crossing a significant milestone on a journey to what would easily be the largest silicon designed in india and amongst the largest anywhere. The team calls it “the baap of all "
Että on ylpeitä että jotain kongreettista on saatu aikaiseksi, eikä tarkoita mitään markkinoille tuloa.
"the baap of all", käytetään samaan tapaan kuin suomessa sanottaisiin kaikkien piirien äiti.
Eiköhän 90% piireistä ole tuosta leikattuja jatkokehitettyjä versioita, niinhän muutkin valmistajat toimii.
Kannattaa muistaa että intelillä on jo uudet versiot tehty ja amd varmaan on jo viimeistelyssä. Eli ensi vuonna ero kasvaa.
Tämä nyt parasta mitä Intel pystyi tyhjästä polkaisemaan ja aika näyttää miten käy.
 
Viimeksi muokattu:
Ei toki, mutta Nvidia hiukan eri asia kuin markkinoille vasta tulossa oleva intel :think:

Intelillä on yli 20 vuoden kehitys grafiikkapiirien/grafiikkaytimien arkkitehtuurien kehittämisestä.

Tämä ei oleellisesti eroa siitä, kuinka pitkä kokemus tästä nVidialla on.

Ja tuskin se nyt hirveän hyvä asia on Nvidiankaan mielestä että ne piirit on niin hemmetin isoja, ennemmin ne pienempiä piirejä möisi samalla katteella.

Ne kalleimmat piirit on isoja koska niissä on todella suuri määrä rinnakkaisia laskentayksiköitä ja niiden throughput-nopeus on todella hyvä. Ei niistä voitaisi pyytää samanlaista hintaa jos ne olisivat pienempiä ja hitaampia.
 
Onko RTX 2080 Ti:n tai Voltan perf/watt surkeita? Ne on meinaan suurimmasta päästä piirejä mitä on tehty
Ei ole, mutta Kodurin hehkutukset on nähty ja tulokset eivät ole olleet sielläpäinkään hehkutukseen nähden. Eikä Intelin edellinen yritys sekään häävisti päättynyt, kun hautasivat sen kaikessa hiljaisuudessa kehnojen tulosten takia. Henkilökohtaisesti uskon nuo Kodurin jutut vasta siinä vaiheessa, kun tuote on kaupoissa ja puolueettoman tahon testaama ja hyväksi toteama. Siihen asti kaikki tiedot asiasta ovat katteetonta henkselien paukutusta.

Jos Kodurin hehkutukset olisivat pitäneet edes osittain paikkaansa, niin AMD:n nykyisten korttien pyörittämiseen riittäisi staattinen sähkö ja tehoa olisi siihen tyyliin, että niiden säteenseuranta toimisi 8K resuluutiolla 300fps ilman mitään ongelmia ja erikoistunutta rautaa.
 
Viimeksi muokattu:
Ei ole, mutta Kodurin hehkutukset on nähty ja tulokset eivät ole olleet sielläpäinkään hehkutukseen nähden.

Mites esimerkiksi Radeon 9700?

. Eikä Intelin edellinen yritys sekään häävisti päättynyt, kun hautasivat sen kaikessa hiljaisuudessa kehnojen tulosten takia.

Ei sitä mihinkään haudattu, vaan se intergroitiin emolevyn pohjoissiltapiirille. Ja myöhemmin sen jatkokehitelmät siirrettiin sieltä prosessorin kanssa samalle piirille.

Ja tämän ansiosta intelin näytönohjaimista tuli maailman eniten valmistettuja PC-näytönohjaimia.

Intel on jatkanut yhtäjaksoisesti näytönohjainten kehittämistä ja valmistamista yli 20 vuotta.

Jos Kodurin hehkutukset olisivat pitäneet edes osittain paikkaansa, niin AMD:n nykyisten korttien pyörittämiseen riittäisi staattinen sähkö ja tehoa olisi siihen tyyliin, että niiden säteenseuranta toimisi 8K resuluutiolla 300fps ilman mitään ongelmia ja erikoistunutta rautaa.

Puhdas olkiukko-trolli-kommentti jonka faktasisältö on nolla.
 
Nyt menee aika vahvasti liioittelun puolelle.

Nuo vaikuttaisi olevat vaan yhden mr nobodyn spekulaatioita, ei mitään oikeaa insider-tietoa/vuotoa.

Eikä varsinkaan Intelin kokoinen firma mene puhumaan yhtään mitään valmistuksesta ulkopuolisille verrattuna, mitä virallisia tietoja annetaan. Eiköhän työntekijöillä ole salassapitopaperit kirjoitettuna.
 
Piirin koko tosiaan ei lupaa juuri mitään pelipuolelle. Hinta tulee olemaan suolainen, jos tuosta isoimmasta tehdään pelinäyttistä ollenkaan.

Sama juttu Nvidian ja AMDn kanssa, Nvidia teki nuo isot RTX piirit ja pisti hinnat todella korkeiksi, AMD ei jaksanut kilpailla varmaankin pääosin siksi, että nykyisellä arkkitehtuurilla tuollainen RTX2080 ti tasoinen kortti on liian kallis tehdä, eikä kannata R&D kulujen takia sellaista tähän sukupolveen tehdä. katsotaan ensi kesällä, josko saisi Intelin uudesta ja AMD high end kortista jo jotain testejä ja vuotoja.
 
Piirin koko tosiaan ei lupaa juuri mitään pelipuolelle. Hinta tulee olemaan suolainen, jos tuosta isoimmasta tehdään pelinäyttistä ollenkaan.

Sama juttu Nvidian ja AMDn kanssa, Nvidia teki nuo isot RTX piirit ja pisti hinnat todella korkeiksi, AMD ei jaksanut kilpailla varmaankin pääosin siksi, että nykyisellä arkkitehtuurilla tuollainen RTX2080 ti tasoinen kortti on liian kallis tehdä, eikä kannata R&D kulujen takia sellaista tähän sukupolveen tehdä. katsotaan ensi kesällä, josko saisi Intelin uudesta ja AMD high end kortista jo jotain testejä ja vuotoja.

Nykyisetkin huippukortit, jotka ovat siinä 2070 Super suorituskyky tasoisia (jos ei RTX:ää ym ominaisuuksia käytetä). kuluttavat virtaa senverran reippaasti, että 2080Ti tasoisen kortin jäähdytys olisi tn ollut todella paha ongelma. Ehkä joku, tyyliin nestejäähy olisi riittänyt.

Se on tosiaankin totta että Korduri on useamman kerran hehkutellut noita ja lopputulos on lässähtänyt pahasti.
Eikä nytten edes ilmeisesti sanottu suorituskyvystä mitään vs muut, vaan ainoastaan totesivat, että ovat tehneet KOOLTAAN erittäin ison piirin.

Se ei käytännössä vaan valitettavasti pysty mitenkään takaamaan, jotta piiri on myös suorituskykyinen ja pystyy kilpailemaan AMD:n, saati sitten Nvidian vastaavan kokoisia piirejä vastaan. Tietysti olisi erittäin hyvä (Kuluttajan kannalta), jos pystyisi (tosin AMD:n kannalta ainankaan ei).
 
Eikä varsinkaan Intelin kokoinen firma mene puhumaan yhtään mitään valmistuksesta ulkopuolisille verrattuna, mitä virallisia tietoja annetaan. Eiköhän työntekijöillä ole salassapitopaperit kirjoitettuna.
Salassapitosopimukset on varmasti allekirjoitettuna myös suomen valtion virkamiehillä, mutta se ei näytä estävän kaiken kiinnostavan tiedon päätymistä lehdistölle
 
Eikä varsinkaan Intelin kokoinen firma mene puhumaan yhtään mitään valmistuksesta ulkopuolisille verrattuna, mitä virallisia tietoja annetaan. Eiköhän työntekijöillä ole salassapitopaperit kirjoitettuna.
Salassapitosopimukset on varmasti allekirjoitettuna myös suomen valtion virkamiehillä, mutta se ei näytä estävän kaiken kiinnostavan tiedon päätymistä lehdistölle
Eipä ole lähimainkaan intelin ensimmäisiä yrityksiä lähteä näytönohjaimien kehitykseen.
Floppaa tämäkin, ja saadaan katsoa miten linustechtipsille tulee kahden vuoden päästä
"intel hyper Gpu prototype"
 
Hmmm... jos mietitään Vega piirejä, niin nehän olivat ovat edelleen oivia data Center laskentapiirejä! Se on se markkina-alue jonne Intel pääasiassa tähtää. Parhaat katteet ja Intel on ”tunnettu” merkki data Center / corporate tasolla.
Tuo voi olla maailman hitain pelisiru ja silti juuri sitä mitä Intel haluaakin saavuttaa, jos vain tuolla saadaan suoritettu älyttömiä määriä tieteellistä laskentaa!
Enkä usko, että tuo olis älyttömän huono pelipiirinäkään, mutta peli GPUta ei tuossa yritetäkään tehdä. Pelipuolella amd:lla ja Nvidialla on mahdottoman iso etumatka ajuripuolella.
Mutta kun vertailuja tehdä, niin niitä pitää tehdä Nvidian ja amd:n ammattikortteja vastaan.
 
Viimeksi muokattu:
Jos puhtaasti Gen 12 perusteella pitäisi tehdä veikkauksia, niin sanoisin Intelillä olevan varsin hyvät mahdollisuudet saada varsin kohtuullista kamaa ulos. Ovat kumminkin tehneet näytönohjimia kauemmin kuin mitä moni jonne täällä on maapalloa tallanut. Lisäksi Kodurilla on vaihteeksi ollut kunnolla resurseja saatavilla (väkeä että rahaa).
 
Jos puhtaasti Gen 12 perusteella pitäisi tehdä veikkauksia, niin sanoisin Intelillä olevan varsin hyvät mahdollisuudet saada varsin kohtuullista kamaa ulos. Ovat kumminkin tehneet näytönohjimia kauemmin kuin mitä moni jonne täällä on maapalloa tallanut. Lisäksi Kodurilla on vaihteeksi ollut kunnolla resurseja saatavilla (väkeä että rahaa).
Mutta kaikki intelin kokemus on suht tehottomista integroiduista ohjaimista ja se ei tarkoita sitä, että samalla osaamisella tulisi kerralla huippuluokan erillisohjain. Eikä vuosikymmenien osaaminen takaa sekään onnistumista, kuten AMD:n Bulldozer osoitti.
 
Mutta kaikki intelin kokemus on suht tehottomista integroiduista ohjaimista ja se ei tarkoita sitä, että samalla osaamisella tulisi kerralla huippuluokan erillisohjain.

AMD Vega-arkkitehtuuri skaalautuu oikein hyvin kolmesta ytimestä(athlon Pro 200U) 64 ytimeen (Vega 64).

Ne shader-ytimet TMUineen ovat aivan samanlaisia riippumatta siitä, minkäkokoista piiriä ollaan tekemässä; Suurimpaan osaan siitä GPUsta tarvitaan ihan samanlaista osaamista vaikka tehdään pientäkin GPuta.

Lähinnä joku korkean tason komentojen jakaminen piirin eri clusterien (nvidialla GPC, AMDllä Shader Engine, Intelillä slice) välillä pitää tehdä isolla piirillä, mutta pienellä näitä on vain yksi.

Ja intel tähtää tuota isoa piiriään nimeomaan HPC-laskentaan, ei grafiikan piirtämiseen. Tuolla korvataan Xeon Phi, joka ei oikein ottanut tuulta alleen.

Ja sillä, että kolmionpiirtokuormaa ei saada jaettua optimaalisesti eri clusterien välillä ei ole väliä, jos ei piirretä kolmioita vaan vain lasketaan geneeristä OpenCL-koodia.

Eikä vuosikymmenien osaaminen takaa sekään onnistumista, kuten AMD:n Bulldozer osoitti.

AMD teki Bulldozerin puhtaalta pöydältä, ja 1) ennusti väärin, paljonko softia monisäikeistetään 2) mokasi välimuistin suunnittelun ja liukuhihnan tasapainotuksen kanssa. Näitä ongelmia ei käytännössä olisi voinut tulla jos oltaisiin vaan pohjattu vanhaan sitä parantae eikä suunniteltu kokonaan uutta arkkitehtuuria.

Intelillä on jo olemassaoleva GPU-arkkitehtuuri, se pitää ainoastaan skaalata isommaksi piiriksi. Intelin ei tarvi tehdä erillis-GPUtansa puhtaalta pöydältä.
 
Ja intel tähtää tuota isoa piiriään nimeomaan HPC-laskentaan, ei grafiikan piirtämiseen. Tuolla korvataan Xeon Phi, joka ei oikein ottanut tuulta alleen.
Tää on vähän sekava tilanne. HPC hommiinhan Intel tosiaan suunnittelee sekä XeHPC:ta (Monte Vecchio) että periaatteessa XeHP:n isointa järkälettä jos kaikki "datakeskusvehkeet" lasketaan HPC-luokkaan. XeHP:n pitäisi kuitenkin kattaa myös ne pelivehkeet sun muut, joten ne todennäköisesti ovat myös isoa piiriä myöten suunniteltu pärjäämään myös grafiikkahommissa, kun taas tuo XeHPC on vain laskentaan
 
AMD teki Bulldozerin puhtaalta pöydältä, ja 1) ennusti väärin, paljonko softia monisäikeistetään 2) mokasi välimuistin suunnittelun ja liukuhihnan tasapainotuksen kanssa. Näitä ongelmia ei käytännössä olisi voinut tulla jos oltaisiin vaan pohjattu vanhaan sitä parantae eikä suunniteltu kokonaan uutta arkkitehtuuria.
Muistanko väärin että BD:n tapauksessa tuli myös takkiin siitä että toteutuneet kellotaajuudet jäi todella kauas suunnitelluista valmistustekniikan vuoksi? Että prossu olisi suunniteltu pöhisemään jossain 4-5 GHz maastossa johon se ylsi vasta ihan loppupään huippumalleilla.
 
AMD Vega-arkkitehtuuri skaalautuu oikein hyvin kolmesta ytimestä(athlon Pro 200U) 64 ytimeen (Vega 64).

Ne shader-ytimet TMUineen ovat aivan samanlaisia riippumatta siitä, minkäkokoista piiriä ollaan tekemässä; Suurimpaan osaan siitä GPUsta tarvitaan ihan samanlaista osaamista vaikka tehdään pientäkin GPuta.

Lähinnä joku korkean tason komentojen jakaminen piirin eri clusterien (nvidialla GPC, AMDllä Shader Engine, Intelillä slice) välillä pitää tehdä isolla piirillä, mutta pienellä näitä on vain yksi.

Ja intel tähtää tuota isoa piiriään nimeomaan HPC-laskentaan, ei grafiikan piirtämiseen. Tuolla korvataan Xeon Phi, joka ei oikein ottanut tuulta alleen.

Ja sillä, että kolmionpiirtokuormaa ei saada jaettua optimaalisesti eri clusterien välillä ei ole väliä, jos ei piirretä kolmioita vaan vain lasketaan geneeristä OpenCL-koodia.



AMD teki Bulldozerin puhtaalta pöydältä, ja 1) ennusti väärin, paljonko softia monisäikeistetään 2) mokasi välimuistin suunnittelun ja liukuhihnan tasapainotuksen kanssa. Näitä ongelmia ei käytännössä olisi voinut tulla jos oltaisiin vaan pohjattu vanhaan sitä parantae eikä suunniteltu kokonaan uutta arkkitehtuuria.

Intelillä on jo olemassaoleva GPU-arkkitehtuuri, se pitää ainoastaan skaalata isommaksi piiriksi. Intelin ei tarvi tehdä erillis-GPUtansa puhtaalta pöydältä.
Mitäs jos jätetään Vegat ja muut asiaan kuulumattomat saman tien pois tästä keskustelusta? Niillä kun ei ole mitään tekemistä tuon Intelin tulevan Xe:n kanssa.

Ja sen Intelin uuden Xe:n piti olla täysin uusi arkkitehtuuri, joten tuo viimeisin kommenttisi kuulostaa kyllä todella omituiselta

Ihan mielenkiinnosta: väännätkö sinä ihan vääntämisen ilosta kun tulee tuota off-topicia noin railakkaasti vähän joka puolella? Ja perään valitusta siitä, että muut siirtelevät maalitolppia kun vastaavat sinun offtopic kommenttiisi?
 
Mitäs jos jätetään Vegat ja muut asiaan kuulumattomat saman tien pois tästä keskustelusta? Niillä kun ei ole mitään tekemistä tuon Intelin tulevan Xe:n kanssa.

Ja sen Intelin uuden Xe:n piti olla täysin uusi arkkitehtuuri, joten tuo viimeisin kommenttisi kuulostaa kyllä todella omituiselta

Ihan mielenkiinnosta: väännätkö sinä ihan vääntämisen ilosta kun tulee tuota off-topicia noin railakkaasti vähän joka puolella? Ja perään valitusta siitä, että muut siirtelevät maalitolppia kun vastaavat sinun offtopic kommenttiisi?
Ei se ole täysin uusi arkkitehtuuri, siinä on elementtejä myös aiemmista Gen-arkkitehtuureista.
 
Ei se ole täysin uusi arkkitehtuuri, siinä on elementtejä myös aiemmista Gen-arkkitehtuureista.
Eli jonkinlainen hybridi kuten ensimmäisen sukupolven RDNA:n väitetään olevan? Minulle on kyllä jäänyt kuva uudesta arkkitehtuurista tuon Xe:n kohdalla. Muistatko jotain linkkejä tms. joista voisi tarkistaa tuon?

EDIT: Joo, kyllä tuolla on jotain mainintoja siitä, että olisi osittain g11 pohjainen. Tosin kukaan ei tunnu tietävän kuinka paljon
 
Viimeksi muokattu:
Eli jonkinlainen hybridi kuten ensimmäisen sukupolven RDNA:n väitetään olevan? Minulle on kyllä jäänyt kuva uudesta arkkitehtuurista tuon Xe:n kohdalla. Muistatko jotain linkkejä tms. joista voisi tarkistaa tuon?
AnandTech Exclusive: An Interview with Intel’s Raja Koduri about Xe
Ei se mitään "hybridiä" kuitenkaan tarkoita

edit: ja "täysin uusi arkkitehtuuri" on tietenkin nyt mitä sellaiseksi haluaa määritellä, kyllähän se on monella tapaa täysin uusi vaikka vanhojakin elementtejä on mukana
 
Mitäs jos jätetään Vegat ja muut asiaan kuulumattomat saman tien pois tästä keskustelusta? Niillä kun ei ole mitään tekemistä tuon Intelin tulevan Xe:n kanssa.

Aika paljon enemmän niillä on tämän kanssa tekemistä kuin sinun bulldozer-esimerkilläsi.

Hienoa tekopyhyyttä kyllä, heität offtopic-argumentin ja kun vastaan siihen jossain määrin (mutta selvästi vähemmän) off-topicilla niin sitten siinä vaiheessa alkaa minun syyttäminen off-topicista.

Ja sen Intelin uuden Xe:n piti olla täysin uusi arkkitehtuuri, joten tuo viimeisin kommenttisi kuulostaa kyllä todella omituiselta

Pitikö? Onko jotain lähdettä tälle väitteelle?

Ihan mielenkiinnosta: väännätkö sinä ihan vääntämisen ilosta kun tulee tuota off-topicia noin railakkaasti vähän joka puolella? Ja perään valitusta siitä, että muut siirtelevät maalitolppia kun vastaavat sinun offtopic kommenttiisi?

Sen offtopicin kyllä tässä ketjussa aloitti joku muu kuin minä. Suosittelen katsomaan peiliin.

Minä korjaan ihmisten virheellisiä väitteitä. Kun postaat paskaa, vastaan siihen.
 
Minä korjaan ihmisten virheellisiä väitteitä. Kun postaat paskaa, vastaan siihen.
Mitä jos jätät suoraan kommmentoimatta kun et selvästi tajunnut viittausta esimerkiksi Bulldozeriin ollenkaan? Ei ketään kiinnosta tässä ketjussa sen sielunelämä, mutta sitä on helppo käyttää esimerkkinä epäonnistuneesta tuotteesta, koska kaikki tietävät sen olevan sellainen.
 
Mitä jos jätät suoraan kommmentoimatta kun et selvästi tajunnut viittausta esimerkiksi Bulldozeriin ollenkaan? Ei ketään kiinnosta tässä ketjussa sen sielunelämä, mutta sitä on helppo käyttää esimerkkinä epäonnistuneesta tuotteesta, koska kaikki tietävät sen olevan sellainen.

Se, että heitetään pintapuolisia esimerkkejä epäonnistuneesta tuotteesta ei ole kovin hyvää argumentointia, mikäli ei haluta ymmärtää, miksi ne epäonnistuivat eikä mietitä, että päteekö se epäonnistumisen syy siinä tilanteessa, mistä nyt on kyse.

Sinulla tuntuu lähinnä olevan vaan hirveä halu uskoa, että intel ei voi millään saada mitään kelvollista graffarautaa aikaiseksi, ja mikä tahansa kuinka onnetonkin argumentti ja epämääräinenkin huhu kelpaa tämän uskomuksesi taakse.

En minäkään usko, että intel tulee mitään 3dmark-kuninkuutta ottamaan, mutta tuosta voi tulla ihan pätevä HPC-laskentapiiri. HPC-laskennasta intel oikeasti tietää aika paljon, ja sinne intelillä on toisaalta myös jo sellaisia "opettavaisia puolittaisiia epäonnistumisia" takanaan.
 
Ja sillä, että kolmionpiirtokuormaa ei saada jaettua optimaalisesti eri clusterien välillä ei ole väliä, jos ei piirretä kolmioita vaan vain lasketaan geneeristä OpenCL-koodia.
Tuleeko nämä tukemaan OpenCL:ää? Olis kyllä hienoa jos olis edes jonkinlaista toivoa, että Cuda korvautuis tulevaisuudessa jollain avoimemmalla rajapinnalla.
 
Tuleeko nämä tukemaan OpenCL:ää? Olis kyllä hienoa jos olis edes jonkinlaista toivoa, että Cuda korvautuis tulevaisuudessa jollain avoimemmalla rajapinnalla.

Varmasti.

Intelin näyttikset ovat tukeneet OpenCLää jo vuosia, ja esim. OpenCLn versio 2.0 oli tuettu jo viitisen vuotta sitten, kun nVidialla se taisi tulla beta-ajureihin joskus pari vuotta sitten, enkä ole varma, onko vieläkään virallisissa nvidian ajureissa.

OpenCL Platform with Intel® Graphics
 
Tuleeko nämä tukemaan OpenCL:ää? Olis kyllä hienoa jos olis edes jonkinlaista toivoa, että Cuda korvautuis tulevaisuudessa jollain avoimemmalla rajapinnalla.
Tietenkin tukevat, ei siellä änkyröi kuin NVIDIA ja Apple vastaan
 
Tietenkin tukevat, ei siellä änkyröi kuin NVIDIA ja Apple vastaan
OpenCL vain taitaa olla melko hidas sekä toimimisen suhteen, että kehittymisensä suhteen.
Siellä silloin jossain vaiheessa tehtiin ryhtiliike, mutta homma on tainnut mennä taas vähän niin ja näin sen jälkeen.
 
Viimeksi muokattu:
OpenCL vain taitaa olla melko hidas sekä toimimisen suhteen, että kehittymisensä suhteen.
Siellä silloin jossain vaiheessa tehtiin ryhtiliike, mutta homma on tainnut mennä taas vähän niin ja näin sen jälkeen.

Mitähän nyt mahtanet tarkoittaa "toimimisella?"

Joskus muutama vuosi sitten nVidialle pystyi tekemään CUDAlla nopeampaa softaa kuin OpenCL:llä, koska nVidia ei tukenut OpenCL 2.0aa, mutta tuki CUDAssa niitä nopeuttavia ominaisuuksia, jotka OpenCL 2.0 toi, mutta nVidian tukemasta OpenCL 1.2sta puuttui.

Eli siis, CUDA toimi jossain vaiheessa nVidialla nopeammin käytännössä ihan vaan nVidian perseilyn takia.

Mutta tästä näköjään lähti myytit liikkeelle että CUDA olisi jotenkin "nopeampi rajapinta kuin OpenCL". Ei ole.

Muiden valmistajien näyttiksille taas - ei ole käytännössä koskaan ollut mitään OpenCLää nopeampia rajapintoja, muttta niille OpenCLn uudet ominaisuudet on tulleet paremmalla aikataululla kuin nVidialla.

Eikä OpenCL2.0ssä ole mitään "vikoja" tms, puuttuvia ominiasuuksia nopeuden suhteen.
 
Mitähän nyt mahtanet tarkoittaa "toimimisella?"

Joskus muutama vuosi sitten nVidialle pystyi tekemään CUDAlla nopeampaa softaa kuin OpenCL:llä, koska nVidia ei tukenut OpenCL 2.0aa, mutta tuki CUDAssa niitä nopeuttavia ominaisuuksia, jotka OpenCL 2.0 toi, mutta nVidian tukemasta OpenCL 1.2sta puuttui.

Eli siis, CUDA toimi jossain vaiheessa nVidialla nopeammin käytännössä ihan vaan nVidian perseilyn takia.

Mutta tästä näköjään lähti myytit liikkeelle että CUDA olisi jotenkin "nopeampi rajapinta kuin OpenCL". Ei ole.

Muiden valmistajien näyttiksille taas - ei ole käytännössä koskaan ollut mitään OpenCLää nopeampia rajapintoja, muttta niille OpenCLn uudet ominaisuudet on tulleet paremmalla aikataululla kuin nVidialla.

Eikä OpenCL2.0ssä ole mitään "vikoja" tms, puuttuvia ominiasuuksia nopeuden suhteen.

Mielenkiintoista sinänsä että OCL:lää on windowspuolella tuettu todella huonosti, jos siinä ei kerran ole mitään ongelmia. Onko siinä sitten ongelmalliset lisenssointiehdot?
 
Mielenkiintoista sinänsä että OCL:lää on windowspuolella tuettu todella huonosti, jos siinä ei kerran ole mitään ongelmia. Onko siinä sitten ongelmalliset lisenssointiehdot?

Ei. Sen lisenssiehdot on oikein mukavat.

Mitähän nyt tarkoitat muka huonolla tuella?

Se on tuettu oikein hyvin kaikkien muiden paitsi nVidian toimesta. nVidia vaan tarkoituksella tukee OpenCLää vähän huonosti, jotta saadaan painostettua koodarit käyttämään CUDAa.
 
Viimeksi muokattu:
Tietenkin tukevat, ei siellä änkyröi kuin NVIDIA ja Apple vastaan

Niin no kyseessä on intel ja johan ne julkaisi OneAPI:nsa, missä se heidän CUDAa, OpenCLää vastaava on nimeltään DPC++(Data Parallel C++). En ihmettelisi yhtään että tekisivät tuosta suljetun malliin CUDA ja tukisivat OpenCL:ää mahdollisimman vähän. Itseä kun ei pahemmin ohjelmointi ole koskaan kiinnostanut, mutta oletkos @hkultala käynyt läpi tuota OneAPIa?
 
Ei. Sen lisenssiehdot on oikein mukavat.

Mitähän nyt tarkoitat muka huonolla tuella?

Se on tuettu oikein hyvin kaikkien muiden paitsi nVidian toimesta. nVidia vaan tarkoituksella tukee OpenCLää vähän huonosti, jotta saadaan painostettua koodarit käyttämään CUDAa.

Eiköhän Nvidian kortit yksinkertaisesti toimi ESIM sillä cudalla paremmin. Siinä kun ei tarvitse ottaa muita mitenkään huomioon, niin saadaan tehtyä nopeampi, helpommin vakaampi ja uusien ominaisuuksien lisääminen on todella simppeliä vs systeemi, jossa on osallisia ties mitenkä paljon.

Open CL on senverran vähän tuettu windowspuolella, että on ehdottoman järkevää panostaa ennemmin directX:ään ja CUDA:aan (Jotta korteista saadaan kaikki irti.) Open CL: tukemisesta tuleva hyöty on ollut valitettavasti Win puolella lähinnä olematonta ja muiden käyttisten osuus on siinä käytössä, jossa OGL:stä on hyötyä on erittäin pieni. Steam machinetkin taisivat kuivahtaa pois, vaikka MS tarjosi tilaisuuden kultalautasella, hyvin suurta osaa ärsyttäneen Win 8 sekoilunsa kanssa, ja niistä on puhuttu kokoajan vähemmän..
 
Eiköhän Nvidian kortit yksinkertaisesti toimi ESIM sillä cudalla paremmin.
Siinä kun ei tarvitse ottaa muita mitenkään huomioon, niin saadaan tehtyä nopeampi, helpommin vakaampi ja uusien ominaisuuksien lisääminen on todella simppeliä vs systeemi, jossa on osallisia ties mitenkä paljon.

Suurin osa siitä, mitä on pellin alla on OpenCLssä ja CUDAssa aivan samaa, niitä vaan kutsutaan hiukan erilaisten rajapintojen läpi.

C++sta kutsuessa CUDAssa on lähinnä vaan host-puolen koodissa hiukan mukavampi syntaksi. Mutta tämä ero on lähinnä vain syntaksia, tällä ei ole mitään tekemistä sen kanssa, mitä pellin alla on.

Ja nVidian OpenCL-toteutus itse asiassa toimii siten että se nimenomaan kääntää OpenCLn aivan samaksi PTX-välikoodiksi, minkä nVidia kehitti nimenomaan CUDAa varten. Ja kernelin lähdekoodikielikin on molemmissa hyvin samanlainen (C/C++ muutamilla laajennoksilla)

Ja kaikki ne asiat, mitä tehdään eri tavalla OpenCLn ja CUDAn kanssa, tehdään käsittääkseni kirjastossa käyttäjäoikeuksilla, ei kernel-oikeuksilla, se itse varsinainen ajurikoodi on molempien ajamiseen täysin sama.

Jos haluaa kehittää OpenCL-koodia nVidian työkaluilla, pitää asentaa "CUDA SDK".


Open CL on senverran vähän tuettu windowspuolella, että on ehdottoman järkevää panostaa ennemmin directX:ään ja CUDA:aan (Jotta korteista saadaan kaikki irti.)

:facepalm:

Kun tarkastellaan asiaa muutenkin kuin hyvin kapeasti nvida-näkökulmasta, niin OpenCL on todella paljon paremmin ja laajemmin tuettu windows-puolella kuin CUDA.

En ymmärrä, että mistä ihmeestä oikein olet saanu päähäsi tuon väitteesi jostain "OpenCL:n huonosta tuesta windows-puolella", koska tuo väite on yksinkertaisesti täyttä puuta heinää.

Fakta on, että OpenCL on oikein hyvin tuettu windows-puolella.


Open CL: tukemisesta tuleva hyöty on ollut valitettavasti Win puolella lähinnä olematonta ja muiden käyttisten osuus on siinä käytössä, jossa OGL:stä on hyötyä on erittäin pieni.

:facepalm:

OpenCL on tuettu kaikkien näyttisvalmisajien windows-ajureissa.

Kun softan näyttiskiihdytetyt rutiinit koodaa OpenCLllä, se koodi toimii kaikilla n. viimeisen 10 vuoden aikana tehdyillä näyttiksillä

Se on ziljoona kertaa suurempi hyöty kuin se, että joissain tilanteissa suljettua rajapintaa käyttäen saa yhden valmistajan piireillä pienehkön suorituskykyhyödyn, johon siihenkin pääasiallisesti on syynä vain sen piirivalmistajan kusipäisyys, kun sen avoimen rajapinnan suorituskykyä on tarkoituksellisesti hidastettu tai sen kehitystä on hidasteltu ja ollaan siinä monta vuotta kilpailijoita jäljessä.

Steam machinetkin taisivat kuivahtaa pois, vaikka MS tarjosi tilaisuuden kultalautasella, hyvin suurta osaa ärsyttäneen Win 8 sekoilunsa kanssa, ja niistä on puhuttu kokoajan vähemmän..

Joku Steam machine ei liity tähän yhtään millään tavalla.
 
Viimeksi muokattu:
Suurin osa siitä, mitä on pellin alla on OpenCLssä ja CUDAssa aivan samaa, niitä vaan kutsutaan hiukan erilaisten rajapintojen läpi.

Ja nVidian OpenCL-toteutus itse asiassa toimii siten että se nimenomaan kääntää OpenCLn aivan samaksi PTX-välikoodiksi, minkä nVidia kehitti nimenomaan CUDAa varten. Ja kernelin lähdekoodikielikin on molemmissa melko samanlainen.

Ja kaikki ne asiat, mitä tehdään eri tavalla OpenCLn ja CUDAn kanssa, tehdään käsittääkseni kirjastossa käyttäjäoikeuksilla, ei kernel-oikeuksilla, se itse varsinainen ajurikoodi on molempien ajamiseen täysin sama.

Jos haluaa kehittää OpenCL-koodia nVidian työkaluilla, pitää asentaa "CUDA SDK".



:facepalm:

Kun tarkastellaan asiaa muutenkin kuin hyvin kapeasti nvida-näkökulmasta, niin OpenCL on todella paljon paremmin ja laajemmin tuettu windows-puolella kuin CUDA.

En ymmärtä, että mistä ihmeestä oikein olet saanu päähäsi tuon väitteesi jostain "OpenCLK huonosta tuesta windows-puolella", koska tuo väite on yksinkertaisesti täyttä puuta heinää.



:facepalm:

OpenCL on tuettu kaikkien näyttisvalmisajien windows-ajureissa.

Kun softan näyttiskiihdytetyt rutiinit koodaa OpenCLllä, se koodi toimii kaikilla n. viimeisen 10 vuoden aikana tehdyillä näyttiksillä

Se on ziljoona kertaa suurempi hyöty kuin se, että joissain tilanteissa suljettua rajapintaa käyttäen saa yhden valmistajan piireillä pienehkön suorituskykyhyödyn, johon siihenkin pääasiallisesti on syynä vain sen piirivalmistajan kusipäisyys.



Joku Steam machine ei liityä tähän yhtään millään tavalla.

Jos openCL käännetään CUDAlle tehdylle alustalle, niin Cudan on oltava silloin laajempi kokonaisuus tai jos ei ole, niin nopeus on todella surkea. Jotenkin pidän todennäköisempänä, että CUDA tukee paremmin juurikin NvidianGPU:ita (kun muiden räpeltämistä ei tarvitse huomioida.)
--------------
Eli siis Open CL ei juurikaan ole kehittynyt, jos kaikki toimii hyvin 10 vuotta vanhoilla näyttiksilläkin. Sitäkö vaivaa se ongelma, että kiistellään porukassa, mitä siihen tulee ja mitä ei ja siihen saadaan menemään 10 vuotta aikaa, jotta saadaan edes joku uusi ominaisuus sinne?
----------------------------
Tosin tämä vääntöhän ei kuulu tähän ketjuun, joten olkoon, miten on.
----------------------------

Jos Intel meinaa kortteja muuhun, kuin laskentapuolelle, niin kannattaa viritellä niihin mahdollisimman hyvät DX ajurit. Jos niitä käydään tekemään "kun keretään", niin ei niitä kortteja kukaan pelaamiseen osta. Tietysti jos nuo ei sovellu pelaamiseen (On siis suunniteltu etupäässä laskentakäyttöön), niin sitten lie DX tuen tasokin melko samantekevää..

Saisivat vuotaa kortin testiin kolmansille osapuolille, mahdollisimman aikaisessa vaiheessa.. (Mainospuheille kun ei nääs kannata antaa juuri mitään arvoa, tässäkään tapauksessa).
 
Eli siis Open CL ei juurikaan ole kehittynyt, jos kaikki toimii hyvin 10 vuotta vanhoilla näyttiksilläkin.

Tuolla logiikallasi C++ ei ole myöskään voinut kehittyä paljoa 34 vuoteen, ja C++17:n täytyy olla aivan samanlainen kuin joku 80-luvun ensimmäinen C++-versio, koska C++17 toimii 34 vuotta vanhalla 80386-prosessilla.

Aivan kuten C++aankin, OpenCL:ään on tullut 10 vuoden aikana paljon sellaisia uusia ominaisuuksia, jotka eivät vaadi mitään uutta rautatukea. Erityisesti OpenCL 1.1:ssä tuli paljon lisää kirjastorutiineja kernelin kirjastoihin.

Mutta erityisesti OpenCL 2.0 toi kyllä selvästi myös sellaisia ominaisuuksia, jotka vaativat rautatukea, ja kaikki OpenCL 2.0-koodi ei toimi vanhoilla näyttiksillä.

OpenCL 2.2 taas jälleen tuo lähinnä taas sellaisia ominaisuuksia, jotka eivät vaadi mitään uutta rautatukea.

Sitäkö vaivaa se ongelma, että kiistellään porukassa, mitä siihen tulee ja mitä ei ja siihen saadaan menemään 10 vuotta aikaa, jotta saadaan edes joku uusi ominaisuus sinne?

Ei. Kuka tahansa voi aina ja heti toteuttaa sen päälle omalla extensiolla haluamansa toiminnallisuuden. Mutta se, että tämä extensio joko standardoidaan osaksi standardia, tai sitten standardoidaan toinen saman asian tekevä hiukan erilainen rajapinta, voi viedä 1-3 vuotta. (ihan vaan senkin takia, että niitä uusia OpenCLn versioita ei tule joka vuosi)
 

Statistiikka

Viestiketjuista
261 762
Viestejä
4 546 194
Jäsenet
74 843
Uusin jäsen
Demonvr4

Hinta.fi

Back
Ylös Bottom