Intel julkaisi neljän Xe-grafiikkapiirin Server GPU -näytönohjaimen palvelimiin

  • Keskustelun aloittaja Keskustelun aloittaja Kaotik
  • Aloitettu Aloitettu

Kaotik

Banhammer
Ylläpidon jäsen
Liittynyt
14.10.2016
Viestejä
22 611
Neljään Xe-LP-grafiikkapiiriin perustuva Intel Server GPU "H3C XG310" on suunniteltu median streamauspalveluihin sekä Android-pilvipelien pyörittämiseen matalin viivein.

1605208524112.png


1605208484793.png


 
Yhden ainoan virkkeen uutinen ja senkin sisältö on melkein kokonaan jo otsikossa. Riittääköhän ensi vuonna uutiseksi pelkkä linkki?
 
Yhden ainoan virkkeen uutinen ja senkin sisältö on melkein kokonaan jo otsikossa. Riittääköhän ensi vuonna uutiseksi pelkkä linkki?
Lyhyiden uutisten konsepti on ollut alusta asti lause tai pari (vaikka välillä meneekin vähän pitkäksi) ja linkki. Niiden on tarkoitus tuoda esille uutisia, jotka ovat io-techin toimituksen mielestä kiinnostavia, mutta ei etusivun uutisen arvoisia asioita.
 
Lyhyiden uutisten konsepti on ollut alusta asti lause tai pari (vaikka välillä meneekin vähän pitkäksi) ja linkki. Niiden on tarkoitus tuoda esille uutisia, jotka ovat io-techin toimituksen mielestä kiinnostavia, mutta ei etusivun uutisen arvoisia asioita.
Täällä on aiemmin jaettu huomautuksia pelkillä linkeillä keskustelemisesta, ja ihan syystäkin. Myös tapauksissa, jolloin kommentin ainoana sisältönä olevan youtube -linkin esikatselukuvan kuva ja otsikko kertoo vähintään yhtä paljon sisällöstään kuin tämä uutinen. Kyseessä kun on perin ärsyttävä kommunikointitapa.
Jos aiheen kokeen kiinnostavaksi tai keskustelemisen arvoiseksi, olisi ihan suotavaa, että siitä kerrottaisiin edes hieman, eikä pistettäisi vain linkkiä jonnekin muualle.
 
Täällä on aiemmin jaettu huomautuksia pelkillä linkeillä keskustelemisesta, ja ihan syystäkin. Myös tapauksissa, jolloin kommentin ainoana sisältönä olevan youtube -linkin esikatselukuvan kuva ja otsikko kertoo vähintään yhtä paljon sisällöstään kuin tämä uutinen. Kyseessä kun on perin ärsyttävä kommunikointitapa.
Jos aiheen kokeen kiinnostavaksi tai keskustelemisen arvoiseksi, olisi ihan suotavaa, että siitä kerrottaisiin edes hieman, eikä pistettäisi vain linkkiä jonnekin muualle.
Tästä voi antaa palautetta Palaute-alueella jos siltä tuntuu, mutta konsepti on ollut käytössä nyt yli kolme vuotta ilman sen kummempia purnauksia. Jotkut lyhyistä on pidempiä, jotkut lyhyempiä kuten tämä.
 
Tässä varmaan tuosta jutusta eniten kiinnostava osuus:

The Intel Server GPU is based on Xe-LP microarchitecture, Intel’s most energy-efficient graphics architecture, offering a low-power, discrete system-on-chip design, with a 128-bit pipeline and 8GB of dedicated onboard low-power DDR4 memory.

By using Intel Server GPUs alongside Intel Xeon Scalable processors, service providers can scale graphics capacity separately from the server count, supporting larger numbers of streams and subscribers per system, while still achieving low TCO. Packaging together four Intel Server GPUs in H3C’s three-quarter-length, full-height x16 PCIe Gen 3.0 add-in card can support more than 100 simultaneous Android cloud gaming users in a typical two-card system and up to 160 simultaneous users, depending on the specific game title and server configuration.


Eli uutisen kuvassa on kortti, jolle on sijoitettu neljä "Server GPU":ta, kullakin 8 gigaa muistia ja 128-bittinen liukuhihna, mitä se nyt sitten tarkoittaakaan. Aika jännä että muisti on ilmeisesti ihan perus DDR4:ää.
 
Yllättävän vähän tämä on saanut palstatilaa alan mediassa, vaikka kyseessä on intelille uusi aluevaltaus ja tulonlähde, joka syö x prosenttia serveripuolen markkinaosuuksia nvidialta ja amd:ltä. Toivottavasti asiasta uutisoidaan enemmän sitten kun joku on saanut kortin käsiinsä ja päässyt tekemään testejä.
 
Kuulostaa vähän oudon spesifiseltä suunnitella gpu juuri Android pilvipelaamiseen matalilla viiveillä. Eikö tällä voi muuta kuin android pelejä streamata, tai vaatiiko android streamaus jotain erikoista raudalta jota muista näyttiksistä ei löydy?
 
Speksien perusteella ei kuulosta kovin kummoiselta. Mielenkiintoista nähdä, että miten menestyy.
 
Mikseikähän näytönohjaimistakin tehdä "emolevyjä", joihin voisi itse valita muistit ja keskusyksikön?
 
Mikseikähän näytönohjaimistakin tehdä "emolevyjä", joihin voisi itse valita muistit ja keskusyksikön?
Tämän voisi siten toteuttaakkin, GDDR taas tyypillisesti vaatii enemmän signaloinnilta ja erilliset kammat ei ole kovin realistinen idea. Lisäksi ongelmia tulee siitä että eri näyttiksissä on erileveyksiset muistiohjaimet, joten joko muistikammoista jäisi jossain tilanteissa osa piireistä käyttämättä tai sit muistikammat pitäisi joka tapauksessa yhdistää spesifiin prosessoriin. Tai sit jokainen muistipiiri omalla kammalla, mutta se olisi jo aika pöhkön näköistä. Myös muististandardit tuntuu vaihtuvan paljon tiheämpään näyttiksissä ja käytännössä joka päivityssyklillä pitäisi kaikki vaihtaa kuitenkin.
 
Tässä varmaan tuosta jutusta eniten kiinnostava osuus:

The Intel Server GPU is based on Xe-LP microarchitecture, Intel’s most energy-efficient graphics architecture, offering a low-power, discrete system-on-chip design, with a 128-bit pipeline and 8GB of dedicated onboard low-power DDR4 memory.

By using Intel Server GPUs alongside Intel Xeon Scalable processors, service providers can scale graphics capacity separately from the server count, supporting larger numbers of streams and subscribers per system, while still achieving low TCO. Packaging together four Intel Server GPUs in H3C’s three-quarter-length, full-height x16 PCIe Gen 3.0 add-in card can support more than 100 simultaneous Android cloud gaming users in a typical two-card system and up to 160 simultaneous users, depending on the specific game title and server configuration.


Eli uutisen kuvassa on kortti, jolle on sijoitettu neljä "Server GPU":ta, kullakin 8 gigaa muistia ja 128-bittinen liukuhihna, mitä se nyt sitten tarkoittaakaan. Aika jännä että muisti on ilmeisesti ihan perus DDR4:ää.
Kaipa tässäkin on ajateltu vakautta, kustannuksia sekä skaalattavuutta. Uskoisin että palvelinympäristössä muistin nopeus on toissijaista, ensisijaisesti varmasti ajateltu virheenkorjausta. Olis varmaan palvelinkäytössä ihan hyvä ominaisuus. En oikeestaan ole edes varma että tukeeko "tavalliset kuluttajamallin" GPU sirut edes virheenkorjausta.
 
Esim. Meillä pyörii töissä tuhatkunta palvelinta jauhamassa reaaliajassa tuhansia videostrameja eri bitratejen ja asetusten välillä.

Jos tuollainen gpu on kustannustehokas tapa (energian kulutus ja räkkitila yms. huomioiden) pyörittää h.264 / h.265-transkoodausta, niin miksipä ei?

En ole noiden rautojen ja softien kanssa tekemisissä, mutta sen verran voin kertoa, että kun joku 30-räkillistä palvelimia jauhaa videota 24/7, niin tarpeet ovat vähän erilaisia kuin kotikäytössä.

Taino, liekö yhteensä 50 räkillistä kun tärkeimmät ovat kahdennettuna kahteen eri datacenteriin ja jonkun verran pitää olla switchejä yms. roinia seassa.
 

Statistiikka

Viestiketjuista
261 198
Viestejä
4 531 753
Jäsenet
74 773
Uusin jäsen
Jurska

Hinta.fi

Back
Ylös Bottom