Intel® Nervana™ Neural Network Processors (NNP) Redefine AI Silicon

Liittynyt
21.06.2017
Viestejä
7 029
ToivottavastI ovat kaatanu tolkuttomasti rahaa tuohon ja siitä tulee samanlainen fail kuin itanikista
 
Liittynyt
16.12.2016
Viestejä
873
Puhdasta linkkispämmäystä. Pohjusta nyt edes vähän :facepalm:
Intel Pioneers New Technologies to Advance Artificial Intelligence

As our Intel CEO Brian Krzanich discussed earlier today at Wall Street Journal’s D.Live event, Intel will soon be shipping the world’s first family of processors designed from the ground up for artificial intelligence (AI): the Intel® Nervana™ Neural Network Processor family (formerly known as “Lake Crest”). This family of processors is over 3 years in the making, and on behalf of the team building it, I’d like to share a bit more insight on the motivation and design behind the world’s first neural network processor.

Käyttökohteita:
Sieppaa.JPG

Viesti: #3 täysin turhaa huutelua.
 
Viimeksi muokattu:
Liittynyt
22.10.2016
Viestejä
11 123
Näköjään tuon on tehnyt Nervana, jonka intel osti reilu vuosi sitten.

Nervana Systems - Wikipedia


Intelhän oli käytännössä mokannut AVX512n kanssa "kukaanhan ei tule tulevaisuudessa tarvitsemaaan alle 32-bittisiä datatyyppejä, tai jos tarvii, ne voidaan laskea 32-bittisillä" lähestymistavallaan; Käytännössä heti sen jälkeen kun AVX512n speksi oli lyöty lukkoon, tapahtui neuroverkkojen uusi tuleminen ja niissä kaikki lasketaan alle 32-bittisillä luvuilla, ja järeässä SIMD-laskennassa pienemmillä datatyypeillä saavutetaan samalla vektorin bittileveydellä suoraan N-kertanen nopeutus kun vektoriin mahtuu N kertaa enemmän alkioita

AVX-512 is a big step forward - but repeating past mistakes!


ELi piti ostaa "ulkopuolelta" tuo neuroverkkopiiri kun oma arkkitehtuuri ei taipunut hyvällä suorituskyvyllä. Tosin oli tämä täysin neuroverkkoihin erikoistunut arkkitehtuuri varmaan muutenkin selvästi energiatehokkaampi kuin Xeon Phi-pohjainen olisi ollut, vaikka siinä olisi ollut kapeampien datatyyppien vektorit.



Ehkä jännin ominaisuus tuossa on tuo liukulukuformaatti, jossa luvun eksponentti on yhteinen koko vektorille tjsp.

Piirin arkkitehtuurista löytyy vain pari slideä tuolla:

Rethinking computation: A processor architecture for machine intellig…
 
Viimeksi muokattu:
Liittynyt
18.10.2016
Viestejä
35
Näköjään tuon on tehnyt Nervana, jonka intel osti reilu vuosi sitten.

Nervana Systems - Wikipedia


Intelhän oli käytännössä mokannut AVX512n kanssa "kukaanhan ei tule tulevaisuudessa tarvitsemaaan alle 32-bittisiä datatyyppejä, tai jos tarvii, ne voidaan laskea 32-bittisillä" lähestymistavallaan; Käytännössä heti sen jälkeen kun AVX512n speksi oli lyöty lukkoon, tapahtui neuroverkkojen uusi tuleminen ja niissä kaikki lasketaan alle 32-bittisillä luvuilla, ja järeässä SIMD-laskennassa pienemmillä datatyypeillä saavutetaan samalla vektorin bittileveydellä suoraan N-kertanen nopeutus kun vektoriin mahtuu N kertaa enemmän alkioita

AVX-512 is a big step forward - but repeating past mistakes!


ELi piti ostaa "ulkopuolelta" tuo neuroverkkopiiri kun oma arkkitehtuuri ei taipunut hyvällä suorituskyvyllä. Tosin oli tämä täysin neuroverkkoihin erikoistunut arkkitehtuuri varmaan muutenkin selvästi energiatehokkaampi kuin Xeon Phi-pohjainen olisi ollut, vaikka siinä olisi ollut kapeampien datatyyppien vektorit.



Ehkä jännin ominaisuus tuossa on tuo liukulukuformaatti, jossa luvun eksponentti on yhteinen koko vektorille tjsp.

Piirin arkkitehtuurista löytyy vain pari slideä tuolla:

Rethinking computation: A processor architecture for machine intellig…
Kiitos Heikki, taustaa valaisemalla helpotat kokonaisuuden ymmärtämistä ihan eri tavalla kuin esim. googlesta asiaa etsimällä :)
 
Toggle Sidebar

Statistiikka

Viestiketjut
240 435
Viestejä
4 199 442
Jäsenet
70 906
Uusin jäsen
Zawaro

Hinta.fi

Ylös Bottom