Mahdolliset saanoista saatavat hyödyt uppoavat osin kalliimpaan paketointiin. Esim. Silicon interposer lisää core-kompleksin valmistuskustannuksia selvästi ja toisaalta esim. Epycin infinity fabric on aivan liian hidas kelvatakseen kahden tehokkaan gpu:n yhdistämiseen sellaisenaan.
Ainakin minulle on epäselvää, että pystyykö kahden gpu:n välille lätkimään satojen gigabittien siirron sekunnissa mahdollistavan väylän halvalla ja lisäksi myös se, että mitä sen ja numa-rakenteiden tuotekehitys maksaa. Moisen härdellin tekeminen softalle transparentiksi on ainakin nopeasti ajateltuna hankalaa ja jos tarvitaan erikseen tukea softalta, niin se on melkoinen urakka...
Nvidia ei ainakaan ole kainostellut GV100:sen valmistuksessa, vaan selkeästi tilannut niin isoa kuin valmistaja pystyy toimittamaan. Ja tämä TSMC:n uusimmalla prosessilla.
http://research.nvidia.com/sites/default/files/publications/ISCA_2017_MCMGPU.pdf
Jos nyt katsotaan tuota, niin Nvidia speksaa 4 isoa 64 SM:n gpu:ta samalle MCM packagelle ja jokaiselle niistä 768GB/s muistikaistan, sekä GPM:ien väliseksi muistikaistaksi myös 768GB/s.
Paperi puhuu orgaanisesta paketoinnista ja suurin syy miksi tuota halutaan on se, että lähtöoletuksena 256 SM:n piirin oletetaan olevan mahdoton rakentaa, koska se ei mahdu foundryn mahdollistaman 800mm2 sisään.
Ollaan nähdäkseni vielä kaukana siitä, että GV104:sta tai sen seuraajaa pilkottaisiin useampiin palasiin...
—
Itse en usko valmistuskustannusten sanelevan käytännössä mitään cpu- /gpu-busineksessa. Piirivendorit laskuttavat sen verran minkä pystyvät, eivätkä kustannustensa mukaan.
Jos kustannukset olisivat tärkein hinnoittelu-driveri, eivät Intelin ja Nvidian tuottoprosentit olisi niin korkeita kuin ne nyt ovat.