Tällähetkellä 64 bittinen muistiavaruus on täysin riittävä kaikkeen mahdolliseen[...]
En ole eri mieltä, kunhan annan perspektiiviä yo. tulkintaan.
Palvelin puolella jättimäiset datamäärät ovat yksi isoimpia haasteita tällä hetkellä. Data pitäisi saada kerralla muistiin (enemmän muistia), väylien pitäisi pystyä siirtämään dataa nopeammin (nopeampi/levämpi väylä), eri prosessoreiden pitäisi pystyä (ilman yhtä kovaa suorituskykyhaittaa kuin nyt) osoittamaan samaa muistia yli em. väylien, muistirakenteen tulisi olla datanäytön/ohjelmoinnin kannalta yhtenäisempi (uusi muisti-topologia) JA tämä pitäisi tapahtua järkevällä hinta/energia-budjetilla (energiankulutus*hinta/muistimäärä).
Hewlett-Packard Enterprise (HPE) -yksiköllä on yo. ensimmäinen toiminnallinen prototyyppi, The Machine.
HPE Unveils Computer Built for the Era of Big Data | HPE Newsroom
Proto pystyy osoittamaan 160 teratavua muistia, mutta tämä perustuu erilaiseen arkkitehtuuriin kuin nykyiset suoritinkeskeiset alustat. Tarkoitus on skaalata tuo ainakin 320 teratavuun seuraavissa versioissa. Mutta tässäkin haaste on tarjota koko muistiavaruus käyttöön yhtenäisenä (erilaisten nykyarkkitehtuurien rajoitusten takia, kts. alla).
Vertailun vuoksi:
Käsittääkseni rajoitukset nykyisillä AMD64-toteutuksilla nyt ovat:
- AMD64-arkkitehtuurin käytännön 48-bittinen (Intel/AMD) osoiteavaruus: suorittimen rajoitus nyt max. 256 teratavua (mahd. 4 petatavua tulevaisuudessa laajennuksella, vaatii prosessoritason muutoksen)
- Linux-ytimen (RedHat v7) rajoitus: 12 teratavua
- Päälle emojen, muistikampojen ja muiden osien tuomat rajoitukset.
Eli teoreettista 2^64 tavumäärää ei nykyisistä 64-bittisistä prosessoreista saadakaan käyttöön noin vain. Ja kun saadaan, niin nykyarkkitehtuurien muut osat (prosesssorikeskeisyys, väylät, jne vrt. HPE The Machine suunnittelulähtökohtiin) tulevat pullonkaulaksi koko muistiavaruuden tehokkaaseen hyödyntämiseen.
Pointtina oli tukea Griffinin huomiota ja samalla todeta, että palvelinpuolella, missä "insane data" ('big data' on niin viime vuosikymmentä) vaatimukset ovat ajaneet muistitarpeet aivan stratosfäärisiksi. Ruokahalua isommalle/nopeammalle/yhtenäisemmälle muistiavaruudelle löytyy ja tarpeet kasvavat toistaiseksi nopeammin kuin nykyarkkitehtuurien (ja muistivalmistuksen/tekniikoiden) kapasiteetti tarjota muistia käyttöön.
Eli muutoksia on tulossa. Ensin palvelinpuolen erikoistarpeissa ja sitten hiljalleen sieltä osa innovaatioista, onnistumisen / levinneisyyden mukaan, todennäköisesti leviää aikanaan myös muille puolille.
Tämä ei muuta sitä, että nykyinen CPU-arkkitehtuuri on ja pysyy vielä pitkään, etenkin HEDT/Desktop-puolella. Eli en usko, että ihan heti nähdään edes 64-bittisiä prosessoreita, jotka osoittavat 56-bitin verran yhtenäistä muistiavaruutta, ja joita saa järkevään hintaan ostaa hyvätuloinen kuluttaja seuraavan 5v aikana.
Itse olisin tyytyväinen, jos nyt ensin palattaisiin sinne huhtikuun 2016 DDR4-muistien hintatasolle (eli hinnat tippuisivat 50%-67%) ja emoissa nopea nelikanavainen muistohjain olisi se peruslähtökohta, eikä näitä iänikuisia tuplakanavallisia max 32Gt-64Gt virityksiä.
Eli näillä mennään...