Samsung julkisti 512 Gt:n DDR5-7200-muistit palvelimiin

Kaotik

Banhammer
Ylläpidon jäsen
Liittynyt
14.10.2016
Viestejä
22 471
samsung-512-gb-ddr5-7200-20210325.jpg


Kaotik kirjoitti uutisen/artikkelin:
DDR5-muistit ovat saapumassa markkinoille vielä kuluvan vuoden aikana, kun Intel julkaisee niitä tukevat Alder Lake -prosessorit. AMD:n puolella DDR5-tukea odotetaan ensimmäisiin AM5-kantaan sopiviin prosessoreihin, olivat ne sitten Zen 3 -päivitysversioita tai Zen 4 -prosessoreita.

Innokkaimmat muistivalmistajat ovat ehtineet jo esittelemään ja julkaisemaankin ensimmäiset DDR5-muistinsa. Nyt joukkoon liittyy myös Samsung, joskin astetta edelle ehtineitä julkistuksia järeämmin asein. Yhtiö tähtääkin nyt esitellyillä muisteilla lähinnä Intelin Sapphire Rapids- ja AMD:n Genoa-palvelinalustoille.

Samsungin julkistamat DDR5-muistit tulevat saataville 512 Gt:n kapasiteetilla ja parhaimmillaan DDR5-7200-nopeudella. Ne ovat ensimmäiset HKMG-prosessia (High-K Metal Gate, Korkean K-arvon metallihila)) hyödyntävät DDR5-muistit, mutta Samsungilla on aiemmin kokemusta HKMG:n käytöstä yhtiön GDDR6-muisteissa. Korkeaan kapasiteettiin per muistikampa on päästy hyödyntämällä TSV-läpivientejä (Through-Silicon-Via) ja pinoamalla päällekäin kahdeksan 16 gigabitin DDR5-muistisirua ja muistikammalle yhteensä jopa 40 DDR5-muistipiiriä. Ylimääräiset kahdeksan muistipiiriä selittyvät muistien ECC-virheenkorjauksella, jota ei tule sekoittaa DDR5-muistien sisäiseen ECC-virheenkorjaukseen.

Lähde: Samsung

Linkki alkuperäiseen juttuun
 
Siirtonopeus kyllä yllätti. Olisin luullut, että serveripuolella mennään konservatiivisella linjalla.
 
Latensseja ei mainittu. Vieläköhän ovat kaksinumeroisia?
 
Latensseja ei mainittu. Vieläköhän ovat kaksinumeroisia?
Vaikuttaakohan tuo ecc latensseihin kun siinä eka tehdään piirin sisäinen ecc-tarkistus ja lisäksi tuo ecc-muistien laajempi tarkistus päälle.
 
Mielenkiintoisen muotoinen tuo muistikamman liitinrajapinta, vähän läskimpi keskikohdilta. Ekakertaa huomaan, onks tuolle jokin taustajuttu tiedossa?
 
Vaikuttaakohan tuo ecc latensseihin kun siinä eka tehdään piirin sisäinen ecc-tarkistus ja lisäksi tuo ecc-muistien laajempi tarkistus päälle.

Äkkiseltään en wikipeidaa parempaa lähdettä löytänyt.

"
ECC may lower memory performance by around 2–3 percent on some systems, depending on the application and implementation, due to the additional time needed for ECC memory controllers to perform error checking.[34] However, modern systems integrate ECC testing into the CPU, generating no additional delay to memory accesses as long as no errors are detected.[21][35][36]
"

Eli ei välttämättä. Tosin liene turvallinen veikkaus on, että ECC muisteja ei tulla julkaisemaan yhtä kireillä latenssi spekseillä saati sellaisilla kellotaajuuksilla kuin kuluttaja rammit. Noissa kuitenkin kaikkein tärkeintä on datan säilyminen, eli vakaus ja varmuus.

Palvelin hommissa muutenkaan se yhden queryn latenssi ole niin merkittävä, koska asioita on tapana ajaa asynkronisesti ja rinnakkain, jolloin yleesnä kokonais troughput on se juttu. On toki joitan käyttötapauksia joissa pienet viiveet on se juttu, tosin yleesnä nämä liitty ihmiskäyttäjään ja palvelun sujuvaan toimintaan, joten puhutaan ihan eri asioista kuin muistien viiveet.
 
Tuo "kyhmy" pinnipuolella tuli jo DDR4:n myötä ja ilmeisesti sen tarkoituksena on helpottaa asennusta
Eikä :oops:
No siis, ehkä satuin asentelemaan omat pari viime konetta ilman laseja, nyt ilman laseja tehden ei välttämättä osuis ees kammat slotteihin. En kyllä oo huomannu tuota aikasemmin siis...
 
Tuskin menee kauaa että alkaa kotitietokoneissa olla. Kun 10 vuotta sitten ostin 16 gigan setin ITX-koneeseen, 32 gigaa sai jo keskihintaisiin ATX-koneisiin. Monella oli vielä 4-8 GB. Tänä vuonna tullee 64 gigaa kun monella on vielä 16-32 GB. Parilla tutulla koodarilla on jo 128 GB:n työasema. Näillä näkymin tulotason nousu arvioiden joskus 9-10 vuoden päästä lienee jo omassa koneessa 512 GB RAM. Osalla varmaan jo tera silloin. Vieköhän Slack silloin jo 100 gigaa ja spotify toiset 100.
 
Siirtonopeus kyllä yllätti. Olisin luullut, että serveripuolella mennään konservatiivisella linjalla.
Samsungilla on muistaakseni tapana vähän keulia näissä, eli todennäköisesti sieltä ei oikeasti tule aluksi saatavilla mitään DDR5-7200-nopeudella toimivaa, mutta ne "julkaisee" kerralla maksiminopeuden millä sitä nimenomaista "muistimallia" tullaan ikinä tuottamaan.
ARM:t kiristää kilpailua tai Samsung haluaa erottua joukosta?
Mitä tekemistä Armilla on asian kanssa? Ihan samoja muisteja ne syö, ei Samsungia kiinnosta kumpaan niiden muisteja pistetään kiinni, tekevät vain parhaat muistit mitä pystyvät.
 
Tuskin menee kauaa että alkaa kotitietokoneissa olla. Kun 10 vuotta sitten ostin 16 gigan setin ITX-koneeseen, 32 gigaa sai jo keskihintaisiin ATX-koneisiin. Monella oli vielä 4-8 GB. Tänä vuonna tullee 64 gigaa kun monella on vielä 16-32 GB. Parilla tutulla koodarilla on jo 128 GB:n työasema. Näillä näkymin tulotason nousu arvioiden joskus 9-10 vuoden päästä lienee jo omassa koneessa 512 GB RAM. Osalla varmaan jo tera silloin. Vieköhän Slack silloin jo 100 gigaa ja spotify toiset 100.
Helvetin surullista jos tosiaan se menee täähän, softien muistivaatimuksilla ei ole mitään väliä koska kyllähän sitä muistia ja prossutehoa on niin perkeleesti ajattelee koodarit ja tekevät paskaa koska ei kiinnosta optimointi. Joku spotifynkin klientti suhtkoht yksinkertainen ja tehtävänä on soittaa sekä hakea musiikkia ja muistivaatimukset vain kasvavat, optimointi olisi kova sana, mutta sitä nykyään ei tunnuta osaavan. Electron ja muut paskaframeworkit helvettiin.
 
Helvetin surullista jos tosiaan se menee täähän, softien muistivaatimuksilla ei ole mitään väliä koska kyllähän sitä muistia ja prossutehoa on niin perkeleesti ajattelee koodarit ja tekevät paskaa koska ei kiinnosta optimointi. Joku spotifynkin klientti suhtkoht yksinkertainen ja tehtävänä on soittaa sekä hakea musiikkia ja muistivaatimukset vain kasvavat, optimointi olisi kova sana, mutta sitä nykyään ei tunnuta osaavan. Electron ja muut paskaframeworkit helvettiin.
Se vain on paljon helpompaa ja halvempaa rakentaa paskaframeworking päälle kevyt kerros customia kuin rakentaa koko pakka alusta loppuun itse. Tämä on trendi niin työpöytäsoftissa kuin myös verkkosivuilla.
 
Se vain on paljon helpompaa ja halvempaa rakentaa paskaframeworking päälle kevyt kerros customia kuin rakentaa koko pakka alusta loppuun itse. Tämä on trendi niin työpöytäsoftissa kuin myös verkkosivuilla.
niin, paskan suoltaminenhan se trendi valitettavasti on, ihan vitun sama miten toimii kunhan toimii tuntuu ajatusmalli olevan ja se tällaista nörttiää vituttaa. Onneksi en käytä windowsia vaan linux ja bsd pyörii jossa itse voin kontrolloida miten teen asiat.
 
Tuskin menee kauaa että alkaa kotitietokoneissa olla. Kun 10 vuotta sitten ostin 16 gigan setin ITX-koneeseen, 32 gigaa sai jo keskihintaisiin ATX-koneisiin. Monella oli vielä 4-8 GB. Tänä vuonna tullee 64 gigaa kun monella on vielä 16-32 GB. Parilla tutulla koodarilla on jo 128 GB:n työasema. Näillä näkymin tulotason nousu arvioiden joskus 9-10 vuoden päästä lienee jo omassa koneessa 512 GB RAM. Osalla varmaan jo tera silloin. Vieköhän Slack silloin jo 100 gigaa ja spotify toiset 100.
Väittäisin että se on tällä hetkellä "monella on vielä 8-16 Gt", 32 Gt on lähinnä hc-harrastajille vasta rantautunut (työasemien ulkopuolella tietenkin siis)
 
Jossain vaiheessa oli windowsupdate rikki ja kun sinne kertyi sopiva "könttä" päivityksiä, niin 4Gigaa ei tahtonut riittää, jos oli vielä joku viruskilleri koneessa, joka oli syöppö.
Se oli jotain puoli vuotta - vuoden, sitten korjasivat sen.

Sen jälkeen on taas peruskäytössä riittänyt 4 gigaa muistia.

Peruspelaajalle riittää nykyään 8 Gigaa (keskusmuistia) oikein mallikkaasti ja 16, jos on vaativampi. En nyt kyllä näe ihan heti peruskäytössä, mihin saisi 32 Gigaa menemään..
Kerran on koneellani yhdistelty ihan jumalattomia kuvia (todella suuri määrä valokuvia yhdeksi kuvaksi ja silloin 64 Gigaa oli vähän, olisi pitänyt olla 128 (tai ehkä 256 yhdessä tapauksessa)..
 
Väittäisin että se on tällä hetkellä "monella on vielä 8-16 Gt", 32 Gt on lähinnä hc-harrastajille vasta rantautunut (työasemien ulkopuolella tietenkin siis)
Niin, riippuu tosi paljon miltä ryhmiltä kysellään. Mulla on mATX-koneessa ollut nyt 4v 32 gigaa ja sitä ennen oli 6v 16 gigaa. Työläppäriin lisättin toinen 16 gigan muistipala kun vanhalla ei pärjännyt. Monella enemmän virtuaalikoneissa koodia vääntävällä on jo 64 gigaa läppärissä. Nuo ei vielä ole työasemaluokan koneita eli ei ole threadripperiä, ryzen pro:ta, xeonia yms.
 
Peruspelaajalle riittää nykyään 8 Gigaa (keskusmuistia) oikein mallikkaasti ja 16, jos on vaativampi. En nyt kyllä näe ihan heti peruskäytössä, mihin saisi 32 Gigaa menemään..
Kerran on koneellani yhdistelty ihan jumalattomia kuvia (todella suuri määrä valokuvia yhdeksi kuvaksi ja silloin 64 Gigaa oli vähän, olisi pitänyt olla 128 (tai ehkä 256 yhdessä tapauksessa)..
Muistia kuluukin juuri noissa prosessoinneissa, missä jokainen core tekee jotain. Muistia voi jakaakin säikeiden välillä, mutta työsetti on eri. Eli jos esim. ajaa filttereitä kuville, 16-ydin voi kuluttaa noin 2x sen mitä 8-ydin. Jos 4 ytimelle riittää 4 gigaa, kyllä 16:lla vaan 16 gigaa on oikeanlainen mitoitus. Tässä käytössä muistin kulutuksen kasvu on ihan "fiksua".
 
Helvetin surullista jos tosiaan se menee täähän, softien muistivaatimuksilla ei ole mitään väliä koska kyllähän sitä muistia ja prossutehoa on niin perkeleesti ajattelee koodarit ja tekevät paskaa koska ei kiinnosta optimointi. Joku spotifynkin klientti suhtkoht yksinkertainen ja tehtävänä on soittaa sekä hakea musiikkia ja muistivaatimukset vain kasvavat, optimointi olisi kova sana, mutta sitä nykyään ei tunnuta osaavan. Electron ja muut paskaframeworkit helvettiin.
Spotifystähän on klienttejä myös AV-vastaanottimiin ja niissä on ihan mopotason laitteisto. Nuo electron-pohjaiset klientit on ihan omassa luokassaan. On nuo luvut silleen astronomisia, että ei montaa vuotta tarvi mennä taaksepäin, kun koneessa mikään ohjelma ei vaatinut niin paljon muistia ja koko käyttis oli pienempi kuin yksi electron-appi nykyään :)
 
Niin, riippuu tosi paljon miltä ryhmiltä kysellään. Mulla on mATX-koneessa ollut nyt 4v 32 gigaa ja sitä ennen oli 6v 16 gigaa. Työläppäriin lisättin toinen 16 gigan muistipala kun vanhalla ei pärjännyt. Monella enemmän virtuaalikoneissa koodia vääntävällä on jo 64 gigaa läppärissä. Nuo ei vielä ole työasemaluokan koneita eli ei ole threadripperiä, ryzen pro:ta, xeonia yms.
Puolison työpaikassa lähti viime vuonna viimiset 4 gigan läppärit pois
 
Niin, riippuu tosi paljon miltä ryhmiltä kysellään. Mulla on mATX-koneessa ollut nyt 4v 32 gigaa ja sitä ennen oli 6v 16 gigaa. Työläppäriin lisättin toinen 16 gigan muistipala kun vanhalla ei pärjännyt. Monella enemmän virtuaalikoneissa koodia vääntävällä on jo 64 gigaa läppärissä. Nuo ei vielä ole työasemaluokan koneita eli ei ole threadripperiä, ryzen pro:ta, xeonia yms.
virtuaalikoneethan sitä muistia kuluttavat ihan kiitettävästi ja se on täysin ok, itselläni työasemassa 64gt muistia. ELi ei se mitään jos muistia käytetään, mihin sitä käytetään se onkin ihan eri kysymys. Käytetäänkö sitä virtualisoinninpyörittämiseen joka vaatii tehoja ja muistia vai meneekö sama muisti electron paska-appien pyöritykseen.
 
Samsungilla on muistaakseni tapana vähän keulia näissä, eli todennäköisesti sieltä ei oikeasti tule aluksi saatavilla mitään DDR5-7200-nopeudella toimivaa, mutta ne "julkaisee" kerralla maksiminopeuden millä sitä nimenomaista "muistimallia" tullaan ikinä tuottamaan.

Mitä tekemistä Armilla on asian kanssa? Ihan samoja muisteja ne syö, ei Samsungia kiinnosta kumpaan niiden muisteja pistetään kiinni, tekevät vain parhaat muistit mitä pystyvät.

Tuskin mitään, jäin fundeeraamaan samaa, mutta sitten täräytettiin lekalla kallo halki.
 

Statistiikka

Viestiketjuista
258 264
Viestejä
4 485 716
Jäsenet
74 129
Uusin jäsen
GentlePeace

Hinta.fi

Back
Ylös Bottom