Kahdella 64-ytimisellä Milan-prosessorilla varustettu järjestelmä testivuodoissa (Zen 3)

Kaotik

Banhammer
Ylläpidon jäsen
Liittynyt
14.10.2016
Viestejä
21 590


Kaotik kirjoitti uutisen/artikkelin:
AMD julkaisi Zen 3 -arkkitehtuurin työpöydälle suunnattujen Vermeer-koodinimellisten Ryzen 5000 -prosessoreiden mukana. Yhtiö on aiemmin jo varmistanut, että se aloittaa myös samaan arkkitehtuuriin perustuvien Milan-koodinimellisten Epyc-prosessoreiden toimitukset kuluvan neljänneksen aikana, vaikka virallinen julkaisu saattaakin siirtyä ensi vuoden puolelle.

Nyt Twitterissä ExecutableFix-nimimerkillä tunnettu henkilö on saanut käsiinsä palvelimen 64-ytimisellä Milan-prosessorilla ja ajanut sillä testejä Zen 2 -arkkitehtuuriin perustuvaa 64-ytimistä Rome-prosessoria vastaan.

[gallery link="file" ids="56235,56236,56237"]

Yhdellä säikeellä Cinebench R15-testissä Milan tarjoaa ExecutableFixin mukaan 18 %:n parannuksen Romeen nähden, kun R20:ssa ero on 11 % ja CPU-Z:n testissä 13 %. Molemmat prosessorit toimivat testissä lukitulla 2,4 GHz:n kellotaajuudella. Kun kellotaajuus vapautetaan, kasvaa Zen 3 -arkkitehtuuriin perustuvan Milanin etumatka selvästi. Prosessorin Boost-kellotaajuus on peräti 400 MHz korkeampi, kuin vastaavan Romen, minkä myötä R15:n ero kasvoi 32 %:iin, R20:n 22 %:iin ja CPU-Z:n 27 prosenttiin. Kaikkien ydinten testissä erot jäivät pieniksi, sillä R15:ssa ero oli vain 11 ja R20:ssa 9 %, vaikka Milan toimi testissä noin 12 % Romen 3,3 GHz:iä korkeammalla 3,7 GHz:n kellotaajuudella.

Lisäkuriositeettina ExecutableFix ajoi vielä Cinebench R23 -testin 128-ytimisellä eli kaksi 64-ytimistä Milan-prosessoria sisältävällä järjestelmällä. Kokoonpanon yhden säikeen tulos oli testissä 1215 pistettä, kun kaikkia ytimiä hyödyntävässä testissä maksimissaan 3,7 GHz:n kellotaajuudella toimivat prosessorit nappasivat yhteistuumin 87878 pistettä. Kuvankaappauksen tuloksesta löydät uutisen pääkuvasta.

Lähde: ExecutableFix @ Twitter

Linkki alkuperäiseen juttuun
 
Viimeksi muokattu:
Liittynyt
27.05.2017
Viestejä
7 836
Epyc on palvelinprosessori, nämä ei ole teidän pelikoneisiin :)
Jos riittää liitua millä piirtää, niin eiköhän tuollaisellekin "kaksi 128-ytimistä Milan-prosessoria sisältävällä järjestelmälle" löydy rautaa johon saa kiinni huippunäytönohjaimen tai useammankin ja pääse pelailemaan vaikka vanhaa Minecraft peliä. Voisi kuvitella että FPS olisi aika korkea ainakin matalimmilla grafiikka-asetuksilla.
 
Liittynyt
17.10.2016
Viestejä
22 120
Jos riittää liitua millä piirtää, niin eiköhän tuollaisellekin "kaksi 128-ytimistä Milan-prosessoria sisältävällä järjestelmälle" löydy rautaa johon saa kiinni huippunäytönohjaimen tai useammankin ja pääse pelailemaan vaikka vanhaa Minecraft peliä. Voisi kuvitella että FPS olisi aika korkea ainakin matalimmilla grafiikka-asetuksilla.
Palvelinprosessoreissa on vedetty kellotaajuudet kohtuullisiksi ja se taas tarkoittaa, että pelit toimii noilla kuluttajaprosessoreilla paremmin - kun yhden säikeen suorituskyky on maltillisempi serveripuolella ja siihen on panostettu kuluttajavehkeissä.
 

TunTuri

oh4etc
Tukijäsen
Liittynyt
17.10.2016
Viestejä
1 205
Aika kovaa murskainta luvassa. Vielä threadripperit Zen3:sta, niin AMD pääsee kivasti keskittymään DDR5 laitteisiin.

ja joo, ei ole peliprossu tietenkään, kuluttajakuormissa varmasti joku ryzen 5600x-kokoonpano päihittää pääsääntöisesti tuommoisen 2x128 ytimisen palvelinkokoonpanon, mutta konesaliin tuo on aika huhhui!
 
Liittynyt
14.12.2016
Viestejä
2 768
Hieman hymähdytti yhden ytimen testit noilla vehkeillä :)
Eiköhän noilla 99.9% ajeta moniytimisiä tehtäviä.
Mutta hyvin etenee tämäkin puoli.
 

prc

Liittynyt
18.10.2016
Viestejä
874
Hieman hymähdytti yhden ytimen testit noilla vehkeillä :)
Eiköhän noilla 99.9% ajeta moniytimisiä tehtäviä.
Mutta hyvin etenee tämäkin puoli.
Veikkaan ST kuormien osuudeksi tuotannossa 0.0%. Eiköhän kaikki ST kuormat ole jotain testejä. Varsinkin nuo järeät serverit menee joko laskentaan tai sitten virtualisointialustoiksi. Harvemmin "rauta serverit" noin järeitä on paitsi laskentaklusterit. Rauta servereistä yleisesti ottaen on pyritty/pyritään eroon. Helpottaa kaikkea ylläpitoa ja muutoksia niin hitosti kun voi serverit, verkot yms virtualisoida. Tulee vaikka joku organisaatio muutos ja asioita pitää rajata eri verkkoihin, niin conffiminen riittää eikä kenenkään tarvitse lähteä saliin lakutalkoisiin. :)
 
Liittynyt
30.04.2020
Viestejä
17
Millä muulla testaat arkkitehtuurin tuomaa IPC-parannusta (järkevästi) kuin 1T testeillä?
 

demu

Conducător & Geniul din Carpați
Tukijäsen
Liittynyt
20.10.2016
Viestejä
4 408
Veikkaan ST kuormien osuudeksi tuotannossa 0.0%. Eiköhän kaikki ST kuormat ole jotain testejä. Varsinkin nuo järeät serverit menee joko laskentaan tai sitten virtualisointialustoiksi. Harvemmin "rauta serverit" noin järeitä on paitsi laskentaklusterit. Rauta servereistä yleisesti ottaen on pyritty/pyritään eroon. Helpottaa kaikkea ylläpitoa ja muutoksia niin hitosti kun voi serverit, verkot yms virtualisoida. Tulee vaikka joku organisaatio muutos ja asioita pitää rajata eri verkkoihin, niin conffiminen riittää eikä kenenkään tarvitse lähteä saliin lakutalkoisiin. :)
Rautaserverit niissä virtualisoiduissa / pilvipalveluissakin on takana.
Mutta totta on, että asiakaskohtaisia palvelimia ollaan paljolti vaihtamassa virtualisoituihin/pilviympäristöihin.
Jonkin verran on sitten ollut myös paluuta pilvipalveluista asiakaskohtaisiin servereihin.
 

mRkukov

Hrrrr...
Liittynyt
17.10.2016
Viestejä
7 722
Veikkaan ST kuormien osuudeksi tuotannossa 0.0%. Eiköhän kaikki ST kuormat ole jotain testejä.
Myös palvelimilla on hyvin paljon single thread kuormaa. Niitä single thread tehtäviä vaan voi olla se 100+ samaan aikaan, jolloin kaikki coret saadaan kivasti taas käytettyä. Single thread nopeus kertoo paljonko yksittäinen tehtävä tulee kestämään.
 

prc

Liittynyt
18.10.2016
Viestejä
874
Myös palvelimilla on hyvin paljon single thread kuormaa. Niitä single thread tehtäviä vaan voi olla se 100+ samaan aikaan, jolloin kaikki coret saadaan kivasti taas käytettyä. Single thread nopeus kertoo paljonko yksittäinen tehtävä tulee kestämään.
Lähinnä hain sitä juuri, että missään tuotantokäytössä sen palvelimen kokonaiskuorma ei varmasti ole ST kuorma. Vain testejä / IPC testejä ajettaessa.

Rautaserverit niissä virtualisoiduissa / pilvipalveluissakin on takana.
Mutta totta on, että asiakaskohtaisia palvelimia ollaan paljolti vaihtamassa virtualisoituihin/pilviympäristöihin.
Jonkin verran on sitten ollut myös paluuta pilvipalveluista asiakaskohtaisiin servereihin.
...:redface:
 
Liittynyt
17.10.2016
Viestejä
12 030
Veikkaan ST kuormien osuudeksi tuotannossa 0.0%. Eiköhän kaikki ST kuormat ole jotain testejä. Varsinkin nuo järeät serverit menee joko laskentaan tai sitten virtualisointialustoiksi. Harvemmin "rauta serverit" noin järeitä on paitsi laskentaklusterit. Rauta servereistä yleisesti ottaen on pyritty/pyritään eroon. Helpottaa kaikkea ylläpitoa ja muutoksia niin hitosti kun voi serverit, verkot yms virtualisoida. Tulee vaikka joku organisaatio muutos ja asioita pitää rajata eri verkkoihin, niin conffiminen riittää eikä kenenkään tarvitse lähteä saliin lakutalkoisiin. :)
edit: no toistoahan tämä on jo.

Melkein kaikki kuormat ovat ST-kuormia mitä palvelimissa ajetaan. Niitä vaan ajetaan monta rinnakkain.

Jos esim. web-palvelin palvelee tuhansia yhtäaikaisia käyttäjiä, niin yksi sivulataus on usein single-thread event serverin puolella käyttäjän näkökulmasta. Se, että sama palvelin palvelee tuhansia yhtäaikaisia käyttäjiä ei tätä yksittäistä käyttäjää lohduta - hänellä on serverin puolella käytössä yksi threadi joka lukee kamaa tietokannasta ja renderöi verkkosivua ja lähettää javascript-html-mössöä ulospäin.

Yksittäisen threadin suorituskyky määrittää sen, että kuinka nopealta palvelu tuntuu yksittäisen käyttäjän näkökulmasta. Corejen määrä ratkaisee sen, että kuinka montaa käyttäjää rinnakkain palvelin pystyy palvelemaan.

Tuhat mutta hitaita coreja ei välttämättä ole hyvä, koska silloin yksittäisen käyttäjän näkökulmasta palvelin voi tuntua ikävän hitaalta.
 

mRkukov

Hrrrr...
Liittynyt
17.10.2016
Viestejä
7 722
edit: no toistoahan tämä on jo.

Melkein kaikki kuormat ovat ST-kuormia mitä palvelimissa ajetaan. Niitä vaan ajetaan monta rinnakkain.

Jos esim. web-palvelin palvelee tuhansia yhtäaikaisia käyttäjiä, niin yksi sivulataus on usein single-thread event serverin puolella käyttäjän näkökulmasta. Se, että sama palvelin palvelee tuhansia yhtäaikaisia käyttäjiä ei tätä yksittäistä käyttäjää lohduta - hänellä on serverin puolella käytössä yksi threadi joka lukee kamaa tietokannasta ja renderöi verkkosivua ja lähettää javascript-html-mössöä ulospäin.

Yksittäisen threadin suorituskyky määrittää sen, että kuinka nopealta palvelu tuntuu yksittäisen käyttäjän näkökulmasta. Corejen määrä ratkaisee sen, että kuinka montaa käyttäjää rinnakkain palvelin pystyy palvelemaan.

Tuhat mutta hitaita coreja ei välttämättä ole hyvä, koska silloin yksittäisen käyttäjän näkökulmasta palvelin voi tuntua ikävän hitaalta.
Ja tämän takia monelle web-kehittäjälle onkin yllätys kun sovellus/sivu toimiikin hitaammin siellä 1000€/kk maksavalla palvelimella, missä on miljoona ydintä, kuin omalla kehitysympäristöllä, jota ajetaan 4.7GHz boostaavalla työpöytäprossulla. Palvelimissa "yksi ydin" on ollut yleensä 2 - 2.5GHz. Nyt kun alkaa olla 3,7 GHz asti yltäviä palvelimia niin kyllähän sillä selvä vaikutus on. Chiplet arkkitehtuuri on kyllä hieno keksintö. :)
 
Liittynyt
17.10.2016
Viestejä
22 120
edit: no toistoahan tämä on jo.

Melkein kaikki kuormat ovat ST-kuormia mitä palvelimissa ajetaan. Niitä vaan ajetaan monta rinnakkain.

Jos esim. web-palvelin palvelee tuhansia yhtäaikaisia käyttäjiä, niin yksi sivulataus on usein single-thread event serverin puolella käyttäjän näkökulmasta. Se, että sama palvelin palvelee tuhansia yhtäaikaisia käyttäjiä ei tätä yksittäistä käyttäjää lohduta - hänellä on serverin puolella käytössä yksi threadi joka lukee kamaa tietokannasta ja renderöi verkkosivua ja lähettää javascript-html-mössöä ulospäin.

Yksittäisen threadin suorituskyky määrittää sen, että kuinka nopealta palvelu tuntuu yksittäisen käyttäjän näkökulmasta. Corejen määrä ratkaisee sen, että kuinka montaa käyttäjää rinnakkain palvelin pystyy palvelemaan.

Tuhat mutta hitaita coreja ei välttämättä ole hyvä, koska silloin yksittäisen käyttäjän näkökulmasta palvelin voi tuntua ikävän hitaalta.
En anna nimiä, enkä avaa tätä yhtään enempää, mutta tämä on oikeasta elämästä:
Asiakkaalla on vanha Oracle. Siinä on lisenssit per ydin ja asiakkaalla on 2 tai 4 ydintä, sanotaan kaksi, kun se tekee tästä mielenkiintoisemman. Oracle ei enää myy uusmyyntinä kahden ytimen lisenssejä ja uudet lisenssit ovat tuhansia euroja vuodessa enemmän vrt. vanhat ylläpitokustannukset.
Asiakas kysyy meidän asiantuntijoiltamme ja vähän pyöritämme lukuja Excelissä: tulee halvemmaksi ostaa paras ST kone, mitä löytyy ja sammuttaa siitä muut ytimet tai tehdä rautatason virtualisointi jossa tietyt ytimet on aina varattu Oracle-virtuaalikoneelle. En tarkalleen muista, kumminpäin tekivät, mutta se ST suorituskyky edellä tässä yhdessä casessa ostettiin kone ja serverimigraation yhteydessä laitettiin Oracle sinne.
Pieni asiakas, ja rajattu käyttö, mutta toimi edelleen täydellisesti - ja jopa nopeutui, kun palvelinprosessori oli 5-8v tuoreempi ja muut kuormat minimissä. Lisäksi tämä säästi asiakkaalle tuhansia euroja vuodessa nyt ja tulevaisuudessa.

Kyllä näitäkin on.

--

Sitten nyt taidan olla yliprovisioiduilla virtuaalityöasemilla, joissa on vuoden 2012 prosessoreita.. Että joo, ei ne aina mene noin hyvin nuo palvelinympäristöt.. Mutta onpa ainakin kerran elämässä sitä ST-suorituskykyä haettu ja ihan asiakkaan pyynnöstä.
 

mRkukov

Hrrrr...
Liittynyt
17.10.2016
Viestejä
7 722
En anna nimiä, enkä avaa tätä yhtään enempää, mutta tämä on oikeasta elämästä:
Asiakkaalla on vanha Oracle. Siinä on lisenssit per ydin ja asiakkaalla on 2 tai 4 ydintä, sanotaan kaksi, kun se tekee tästä mielenkiintoisemman. Oracle ei enää myy uusmyyntinä kahden ytimen lisenssejä ja uudet lisenssit ovat tuhansia euroja vuodessa enemmän vrt. vanhat ylläpitokustannukset.
Asiakas kysyy meidän asiantuntijoiltamme ja vähän pyöritämme lukuja Excelissä: tulee halvemmaksi ostaa paras ST kone, mitä löytyy ja sammuttaa siitä muut ytimet tai tehdä rautatason virtualisointi jossa tietyt ytimet on aina varattu Oracle-virtuaalikoneelle. En tarkalleen muista, kumminpäin tekivät, mutta se ST suorituskyky edellä tässä yhdessä casessa ostettiin kone ja serverimigraation yhteydessä laitettiin Oracle sinne.
Pieni asiakas, ja rajattu käyttö, mutta toimi edelleen täydellisesti - ja jopa nopeutui, kun palvelinprosessori oli 5-8v tuoreempi ja muut kuormat minimissä. Lisäksi tämä säästi asiakkaalle tuhansia euroja vuodessa nyt ja tulevaisuudessa.

Kyllä näitäkin on.
Tämä toi vanhoja muistoja mieleen. Vanhat kunnon Oracle lisenssit. :)
 
Liittynyt
22.10.2018
Viestejä
9 618
Millä muulla testaat arkkitehtuurin tuomaa IPC-parannusta (järkevästi) kuin 1T testeillä?
nT kuormilla? Kyllä IPC:n voi määrittää mille tahansa säiemäärälle. Suositussa SPEC benchmarkissakin on omat nT osatestit.
 
Liittynyt
16.10.2016
Viestejä
333
1T nopeus on kyllä erittäin tärkeä myös palvelinympäristöissä, on sellaisiakin softia jotka perustilanteessa skaalautuvat lähes rajattomasti corejen ja muistin määrän mukaan, mutta tietyt operaatiot ovat pelkästään single threaded operaatioita. Siinä ei paljon auta, että on 64-core prosessori ja 512 GB RAM:ia kun odotetaan CPU käyttö parissa prosentissa tunteja että prosessointi valmistuu. Eihän tuo reaalimaailman tilanne ole että pelkästään tuo yksi kuorma pyörii palvelimella, mutta kuitenkin todellinen esimerkki että tällaisiakin tapauksia on tullut nähtyä. Ja ainoa tapa nopeuttaa on nimenomaan 1T nopeuden kasvatus.

Lisäksi juuri core pohjainen lisensointi on monessa softassa esim. ihan Microsoftin SQL Serverissä. Siinä että yhden coren lisenssi maksaa >5k€ haluaa ettei ole taustalla ihan nuhapumppu-coreja.
 
Liittynyt
30.04.2020
Viestejä
17
nT kuormilla? Kyllä IPC:n voi määrittää mille tahansa säiemäärälle. Suositussa SPEC benchmarkissakin on omat nT osatestit.
Kyllähän se niilläkin toki onnistuu. Jotenkin silti itse näen, että 1T testit on kuitenkin se järkevin, koska silloin ei ole riippuvainen mistään core-määrästä, vaan voidaan helposti vertailla ristiin eri prossujen välillä, ilman että tarvitsee laskea jälkikäteen vertailukelpoisia lukuja.

Niin kuin markus tuossa toteaa, niin on sillä 1T suorituskyvylläkin väliä palvelinympäristössä. Siihenhän se kaikki laskenta loppukädessä perustuu. Aina ei voida skaalata eikä kaikki skaalaudu threadien kanssa loputtomiin.
 
Liittynyt
22.10.2018
Viestejä
9 618
Kyllähän se niilläkin toki onnistuu. Jotenkin silti itse näen, että 1T testit on kuitenkin se järkevin, koska silloin ei ole riippuvainen mistään core-määrästä, vaan voidaan helposti vertailla ristiin eri prossujen välillä, ilman että tarvitsee laskea jälkikäteen vertailukelpoisia lukuja.

Niin kuin markus tuossa toteaa, niin on sillä 1T suorituskyvylläkin väliä palvelinympäristössä. Siihenhän se kaikki laskenta loppukädessä perustuu. Aina ei voida skaalata eikä kaikki skaalaudu threadien kanssa loputtomiin.
Jep, ja juuri tämän takia on järkevää testata suorituskyky niillä samoilla kuormilla mille järjestelmä altistetaan tuotannossa ja katsoa siten se kokonaisnopeushyöty. IPC on mielenkiintoinen vain akateemisessa merkityksessä.

ps. jos ydinten lisääminen ei nimenomaan lisäisi IPC:tä, niin niitä tuskin lisättäisiin prosessoreihin.
 
Liittynyt
30.04.2020
Viestejä
17
Jep, ja juuri tämän takia on järkevää testata suorituskyky niillä samoilla kuormilla mille järjestelmä altistetaan tuotannossa ja katsoa siten se kokonaisnopeushyöty. IPC on mielenkiintoinen vain akateemisessa merkityksessä.

ps. jos ydinten lisääminen ei nimenomaan lisäisi IPC:tä, niin niitä tuskin lisättäisiin prosessoreihin.
Kyllä, järjestelmät pitää testa myös hyötykuormilla, mutta niillä on aika vähän tekemistä enää puhtaan IPC:n kanssa, josta itse tuossa puhuin. Itse lienee olen sen verran akateemisesti "nörtti", että haluan tietää myös paljonko IPC on parantunut, vaikka todellisuudessa hyötykuormilla parannus ei olisikaan samalla tasolla.
 
Liittynyt
22.10.2018
Viestejä
9 618
Kyllä, järjestelmät pitää testa myös hyötykuormilla, mutta niillä on aika vähän tekemistä enää puhtaan IPC:n kanssa, josta itse tuossa puhuin. Itse lienee olen sen verran akateemisesti "nörtti", että haluan tietää myös paljonko IPC on parantunut, vaikka todellisuudessa hyötykuormilla parannus ei olisikaan samalla tasolla.
Mikä on sinusta ”puhdas IPC”? Se IPC on aina vaan suoritetut käskyt jaettuna kuluneilla kellojaksoilla ja sen voi periaatteessa määrittää ihan millä tahansa softalla ja raudalla ja vertailla ristiin ihan miten haluaa.
 
Liittynyt
30.04.2020
Viestejä
17
Mikä on sinusta ”puhdas IPC”? Se IPC on aina vaan suoritetut käskyt jaettuna kuluneilla kellojaksoilla ja sen voi periaatteessa määrittää ihan millä tahansa softalla ja raudalla ja vertailla ristiin ihan miten haluaa.
Huono sanavalinta, myönnän. Tarkoitin tuolla sitä, että testi on tehty sellaisilla softilla, joihon ei vaikuta muu kuin prosessori, esim. Cinebench käsittääkseni suht hyvä tässä tapauksessa.
 
Liittynyt
22.10.2018
Viestejä
9 618
Huono sanavalinta, myönnän. Tarkoitin tuolla sitä, että testi on tehty sellaisilla softilla, joihon ei vaikuta muu kuin prosessori, esim. Cinebench käsittääkseni suht hyvä tässä tapauksessa.
Eli haluat testata IPC:n sellaisilla softilla jotka eivät näytä eri prosessorien muistiohjaimien välisiä suorituskykyeroja? Ei se väärin ole, mutta älä nyt ainakaan sotke moista toivetta IPC:n ”puhtauteen”. Se IPC on aina järjestelmätason metriikka ja siihen vaikuttaa mm. käytetyt muistit.
 
Liittynyt
30.04.2020
Viestejä
17
Eli haluat testata IPC:n sellaisilla softilla jotka eivät näytä eri prosessorien muistiohjaimien välisiä suorituskykyeroja? Ei se väärin ole, mutta älä nyt ainakaan sotke moista toivetta IPC:n ”puhtauteen”. Se IPC on aina järjestelmätason metriikka ja siihen vaikuttaa mm. käytetyt muistit.
Käytännössä kyllä, mutta tässä oli nimenomaa kyse prosessorista ja sen arkkitehtuurista, ei koko järjestelmästä.
 
Liittynyt
22.10.2018
Viestejä
9 618
Käytännössä kyllä, mutta tässä oli nimenomaa kyse prosessorista ja sen arkkitehtuurista, ei koko järjestelmästä.
:facepalm: ajatko montaakin softaa koneellas jotka ei tarvitse a) muistikapuloita ja b) käyttöjärjestelmää? Ja muistiohjaimen arkkitehtuuri on osa prosessorin arkkitehtuuria ja siten prosessoria ei kokonaisuutena testata ellei myös sen muistisuorituskyky ole relevantti ainakin osalle testiohjelmista. IPC on aina järjestelmälle määritetty metriikka. Applen M1 taitaa olla niin pitkälle integroitu kokonaisuus, että järjestelmä = prosessori, mutta nämä epyc prossut ei sellaisia ole.
 
Viimeksi muokattu:

knz0

300 yard drive
Liittynyt
02.11.2016
Viestejä
1 351
Mitään yleispätevää IPC:tä ei ole olemassakaan, vaan se on aina workload-riippuvainen.
 
Liittynyt
08.12.2017
Viestejä
1 433
Asiakas kysyy meidän asiantuntijoiltamme ja vähän pyöritämme lukuja Excelissä: tulee halvemmaksi ostaa paras ST kone, mitä löytyy ja sammuttaa siitä muut ytimet tai tehdä rautatason virtualisointi jossa tietyt ytimet on aina varattu Oracle-virtuaalikoneelle. En tarkalleen muista, kumminpäin tekivät, mutta se ST suorituskyky edellä tässä yhdessä casessa ostettiin kone ja serverimigraation yhteydessä laitettiin Oracle sinne.
Tässäkin kyse on pelkästä lisensoinnin metkuista. Toivottavasti ennen pitkää näissäkin open source mahdollistaa sen, että esim. Postgresiä tai vastaavia käyttämällä voi valita teknisesti parhaat ratkaisut. Voi olla asiakkaalle kokonaisedullisin ja myös kestävän kehityksen ja skaalautumisen kannalta parempi.
 
Liittynyt
30.04.2020
Viestejä
17
:facepalm: ajatko montaakin softaa koneellas jotka ei tarvitse a) muistikapuloita ja b) käyttöjärjestelmää? Ja muistiohjaimen arkkitehtuuri on osa prosessorin arkkitehtuuria ja siten prosessoria ei kokonaisuutena testata ellei myös sen muistisuorituskyky ole relevantti ainakin osalle testiohjelmista. IPC on aina järjestelmälle määritetty metriikka. Applen M1 taitaa olla niin pitkälle integroitu kokonaisuus, että järjestelmä = prosessori, mutta nämä epyc prossut ei sellaisia ole.
En ole näin väittänytkään, ja totesin aiemmin, että esim. Cinebench on käytännössä pelkästään prosessorista riippuvainen eikä muistien nopeus vaikuta sen tulokseen (ainakaan merkittävästi). Eihän se tietenkään käytäntöä palvele, jos muistiohjain on susi ja käytännön suorituskyky sakkaa sen takia, vaikka jokin prossuriippuvainen testi antaisikin hyvät tulokset. Kertoo se silti aika aika paljon itse prosessorin arkkitehtuurista, että sen osalta hommat tehty oikein. Sitä paitsi kymmenisen vuotta taaksepäin muistiohjain ei ollut osa prosessoria, vaan erillisellä piirisarjalla.

Et selvästi halua ymmärtää mitä ajan takaa, joten lopetan turhan vääntämisen kanssasi tähän.
 

prc

Liittynyt
18.10.2016
Viestejä
874
edit: no toistoahan tämä on jo.

Melkein kaikki kuormat ovat ST-kuormia mitä palvelimissa ajetaan. Niitä vaan ajetaan monta rinnakkain.

...
Okei otetaan uusiksi avaten implisiittiset asiat.

"Veikkaan ST kuormien osuudeksi tuotannossa 0.0%. Eiköhän kaikki ST kuormat ole jotain testejä."

Tässä puhun ST kuormasta prosessorin näkökulmasta (threadeista sen vuoksi, kun CPU valmistajatkin puhuvat threadeista HT/SMT (Hyper-Threading / Simultaneous Multi-Threading)). Softan kannalta ne voi olla toki prosessin threadi tai useampi).

Eli jos prosessorin kontekstissa puhutaan ST kuormasta (unohtaen OS:n omat threadit), niin esim Cinebench ST testi on (lähes (koska OS)) ST kuorma. Josta päästää siihen, että olen aivan varma ettei missään ajeta tuotantokäytössä prosssorin kannalta ST kuormaa 64 Coresella CPUlla. Mikä siis liittyi Hannibalin hymähdykseen yhden ytimen testeistä tämmöisillä prosessoreilla.

Servereihin / Web servereihin en jaksa sen enempää sulkeltaa kun että ensimmäisiä olen rakentanut ja ylläpitänyt puolen vuosikymmentä ja jälkimmäisten päälle olen kirjoitellut niitä tietokantoja ronkkivia ja kötöstä javascript-hötömöä suoltavia softia 10+v, monen muulaisen softan lisäksi.

Eipä tästä enempää.. muutenkin jo niin OT. :)
 
Toggle Sidebar

Statistiikka

Viestiketjut
240 399
Viestejä
4 197 535
Jäsenet
70 902
Uusin jäsen
kymera3534

Hinta.fi

Ylös Bottom