Virallinen: AMD vs Intel keskustelu- ja väittelyketju

  • Keskustelun aloittaja Keskustelun aloittaja Sampsa
  • Aloitettu Aloitettu
Hyvähän se olisi jos Intel saisi vähän kilpailua taas pystyyn ettei AMD voi chillailla. Jollain tapaa voisi melkein sanoa että 9000-sarja oli turhan lepsu upgrade edellisestä kun ei ollut paineita
Zen 5 oli loistava palvelimiin. Sitä ei oltu suunniteltu pelaajille.
 
Kuin suoraan Intelin mainosmateriaalista. 285k ei kyllä ole kuluttajaprossujen mestari ja Intelin low power coret johtunevat ihan siitä, että Intel ei saa tehonkulutusta alas kelloja laskemalla kuten AMD. Muutenkin ihmettelen, että joku ehdottaa tehorajojen poistoa kun Intelin cpu:t tuntuvat hapertuvan vakionakin
Onpa hauska sattuma, jos viestini kuulosti joltain mainosmateriaalilta. :D En nimittäin muista muita Intelin mainoksia kuin Intel Inside Pentium-ajoilta. Muutenkin yritän aina vältellä ja kelata mainokset parhaani mukaan. Postilaatikossakin on yli 20 vuotta lukenut "Ei mainoksia".

Kunhan vaan kiinnitin huomiota siihen, että CB 2024 MC:een on näillä näkymin tulossa kaikkien aikojen suurin harppaus (viimeistään tehorajoja avaamalla) kuluttajaprossuissa.Yhdessä sukupolvessa voi tehorajat avaamalla tulla parhaassa tapauksessa jopa lähemmäs +100 %, jos emo tai jäähdytys ei ota vastaan.


Kirjoitin:
"Harvemmin tuollaista loikkaa CB MC:ssa on tapahtunut. Vai onko koskaan? Kuluttajaprossujen hallitsevaan mestariin (vakiona) nähden (285K) sekä P- että E-coret tuplattu ja kaupan päälle 4 LP-E -ydintä.".

Tuo hallitsevaan mestariin vakiona tarkoitti, että CB MC:ssa, minkä kirjoitin pariin kertaan kyseisessä kappaleessa. Sekä IO-Tech että Techpowerup ovat samaa mieltä, että 285K on vakiona nopein kuluttajakannan suoritin CB MC:ssa.




Tehorajojen poistosta kirjoittaessani olin vain objektiivinen. Jotkut oikeasti ajavat Cinebench-tuloksia väljemmin tehorajoin. Tällöin voi parhaassa tapauksessa toteutua se ennennäkemätön lähemmäs +100 % yhdessä sukupolvessa.

Tein tuollaisen havainnon, vaikka muuten olenkin energiansäästön kannalla, kuten autokeskusteluista (Auriksen ~3 000 km@3,78 l/100 km tai Miin viime syksyn yli 340 km yhdellä akullisella ja jäi vielä 20 km rangea) voi päätellä. Tietokoneessakin Ryzen 5900X-keskusyksikkö vie työpöydällä seinästä alle 40 W (12c/24t, erillis-GPU, 64 GB RAM, viisi Noctuaa, wifi, NVMe), mikä on keskimääräistä vähemmän. Kaksi uusinta näytönohjainta ovat pihejä, 1050 Ti (75 W) ja RX 6600 (132 W), vaikka pelaan lähes kaikkia pelejä (vanhoja) 2160p@60 fps. Virtalähdekin on vain 550 W 10 v takuulla, vaikka silloin 2020 muut ostivat 750:ä. En tule kotonani käyttämään yli 200 W näytönohjainta, joten siksi 550 W riittää.

Screenshot_2025-06-18-19-06-44-89_40deb401b9ffe8e1df2f1cc5ba480b12.jpg


Screenshot_2025-06-18-19-07-57-96_40deb401b9ffe8e1df2f1cc5ba480b12.jpg


Edit. Tarkennus, että lähes +100 % CB MC voi toteutua tehorajat avaamalla, jos emo/jäähdytys eivät ota vastaan.
 
Viimeksi muokattu:
Saa nähdä onko välimuistipuolella jotain kikkoja jotta AMDn X3D prossuille tulisi kilpailua :hmm:

Myös teoriassa voisi löytyä joku kourallinen pelejä jotka hyötyvät 16 P-ytimestä ilman kahden CCD aiheuttamia "ongelmia", mutta AMDlla taitaa tulla myös seuraavassa sukupolvessa 16 corea CCDlle, joten sekään ei pitkään ole intelin kilpailuetuna.
 
Kunhan vaan kiinnitin huomiota siihen, että CB 2024 MC:een on näillä näkymin tulossa kaikkien aikojen suurin harppaus (viimeistään tehorajoja avaamalla) kuluttajaprossuissa.Yhdessä sukupolvessa parhaassa tapauksessa jopa lähemmäs +100 %.

No ei tule tuplaantumaan vaikka core määrä tuplaantuu. Siellä kun tulee tehorajat vastaan ja kyky jäähdyttää loppupelissä. Jossain LN2 leikeissä joo voi olla mahdollista, mutta jos nyt otetaan 285K niin siellä on Prosessor Base Power 125W ja Max Turbo Power 250W jota vasten toi 285K jurnuttaa noi "jumalaiset" cinepeli tulokset.
Base Power tulee nousemaan hiukan eli 150W mutta toi jälkimmäinen tuskin tulee nousemaan tai jos noisee niin ei paljoa. Ei ainakaan minnekään 450W jonka se vaatisi että tehot saataisin lähes tuplattua.

Tai jos Intel onnistuu jonkun kanin vetämään hatusta että 250W turbo limitillä tuplaavat suorituskyvyn niin syön hatullisen suklaata.

Paljon suurempi todennäköisyys on että kilpailu jatkuu varsin tasaisena koska AMD:ltä tulee suurella todennäköisyydellä 32c64t tuolle vastineeksi.

Tuo hallitsevaan mestariin vakiona tarkoitti, että CB MC:ssa, minkä kirjoitin pariin kertaan kyseisessä kappaleessa. Sekä IO-Tech että Techpowerup ovat samaa mieltä, että 285K on vakiona nopein kuluttajakannan suoritin CB MC:ssa.

Se että jossain yhdessä asiassa on parempi ei kyllä mielestäni tee tuosta mitään hallitsevaa mestaria. Kyllä CPU puolella vaaditaan mestaruuteen vähän muutakin kuin voitto cinepelissä.
 
No ei tule tuplaantumaan vaikka core määrä tuplaantuu. Siellä kun tulee tehorajat vastaan ja kyky jäähdyttää loppupelissä. Jossain LN2 leikeissä joo voi olla mahdollista, mutta jos nyt otetaan 285K niin siellä on Prosessor Base Power 125W ja Max Turbo Power 250W jota vasten toi 285K jurnuttaa noi "jumalaiset" cinepeli tulokset.
Base Power tulee nousemaan hiukan eli 150W mutta toi jälkimmäinen tuskin tulee nousemaan tai jos noisee niin ei paljoa. Ei ainakaan minnekään 450W jonka se vaatisi että tehot saataisin lähes tuplattua.

Tai jos Intel onnistuu jonkun kanin vetämään hatusta että 250W turbo limitillä tuplaavat suorituskyvyn niin syön hatullisen suklaata.

Paljon suurempi todennäköisyys on että kilpailu jatkuu varsin tasaisena koska AMD:ltä tulee suurella todennäköisyydellä 32c64t tuolle vastineeksi.



Se että jossain yhdessä asiassa on parempi ei kyllä mielestäni tee tuosta mitään hallitsevaa mestaria. Kyllä CPU puolella vaaditaan mestaruuteen vähän muutakin kuin voitto cinepelissä.
Tuota edeltävässä viestissäni kirjoitin tarkemmin, että tehorajat avattuna voi tuplata, eli saada noin 5k pts. Vakiona veikkailin jäävän reilusti alle 4k pts (koska tehoraja kasvaa niin vähän suhteessa ydinmäärän kasvuun):
"Se tullee olemaan tehorajat avattuna tuplanopea Cinebench 2024 MC:ssa vs. 9950X/9950X3D/285K. Vakiona todennäköisesti jää reilusti alle 4 000 pts, mutta rajat auki voi saada noin 5k pts.".

Kirjoittelin myös emolevyn virransyötön ja prossun jäähdytyksen haasteista liittyen tuohon suorituskyvyn tuplaukseen tehorajat avaamalla:
"Jos jollain emolla saa nuo ruokittua ja vielä jäähdytettyäkin, niin kyllä on kovaa suorituskykyä luvassa.".

Jos olisit lukenut viimeistä lainaustasi seuraavan kappaleen: "Tehorajojen poistosta kirjoittaessani olin vain objektiivinen. Jotkut oikeasti ajavat Cinebench-tuloksia väljemmin tehorajoin. Tällöin voi parhaassa tapauksessa toteutua se ennennäkemätön lähemmäs +100 % yhdessä sukupolvessa.", olisi sinulle selvinnyt tuostakin viestistä, että lähemmäs +100 % voi toteutua, jos:
1. ajetaan väljemmin tehorajoin
2. Parhaassa tapauksessa (=emo tai jäähdytys eivät ota vastaan)


En ole nähnyt vastaavaa listausta AMD:n tulevista suorittimista, mutta jos tosiaan vihdoinkin tulee 32c/64t, niin CB-kilpailu jatkuisi tasaisena. Johan AMD on junnannut 16c/32t:ssä 3000-, 5000-, 7000- ja 9000-sarjan ajan.


Hieman muutettuna:
Se että jossain yhdessä seiväshypyssä on parempi ei kyllä mielestäni tee Duplantiksesta mitään hallitsevaa mestaria. Kyllä yleisurheilupuolella vaaditaan mestaruuteen vähän muutakin kuin voitto seipäässä.

Minun ei ollut tarkoitus sanoa, että 285K olisi mikään kymmenottelija, vaan juuri tuossa yhdessä lajissa (CB MC, josta kirjoitin koko kyseisen kappaleen ajan) hallitseva mestari, kun puhutaan vakiona toimivista kuluttajaprossuista.


Ehkä minun pitää jotenkin tarkentaa viestejäni, kun tuntuu tulevan vänkäystä sellaisesta mitä en ole tarkoittanut. Nyt muuten tajusin, että tämähän onkin väittelyketju. Sellainen ei nappaa, joten poistun muihin ketjuihin.
 
9800x3D mennä porskuttaa vaan. Saa nähdä saako intel pelisuorituskyvyssä enää AMD:tä kiinni. (En usko että saa)
 
9800x3D mennä porskuttaa vaan. Saa nähdä saako intel pelisuorituskyvyssä enää AMD:tä kiinni. (En usko että saa)

Pelisuorituskyky on todella paljon kiinni muistiviiveistä (lähinnä L3-välimuistin koko sekä DRAMin viive).

Intelilla L3-välimuisti on jaettu kaikkien ytimien välillä mutta sen määrä kasvaa silti ytimien määrän mukaan, jokainen P-ydin tai neljän E-ytimen rypäle tuo yhden viipaleen verran L3-kakkua lisää.

Arrow Lakessa jokaisen viipaleen koko on 3 megaa L3-kakkua, ja näitä viipaleita on maksimissaan 8+(16/4) = 12 kpl, eli L3-kakkua on maksimissaan 36 megaa.

Seuraavaan sukupolveen huhutaan 16+32+4 ydintä (tosin nuo LP-E-ytimet ilmeisesti ovat normaalin L3-kakkuhierarkian ulkopuolella koska niiden idea on toimia vaikka normaali CPU-piilastu olisi kokonana power gatettu alas), eli L3-viipaleita olisi 16+(32/4) = 24 kpl

Mikäli L3-viipaleen koko pysyy samana, L3:n koko kasvaa 72 megaan. Tämä olisi jo aika lähellä AMDn vcache-mallien 96 megaa.

Tosin on myös mahdollista(ja ehkä jopa todennäköistä), että zen6-sukupolvessa AMD kasvattaa L3-välimuistinsa kokoa.

L3n kasvattamisessa ongelmallista on se, että uusilla valmistustekniikoilla välimuistin koko skaalautuu huonosti, ja SRAM josta välimuisti on tehty muuttuu vaan kalliimmaksi (koska piipinta-alan hinta kasvaa enemmän kuin SRAM pienenee)

Käytännössä isot välimuistit pitäisi valmistaa jollain vanhemmalla valmistustekniikalla että ne saataisiin tehtyä edullisesti. Mutta se taas väistämättä tekee niistä hitaampia ja enemmän virtaa kuluttavia (ei niinkään sen vanhan valmistustekniikan hitauden ja suuremman virrankulutuksen takia takia, vaan enemmän sen takia, että se data pitää sitten hakea eri piilastuja yhdistävän linkin kautta, ja se hidastaa ja lisää virrankulutusta)

Ja jos L3:n käyttö on hitaahkoa ja kuluttaa paljon virtaa, sitten L2sta pitää tehdä suurempi (joka taas lisää hintaa). Tällä hetkellähän zen5ssa on megan L2-kakku, Arrow Lakessa P-ytimillä 3 megaa, E-ytimillä 4 ydintä jaettuna neljää ydintä kohden. Käytännössä Intel joutuu jo nyt käyttämään suurempaa L2-välimuistia koska sen kaikkien ytimien kanssa jaettu L3-kakku on selvästi hitaampi kuin AMDn CCX-kohtaiset L3-välimuistit.

Toisaalta, AMDllä sitten tällä hetkellä >8 ytimen vcache-kokoonpanoissa vain osa L3-välimuistista on käytettävissä kullekin säikeelle, vain 8 ytimelle on se 96 megan L3-välimuisti ja toisella 8lle on vain 32 megan välimuisti. Toimii hyvin jos peli käyttää pientä määrää säikeitä, mutta jos peli käyttää suurta määrää säikeitä, homma menee epäoptimaaliseksi.

Huhuttu CCX:n koon kasvattaminen 12 ytimeen zen6-sukupolvessa voi olla kiva nimenomaan sen kannalta, että sitten 12 ydintä saa käyttöönsä sen suuren vcachen (kaksi isoa vcacheä tulisi hyvin kalliiksi). Toisaalta tämä CCXn koon kasvattaminen myös lisää L3n viivettä hiukan (ei silti lähellekään Intelin L3-viiveen tasolle) mikä myös lisää painetta suurentaa L2-kakkua (joka taas nostaa valmistuskustannuksia)

Intel on käsittääkseni siirtymässä piireihin jotka koostuvat suuresta määrästä pieniä piilastuja vierekkäin.

AMDn tapa integroida iso välimuisti eri piilastulle logiikkapiilastun päälle tai alle taas vähentää tuon erillisen L3-piilastun haittoja, pystysuoraan matka isolta välimuistilta sitä käyttävälle logiikalle voi olla hyvin lyhyt.

Summa summarum: Näkisin että Intelin on mahdollista saada AMD kiinni pelisuorituskyvyssä ja se voi realistisesti tapahtua jo seuraavassa sukupolvessa, mutta se tullee kalliiksi piirien valmistuskustannuksissa. Nopeimpien peliprossujen hinnat eivät ole ainakaan laskemassa, kummallakaan valmistajalla.


Vähän villimpää spekulaatiota ja toivetta vielä:
Itse toivoisin, että AMD luopuisi kokonaan noista "ei-vcache-malleista" ja kaikki L3-välimuisti olisi aina erillisellä piilastulla pääpiirin alla/päällä. (ja siitä välimuistipiiristä voisi sitten ehkä olla isompi ja pienempi malli, tai niitä voisi pinota eri määriä sen logiikkapiilastun alle/päälle eri välimuistimäärien saavuttamiseksi). Kun se L3-välimuisti poistuisi kokonaan itse CCD-piilastulta, siitä CCD-piilastusta voisi tehtyä halvemman tai sen tilan voisi käyttää sellaiseen logiikkaan joka hyötyy siitä sen uudemmasta valmistustekniikasta.
 
Pelisuorituskyky on todella paljon kiinni muistiviiveistä (lähinnä L3-välimuistin koko sekä DRAMin viive).

Intelilla L3-välimuisti on jaettu kaikkien ytimien välillä mutta sen määrä kasvaa silti ytimien määrän mukaan, jokainen P-ydin tai neljän E-ytimen rypäle tuo yhden viipaleen verran L3-kakkua lisää.

Arrow Lakessa jokaisen viipaleen koko on 3 megaa L3-kakkua, ja näitä viipaleita on maksimissaan 8+(16/4) = 12 kpl, eli L3-kakkua on maksimissaan 36 megaa.

Seuraavaan sukupolveen huhutaan 16+32+4 ydintä (tosin nuo LP-E-ytimet ilmeisesti ovat normaalin L3-kakkuhierarkian ulkopuolella koska niiden idea on toimia vaikka normaali CPU-piilastu olisi kokonana power gatettu alas), eli L3-viipaleita olisi 16+(32/4) = 24 kpl

Mikäli L3-viipaleen koko pysyy samana, L3:n koko kasvaa 72 megaan. Tämä olisi jo aika lähellä AMDn vcache-mallien 96 megaa.

Tosin on myös mahdollista(ja ehkä jopa todennäköistä), että zen6-sukupolvessa AMD kasvattaa L3-välimuistinsa kokoa.

L3n kasvattamisessa ongelmallista on se, että uusilla valmistustekniikoilla välimuistin koko skaalautuu huonosti, ja SRAM josta välimuisti on tehty muuttuu vaan kalliimmaksi (koska piipinta-alan hinta kasvaa enemmän kuin SRAM pienenee)

Käytännössä isot välimuistit pitäisi valmistaa jollain vanhemmalla valmistustekniikalla että ne saataisiin tehtyä edullisesti. Mutta se taas väistämättä tekee niistä hitaampia ja enemmän virtaa kuluttavia (ei niinkään sen vanhan valmistustekniikan hitauden ja suuremman virrankulutuksen takia takia, vaan enemmän sen takia, että se data pitää sitten hakea eri piilastuja yhdistävän linkin kautta, ja se hidastaa ja lisää virrankulutusta)

Ja jos L3:n käyttö on hitaahkoa ja kuluttaa paljon virtaa, sitten L2sta pitää tehdä suurempi (joka taas lisää hintaa). Tällä hetkellähän zen5ssa on megan L2-kakku, Arrow Lakessa P-ytimillä 3 megaa, E-ytimillä 4 ydintä jaettuna neljää ydintä kohden. Käytännössä Intel joutuu jo nyt käyttämään suurempaa L2-välimuistia koska sen kaikkien ytimien kanssa jaettu L3-kakku on selvästi hitaampi kuin AMDn CCX-kohtaiset L3-välimuistit.

Toisaalta, AMDllä sitten tällä hetkellä >8 ytimen vcache-kokoonpanoissa vain osa L3-välimuistista on käytettävissä kullekin säikeelle, vain 8 ytimelle on se 96 megan L3-välimuisti ja toisella 8lle on vain 32 megan välimuisti. Toimii hyvin jos peli käyttää pientä määrää säikeitä, mutta jos peli käyttää suurta määrää säikeitä, homma menee epäoptimaaliseksi.

Huhuttu CCX:n koon kasvattaminen 12 ytimeen zen6-sukupolvessa voi olla kiva nimenomaan sen kannalta, että sitten 12 ydintä saa käyttöönsä sen suuren vcachen (kaksi isoa vcacheä tulisi hyvin kalliiksi). Toisaalta tämä CCXn koon kasvattaminen myös lisää L3n viivettä hiukan (ei silti lähellekään Intelin L3-viiveen tasolle) mikä myös lisää painetta suurentaa L2-kakkua (joka taas nostaa valmistuskustannuksia)

Intel on käsittääkseni siirtymässä piireihin jotka koostuvat suuresta määrästä pieniä piilastuja vierekkäin.

AMDn tapa integroida iso välimuisti eri piilastulle logiikkapiilastun päälle tai alle taas vähentää tuon erillisen L3-piilastun haittoja, pystysuoraan matka isolta välimuistilta sitä käyttävälle logiikalle voi olla hyvin lyhyt.

Summa summarum: Näkisin että Intelin on mahdollista saada AMD kiinni pelisuorituskyvyssä ja se voi realistisesti tapahtua jo seuraavassa sukupolvessa, mutta se tullee kalliiksi piirien valmistuskustannuksissa. Nopeimpien peliprossujen hinnat eivät ole ainakaan laskemassa, kummallakaan valmistajalla.


Vähän villimpää spekulaatiota ja toivetta vielä:
Itse toivoisin, että AMD luopuisi kokonaan noista "ei-vcache-malleista" ja kaikki L3-välimuisti olisi aina erillisellä piilastulla pääpiirin alla/päällä. (ja siitä välimuistipiiristä voisi sitten ehkä olla isompi ja pienempi malli, tai niitä voisi pinota eri määriä sen logiikkapiilastun alle/päälle eri välimuistimäärien saavuttamiseksi). Kun se L3-välimuisti poistuisi kokonaan itse CCD-piilastulta, siitä CCD-piilastusta voisi tehtyä halvemman tai sen tilan voisi käyttää sellaiseen logiikkaan joka hyötyy siitä sen uudemmasta valmistustekniikasta.

Cache-pyramidiin voisi laittaa vielä L4 siihen keskusmuistin väliin :)
1 GB L4:sta ei menisi hukkaan pelien kanssa ja sen voisi tehdä niillä vanhoilla valmistustekniikoilla.
 
Kaippa L3-kakun koon lisäksi vaikuttaa pelisuorituskykyyn miten se on toteutettu? Jos Intel kasvattaisi nykyisellä L3-toteutuksellaan vain L3:n kokoa niin olisiko vaikutus yhtä dramaattinen kuin AMD:n X3D -lisävälimuistilla?

Tämän Hardware Unboxed videon perusteella Raptor Lake ei hyötyisi kovin paljoa suuremmasta L3-kakusta.
 
Pelikäyttöön lähes jokainen moderni cpu on riittävä. Työkäyttöön on sitte nää nopeat ja 3dmark pelaajille.
 
Kaippa L3-kakun koon lisäksi vaikuttaa pelisuorituskykyyn miten se on toteutettu? Jos Intel kasvattaisi nykyisellä L3-toteutuksellaan vain L3:n kokoa niin olisiko vaikutus yhtä dramaattinen kuin AMD:n X3D -lisävälimuistilla?

Ei ole. AMD:llä iso välimuisti peittää korkeita viiveitä keskusmuistin suuntaan, tai toisin päin ilmaistuna Intelin pienemmät viiveet ramiin aiheuttavat sen, että isompi L3 välimuisti ei tuo niin paljon lisää suorituskykyä, varsinkin jos Intelillä ajetaan erittäin nopeita muisteja.
 
Cache-pyramidiin voisi laittaa vielä L4 siihen keskusmuistin väliin :)
1 GB L4:sta ei menisi hukkaan pelien kanssa ja sen voisi tehdä niillä vanhoilla valmistustekniikoilla.

Intelillä joissain malleissa tuollainen on ollutkin, siten että se on ollut muistiohjaimen puolella piirin väyläverkkoa, ja sen tehtävä on ollut enemmän toimia välimuistina integroidulle näyttikselle ja muulle IO-logiikalle kuin CPU-puolelle. Mutta koska kaikki muistiaccessit menevät sen kautta, se toimi välimuistina myös CPUlle ja auttoi myös CPU-suorituskykyyn.

Ja aikoinaan se tehtiin joissain mobiilimalleissa eDRAMilla, joka oli tehty vanhemmalla valmistustekniikalla

Koot oli tuossa muistaakseni mallista riippuen 64 tai 128 megaa, ajalla kun 8 megaa oli yleisin L3-välimuistin koko.


Applella on myös tuollainen muistiohjaimeen integroitu välimuisti, nimellä "system level cache", mutta se on ihan SRAMia samalla piilastulla kuin kaikki logiikkakin.
 
Vähän ihmetyttää tuo amd strategia strix halon ja mahdollisesti perutun medusan kanssa. Luulisi että kysyntää olisi isolle muistimäärälle kohtuu tehon kanssa pienessä paketissa. Mutta hinnoittelu on korkea vaikka kustannus kaiketi pienempi kuin kasattu pc torni
 
Vähän ihmetyttää tuo amd strategia strix halon ja mahdollisesti perutun medusan kanssa. Luulisi että kysyntää olisi isolle muistimäärälle kohtuu tehon kanssa pienessä paketissa. Mutta hinnoittelu on korkea vaikka kustannus kaiketi pienempi kuin kasattu pc torni

Strix Halossa on käsittääkseni (viiveiden minimoimiseksi) kalliihko paketointi, se on kalliimpi kuin melko samantyyliset piilastut perinteisemmällä paketoinnilla.

Toisekseen: Strix Halo on high-end-tuote jolla on high-end hinnoittelu. Koska kysyntää on, hinta voidaan laittaa korkeammalle, ja silti saada piiriä kaupaksi. Jollain ne tuotekehityskustannukset pitää kattaa ja myös tehdä voittoa sijoittajille vastineena heidän sijoituksistaan.
 
Viimeksi muokattu:
Strix Halossa on käsittääkseni (viiveiden minimoimiseksi) kalliihko paketointi, se on kalliimpi kuin melko samantyyliset piilastut perinteisemmällä paketoinnilla.

Toisekseen: Strix Halo on high-end-tuote jolla on high-end hinnoittelu. Koska kysyntää on, hinta voidaan laittaa korkeammalle, ja silti saada piiriä kaupaksi. Jollain ne tuotekehityskustannukset pitää kattaa ja myös tehdä voittoa sijoittajille vastineena heidän sijoituksistaan.
Ja halpahan toi strix halo on, jopa satoja prosentteja nopeampi ku joku paljon kalliimpi 5090. Niillä kuormilla missä toi on ylipäänsä nopea laisinkaan.
 
Intel myöntää, että sen tulevien piirinvalmistusprosessien kohtalo on aika lailla veitsen terällä.
Jos Intel ei löydä ulkoisia asiakkaita 14A ja sitä seuraaville prosesseille, se saattaa luopua kokonaan uusien piirinvalmistustekniikoiden kehittämisesta. Tästä seuraisi se, että tulevien sukupolvien piirinvalmistus siirrettäisiin kokonaan ulkoisille toimittajille (TSMC, Samsung) .

Intel will cancel 14A and following nodes if it can't win a major external customer

 
On kyllä Intel saanut itsensä aikamoiseen kuoppaan kaivettua. Toki omaa syytänsä ovat tässä tilanteessa.

Mitenköhän TSMC:llä riittää kapasiteettia jos Intelkin siirtyisi täysin heidän asiakkaaksi plus siihen päälle kaikki muut. Ei jotenkin tunnu järkevältä tilanteelta tämäkään, liian paljon yhden firman varassa.
 
Intel myöntää, että sen tulevien piirinvalmistusprosessien kohtalo on aika lailla veitsen terällä.
Jos Intel ei löydä ulkoisia asiakkaita 14A ja sitä seuraaville prosesseille, se saattaa luopua kokonaan uusien piirinvalmistustekniikoiden kehittämisesta. Tästä seuraisi se, että tulevien sukupolvien piirinvalmistus siirrettäisiin kokonaan ulkoisille toimittajille (TSMC, Samsung) .

Intel will cancel 14A and following nodes if it can't win a major external customer


Ei oikeastaan yllätä sen jälkeen kun Gelsinger efektiivisesti potkittiin pihalle. Kvartaalitaloussijoittajat haluavat säästöjä ja pikavoittoja, ja Gelsingerin pysyminen Intelin pitkän tähtäimen strategiassa jossa Intel saa (yleensä) kilpailuetua omista valmistajistusprosesseistaan ei niitä pikavoittoja seuraavan muutaman vuoden aikana tarjoa.

Intelin strategia siitä, että se saa kilpailuetua paremmista prosesseistaan on keskimäärin toiminut hyvin, mutta se failasi P1274-prosessin ("10nm") kanssa ja kun plan B puuttui takataskusta niin aika paljon asioita meni pieleen ja intel hetken aikaa kärsikin siitä että käyttää omia tehtaitaan.

IMHO omien tehtaiden valmistamien ja omien prosessien kehittäminen on Inteliltä fiksua, mutta plan B pitää aina olla takataskussa, että jos välillä omat tehtaat onkin huonompia, ei silloin asiat mene totaalisen pieleen niin kuin ne n. viitisen vuotta sitten meni.

Ilman omia tehtaita en oikein näe Intelillä mitään etulyöntiasemaa AMDhen nähden - AMDllä on parempi näyttispuoli, ja parempi tuotemanagerointi joka tekee vähemmän typeriä päätöksiä markkinasegmentoinnin ja lyhyen tähtäimen voittojen metsästämisen/rahastamisen takia.

Varsinaiset suunnitteluporukat jotka ytimiä suunnittelevat taas tuntuvat olevan melko yhtä päteviä molemmilla, Intelillä vaan johtoportaalla on tapana enemmän sitoa suunnitteluporukoiden käsiä ja tuoda ulos cripplattuja tuotteita, kun taas perinteisesti AMD kärsi siitä että oli altavastaajana ja joutui toimimaan pienemmillä resursseilla ja huonommalla softatuella jne (mikä ei käytännössä enää juurikaan pidä paikkaansa)
 
Viimeksi muokattu:
Ja tosiaan AVX-512 on erinomainen esimerkki tästä Intelin sähläyksestä lähinnä markkinasegmentoinnin suhteen:

AVX-512 kehitettiin alunperin "Larrabee"-projektin sivutuotteena, Larrabeen piti olla x86-pohjainen näyttis mutta kun todettiin että ei sitä saada toimimaan tarpeeksi hyvin näyttiksenä, siitä tehtiin vaan yleinen hvyin rinnakkaistuvan laskennan kiihdytin(Xeon Phi).

AVX-512 tuotiin kuitenkin myös normaaleihin CPU-ytimiin(Skylake) mutta se kytkettiin päälle ainoastaan serverimalleissa (Skylake-X, Skylake-SP ja Skylake-W). Ja tämä taas totaalisesti pilasi softatuon yleistymisen sille, kun käytännössä sitä ei ollut keskimääräisen softankehittäjän työkoneessa.

Lisäksi Skylake-sukupolvessa AVX-512-tuessa oli myös yksi paha tekninen ongelma: Niissä prossun virransyöttö ei ollut tarpeeksi järeä ruokkimaan sen AVX512-yksiköitä suurilla kellotaajuuksilla, ja prossujen kellotaajuuden dynaaminen skaalaus oli liian hidas; Jos prossu olisi suurella kellotaajuudella kohdannut useamman AVX-512-käskyn nopeasti peräkkäin, sen jännite olisi suuren hetkellisen kulutuksen takia laskenut liian alas ja se olisi käynyt epävakaaksi. Tähän sitten purkkavirityksenä tehtiin moodi, että kun yllättäen suurella kellotaajuudella pyöriessä kohdataan AVX-512-käskyjä, pitääkseen virrankulutuksen tarpeeksi pienenä prossu vaan alkoi stallailla suuressa määrin kunnes kellotaajuus saadaan laskettua turvallisen alas, ja vasta sitten kellojen laskettua alas sallitaan AVX-512-käskyjen normaali suoritus, ja valitettavasti tämä kellotaajuuksien laskeminen kesti aivan liian kauan että suorituskyky oli totaalisen pilalla jos haluttiin suorittaa vain pieni määrä AVX-512-käskyjä.

Eli tämä käytännössä pilasi totaalisesti AVX-512-käskyjen suorituskyvyn "satunnaiskäytössä".


Ja sitten kun Skylake-sukupolvesta kehitettiin vaikka kuinka monta viilattua uudempaa versiota (Kaby Lake, Coffee Lake, Whiskey Lake, Comet Lake), niin missään tätä ongelmaa ei saatu korjattua. Virransyötöstä ei saatu tehtyä järeämpää että prossu olisi kestänyt useamman AVX-512-käskyn suorituksen suurella kellolla ilman virransyöttöongelmia eikä kellotaajuuden laskemista saatu nopeutettua että stallailuaika olisi lyhentynyt.

Joten yhdistelmä markkinasegmenttiperseilyä (ei AVX512sta normaalissa halvahkossa työpöytäkoneessa tai läppärissä) sekä teknistä ongelmaa johti siihen, että käytännössä mitään softia ei optimoitu AVX-512lle, vaikka AVX-512 olisi voinut tarjota Intelille selvää kilpailuetua AMDhen nähden jos se olisi yleistynyt ennen kuin AMD saa omat AVX-512:sta tukevat prossunsa pihalle.


AMD sai AVX-512:sta tukevan prossunsa ulos vasta 5 vuotta Intelin jälkeen (zen4 2022) mutta teki implementaation joka oli maksiminopeudeltaan hitaampi kuin Intelin implementaatio, mutta ei sisältänyt mitään stallausongelmia ja oli joka tilanteessa hyödyllinen vaikka hyödyt jäi usein pieniksi, ja sitten 7 vuotta intelin jälkeen (2024) AMDllä on zen5ssaan markkinoiden paras(nopein) AVX512-tuki.


Ja mitä teki Intel... pari vuotta sen jälkeen kun se oli lopulta saanut tuon oman AVX512-virransyöttö-/stallausongelmansa ratkottua, ja myös tuotua markkinoille joitain uusia kuluttajaprossuja joissa AVX-512 on päällä, ja juuri kun AMDltä oli pian tulossa markkinoille AVX-512sta tukevia prossuja kaikissa markkinasegmenteissä(mikä parantaa softatukea selvästi), päättikin Intel kokonaan luopua AVX-512sta kuluttajaprossuissaan.

Ja nyt tilanne on, että AVX-512, Intelin oma teknologia, joka ei käytännössä koskaan tarjonnut merkittävää kilpailuetua Intelille AMDtä vastaan, tarjoaakin AMD:lle kilpailuedun AMD:tä vastaan.
 
Viimeksi muokattu:
On kyllä Intel saanut itsensä aikamoiseen kuoppaan kaivettua. Toki omaa syytänsä ovat tässä tilanteessa.

Mitenköhän TSMC:llä riittää kapasiteettia jos Intelkin siirtyisi täysin heidän asiakkaaksi plus siihen päälle kaikki muut. Ei jotenkin tunnu järkevältä tilanteelta tämäkään, liian paljon yhden firman varassa.
Intel suurimman osan viime vuosikymmenestä ylimielisesti kitsaili ytimien ja säikeiden kanssa sekä teki 0-10 prosentin parannuksia prosessoreihinsa unohtamatta että emolevyjen kannat vaihtuivat tiuhaan täysin turhaan kun kokivat että Amd ei ole kilpailijaksi ja kokivat että nyt vuollaan kultaa.

Ei kuitenkaan ole tervettä että yksi iso kilpailija jää liikaa jälkeen ja onneksi ARM perustuvia prosessoreita on tulossa varteenotettavia vaihtoehtoja useammalta valmistajalta kohta myös pöytäkoneisiin ja kannettaviin jotka eivät ole Applen tekemiä, toki Amd on iso tekijä kaikilla rintamilla paitsi mobiilissa.
 
Intel suurimman osan viime vuosikymmenestä ylimielisesti kitsaili ytimien ja säikeiden kanssa sekä teki 0-10 prosentin parannuksia prosessoreihinsa unohtamatta että emolevyjen kannat vaihtuivat tiuhaan täysin turhaan kun kokivat että Amd ei ole kilpailijaksi ja kokivat että nyt vuollaan kultaa.

Ei kuitenkaan ole tervettä että yksi iso kilpailija jää liikaa jälkeen ja onneksi ARM perustuvia prosessoreita on tulossa varteenotettavia vaihtoehtoja useammalta valmistajalta kohta myös pöytäkoneisiin ja kannettaviin jotka eivät ole Applen tekemiä, toki Amd on iso tekijä kaikilla rintamilla paitsi mobiilissa.
Ei Intelin ongelmat prosessorien heikosta kehityksestä kumpua, vaan valmistusprosessien ongelmista, joiden kanssa se on paininut pian vuosikymmenen (10 nm piti alun perin tulla massatuotantoon 2016)
 
Rikkana tähän Intelin rokkaan, SMT on tulossa takaisin tulevissa prosessorisukupolvissa ainakin palvelinprosessoreihin.
Vielä ei ole tietoa siitä, tuleeko se takaisin koko prosessorikantaan.

Eiköhän se AVX-512 myös jossakin vaiheessa tule takaisin kuluttajaprosessoreihinkin.

 
Intel suurimman osan viime vuosikymmenestä ylimielisesti kitsaili ytimien ja säikeiden kanssa

Ei ihan näin.

Ensinnäkin, koko viime vuosikymmenen Intel nosti tasaisesti server-/HEDT-prossujensa ydin- ja säiemäärää eikä kitsaillut niiden ytimissä.

Mutta vaikka keskitytään vain kuluttajatuotteisiin, niin intel ei todellakaan kitsaillut ylimielisesti:

Vuodet 2010-2016 Intelillä oli jatkuvasti kuluttajamarkkinoilla suorittimia jotka ajoivat yhtä aikaa vähintään yhtä montaa säiettä kuin AMDnkin prossuilla, ja monena näistä vuosista Intel johti joko säie- tai ydinmäärässä AMDtä:

Jos tarkastellaan uusinta julkaistua tuotesukupolvea joka vuoden aikana ehti pihalle ja jota myytiin kuluttaja-työpöydälle, niin:

2010: Intel 6 ydintä, 12 säiettä, AMD 6 ydintä, 6 säiettä (intelillä enemmän säikeitä)
2011: Intel 4 ydintä, 8 säiettä, AMD 4 todellista ydintä, 8 säiettä, mutta markkinointi laski yhden ytimen kahdeksi
2012: Intel 4 ydintä, 8 säiettä, AMD 4 todellista ydintä, 8 säiettä, mutta markkinointi laski yhden ytimen kahdeksi
2013: Intel 4 ydintä, 8 säiettä, AMD 4 todellista ydintä, 8 säiettä, mutta markkinointi laski yhden ytimen kahdeksi
2014: Intel 4 ydintä, 8 säiettä, AMD 2 todellista ydintä, 4 säiettä, mutta markkinointi laski yhden ytimen kahdeksi (Intelillä enemmän säikeitä sekä todellisia ytimiä)
2015: Intel 4 ydintä, 8 säiettä, AMD 2 todellista ydintä, 4 säiettä, mutta markkinointi laski yhden ytimen kahdeksi (Intelillä enemmän säikeitä sekä todellisia ytimiä)
2016: Intel 4 ydintä, 8 säiettä, AMD 2 todellista ydintä, 4 säiettä, mutta markkinointi laski yhden ytimen kahdeksi (Intelillä enemmän säikeitä sekä todellisia ytimiä)
2017: Intel 6 ydintä, 12 säiettä, AMD 8 ydintä, 16 säiettä
2018: Intel 8 ydintä, 16 säiettä, AMD 8 ydintä, 16 säiettä
2019: Intel 10 ydintä, 20 säiettä, AMD 16 ydintä, 32 säiettä

sekä teki 0-10 prosentin parannuksia prosessoreihinsa

Säiekohtainen suorituskykyparannus jostain Westmerestä Sandy Bridgeen oli aika paljon parempi.

Mutta kun Sandy Bridge oli todella hyvä arkkitehtuuri niin sen jälkeen siitä oli paljon vaikeampi parantaa suuria parannuksia.

Ja samaan aikaan kun Intel teki erinomaisen Sandy Bridgen, AMD lähinnä vaan huononsi suorituskykyään Bulldozerillaan.

Eikä se Piledriverkaan bulldozerin päälle parantanut suorituskykyä juuri sen enempää, ja Piledriverin jälkeen seuraavat pari vuotta AMDllä mentiin vaan takapakkia suorituskyvyssä, Steamrollerista ja Excavatorista tuli pelkkiä läppäreihin optimoituja piirejä jotka olivat sekä yhden että monen säikeen suorituskyvyssä jopa piledriveria hitaampia (koska huonomman halvemman valmistustekniikan takia matalammat kellot, ja lisäksi vähemmän ytimiä koska ei edes yritetty tehdä työpöytäoptimoitua -end-piiriä koska ne olisivat olleet vaan sekä kalliita että hidaita eivätkä pärjännyt alkuunkaan Intelin high-end-työpöytä-piireille).

Intelillä taas joka sukupolvi Sandy Bridgen jälkeen oli silti selvää parannusta, vaikka Sandy Bridge oli ollut niin erinomainen kuin mitä se oli.

Mutta toki siinä vaiheessa (yli 5 vuotta Bulldozerin julkaisun jälkeen) kun AMD vihdoin pääsi eroon Bulldozer-johdannaisista, AMD pystyi kertaalleen tekemään suuren hypyn suorituskyvyssä - mutta edelleen se säiekohtainen suorituskyky oli zen1llä selvästi Skylaken takana.

AMD sai Intelin suurin piirtein kiinni säiekohtaisessa suorituskyvyssä vasta zen3lla, joka tuli loppuvuodesta 2020.

Ja lisäksi tosiaan intelin suunnitelmat meni pieleen siihen että tuo P1274-valmistusprosessi ei toiminut. Alkuperäisten suunnitelmien mukaan Cannon Laken (joka oli siis Skylake uudemmalla valmistustekniikalla) piti tulla jo 2016, ja työpöydälle viimeistään 2017, ja seuraavan aivan uuden arkkitehtuurin (Ice Lake/Sunny Cove) piti tulla työpöydälle 2018.

Mutta koska uusi valmistustekniikka sukkasi, kumpikaan näistä ei koskaan tullut työpöydälle ja sen sijaan työpöydälle (Skylaken viilattujen mallien lisäksi) pääsi ainoastaan Rocket Lake joka oli Ice Lake/Sunny Cove backportattuna vanhemmalle valmistustekniikalle, mikä viivästi sitä parilla vuodella ja huononsi sen suorituskyvyä alkuperäisestä suunnitelmasta.

Mikäli Intelillä valmistustekniikkakuviot ei olisi failanneet niin pahasti kuin ne failasivat, zen 2:sta vastassa olisi Inteliltä ollut Ice Lake/Sunny Cove joka ei olisi ollut vaan jonkin verran nopeampi (kuten 4 vuotta vanhaan Skylakeen pohjaava Comet Lake oli) vaan selvästi nopeampi, ja Zen3sta vastassa olisi ollut Tiger Lake (Ice laken jatkokehitelmä)



Mutta on melko typerää haukkua Inteliä siitä, että Intel ei Sandy Bridge-Skylake-välillä työpöydällä lisännyt ydinmäärää kun AMD tuolla välillä vaan vähensi omaa ydinmääräänsä koska pudotti high-end-työpöytä-mallit kokonaan pois parista sukupolvesta.

Intel keskittyi tuohon aikaan tekemään työpöytäprossuja jotka tarjoavat hyvän suorituskyvyn niillä softilla joita kuluttajat tositilanteessa työpöytäprossuillaaan ajamaan - tosimaailman softia, jotka oli huonosti säikeistetty, mutta tarjosi silti myös AMDtä paremmin suorituskyvyn myös niillä harvoilla hyvin säikeistetyillä softilla.

Vasta kun AMD Zen:llään hyppäsi kahdeksaan ytimeen meni AMD monen säikeen suorituskyvyssä ohi - mutta ne keskimääräiset kuluttajasoftat pyrivät silti Kaby lakella paremmin, koska ne eivät juurikaan hyötyneet kahdeksasta ytimestä.

Zen1 ei ollut kilpailukykyinen prossu joka pelasti AMDn koska siinä oli kahdeksan ydintä, vaan se oli kilpailukykyinen prossu ja pelasti AMDn koska sen yhden säikeen suorituskyky ei totaalisesti sukannut kuten AMDn aiemmilla bulldozer-johdannaisilla prossuilla yhden säikeen suorituskyky sukkasi, ja lisäksi se oli ihan pätevä energiatehokkuudeltaan. Sen suorituskyky oli riittävän lähellä Intelin suorituskykyä että kun AMD myi niitä jonkin verran Intelin prossuja halvemmalla hinnalla, se oli hyvä ostos (toisin kuin bulldozer, joka oli vaan liian hidas ja liian huono suoriotuskyky-virrankulutus-suhteeltaan)

Melko pieni osa myydyistä zen1stä oli niitä kahdeksan ytimen malleja. Itse toki yhden omistan, mutta sillä onkin oma tarinansa.

Ja oikeastaan tuo ensimmäinen zen1-piiri oli server-optimoitu piiri - kahden erillisen CCXn rakenne oli huono esim. pelejä ajatellen, mutta soveltui hyvin ajamaan suurta määrää erillisiä palvelinprosesseja jotka eivät jaa dataa keskenään. Mutta se saatiin myytyä myös työpöydälle koska se ei kuitenkaan sukannut työpöydälläkään ja osa kuluttajista halusi ostaa "moar coresia", ja osa ajoi oikeasti paljon monisäikeistettyä softaa jossa oikeasti hyötyi sen monesta ytimestä (mutta olisi hyötynyt enemmän, jos piirin L3-/CCX-arkkitehtuuri olisi ollut erilainen)

Vasta zen3n myötä AMD siirtyi L3-välimuistin osalta enemmän työpöytäoptimoituun rakenteeseen.

unohtamatta että emolevyjen kannat vaihtuivat tiuhaan täysin turhaan kun kokivat että Amd ei ole kilpailijaksi ja kokivat että nyt vuollaan kultaa.

Tämä on ihan paikkaansapitävää kritiikkiä.

Intel on perseillyt kun ei ole suunnitellut soketteihinsa käytännössä minkäänlaista yhteensopivuutta eri sukupolvien välillä. Soketti pitäisi vaihtaa/yhteensopivuus rikkoa vasta kun uusi sukupolvi oikeasti tarvii sitä, esim. uuden muistitekniikan tai erilaisen muistiväylän leveyden, tai uusien IO-väyläprotokollien takia.

Ei kuitenkaan ole tervettä että yksi iso kilpailija jää liikaa jälkeen ja onneksi ARM perustuvia prosessoreita on tulossa varteenotettavia vaihtoehtoja useammalta valmistajalta kohta myös pöytäkoneisiin ja kannettaviin jotka eivät ole Applen tekemiä, toki Amd on iso tekijä kaikilla rintamilla paitsi mobiilissa.

64-bittinen ARM on IMHO paras CPU-arkkitehtuuri, mutta Windows-ekosysteemissä se ei vaan toimi hyvin, koska kaikki softa on Windows-puolella käännetty x86lle ja ARM ei ole edes yrittänyt speksata viralliseen ARM-arkkitehtuurispeksiin sellaista muistin konsistenttiusmoodia joka tekisi x86n emuloinnista binäärikäännöksellä tehokasta ARMilla (Apple sen sijaan teki ihan itse omiin ARM-prossuihinsa oman x86-emulaatiota helpottavan toimintamoodin, mutta windows-puolella kukaan prossuvalmistaja ei käytännössä voi tehdä tällaista laajennosta itse koska windowsin pitäisi tukea sitä, ja microsoft käytännössä tukee sitä binäärikääntäjässään/emulaatiojärjestelmässään vain jos sen speksi tulee ARMilta)

Että ARM voisi oikeasti haastaa x86sta windows-puolella, ARMin pitäisi ottaa x86-emulointi tosissaan.
 
Viimeksi muokattu:
Zen1 ei ollut kilpailukykyinen prossu joka pelasti AMDn koska siinä oli kahdeksan ydintä, vaan se oli kilpailukykyinen prossu ja pelasti AMDn koska sen yhden säikeen suorituskyky ei totaalisesti sukannut kuten AMDn aiemmilla bulldozer-johdannaisilla prossuilla yhden säikeen suorituskyky sukkasi, ja lisäksi se oli ihan pätevä energiatehokkuudeltaan. Sen suorituskyky oli riittävän lähellä Intelin suorituskykyä että kun AMD myi niitä jonkin verran Intelin prossuja halvemmalla hinnalla, se oli hyvä ostos (toisin kuin bulldozer, joka oli vaan liian hidas ja liian huono suoriotuskyky-virrankulutus-suhteeltaan)

AMD jumitti 5 vuotta jossain 28nm-32nm prosesseissa, koska Global Foundries ei vaan pystynyt parempaan. Ja joskus silloin muroaikoina/tämän foorumin syntyaikoina sinä vielä uskoit, että aina seuraava windowsin scheduleri vielä korjaa AMD:n prosessorin ongelmat. Kirjoitin muistaakseni ensimmäiseen näkemääni diaan, että jaettu fetch/decode on tyhmä idea, ja siitä on kohta 15v..

..mutta siis AMD jumitti tosiaan paikallaan 5 kokonaista vuotta ihan valmistusprosessienkin kanssa ja Zen nelinkertaisti transistorien määrän (tämä laskettu tyhmästi pinta-alasta ja nm skaalautumisesta lineaarisesti) . Olisi aika pahasti pitänyt mokata, jos tällä ei olisi saatu aitoa 8-ydintä. Lisäksi arkkitehtuuri uusittiin (ja ne maansiirtokoneet oli huonosti suunniteltu).

Sitten Intelille kävi suunnilleen sama ja ne jumittivat 14nm++(++) prosesseissa 5 vuotta, kun AMD puski eteenpäin. Niin Inteli käytännössä menetti etumatkansa, kun AMD:n PCIE 4.0 Ryzenit tulivat markkinoille ja Ryzen 5800X3D oli peleihinkin parempi.

Tässä AI:lla luotu taulukko, josta napsin osan pois. Tämä on täysin keskustelua tukemaan ja kuvituskuva. AI ei nyt argumentoi puolestani, selventää vaan sekavaa tekstiäni:

1753468031680.png
 
Viimeksi muokattu:
Huhumyllyn vuotaneita(ehkä todellisia, ehkä ei) nvidia/mediatek n1x cpu benchmarkkeja. Eihän tuo huhutulle 2026 julkaisulle enää mikään parhain mahdollinen tilanne ole, toisaalta läppäreistä kun puhutaan niin enemmän kiinnostaa reaalimaailman suorituskyky akunvarassa kuin maksimaalinen nopeus letkuruokinnassa
1753498638553.png



Kai win11 arm emulaatio alkaa olemaan melkoisen hyvä. Päivityksessähän tuli simd käskyille(kin) tuki. Se mikä puuttuu niin kyky emuloida ajureita ja peleihin huijauksenestoja. Epic gamesiltä tulossa syksyllä fortnite win11 arm versio ja fortniten vaatiman huijaukseneston win11 arm versio. Mitä olen win11+arm:ia seurannut niin hyötysoftat mitä käytän taitaa kaikki löytyä jo arm-versioina.
At a technical level, the virtual CPU used by x64 emulated applications through Prism will now have support for additional extensions to the x86 instruction set architecture. These extensions include AVX and AVX2, as well as BMI, FMA, F16C, and others, that are not required to run Windows but have become sufficiently commonplace that some apps expect them to be present. You can see some of the new features in the output of a tool like Coreinfo64.exe.
 

Uusimmat viestit

Statistiikka

Viestiketjuista
282 889
Viestejä
4 859 694
Jäsenet
78 483
Uusin jäsen
JohWoh

Hinta.fi

Back
Ylös Bottom