Virallinen: AMD vs Intel keskustelu- ja väittelyketju

  • Keskustelun aloittaja Keskustelun aloittaja Sampsa
  • Aloitettu Aloitettu
intel_vs_amd.png


Tähän ketjuun kaikki kahden prosessorivalmistajan välinen keskustelu ja väittely ja pidetään nuo tietyn aiheen ketjut siitä puhtaana. Jos alkaa mennä offtopiciksi, niin viestit siirretään tähän ketjuun.

Täällä vastaava viestiketju NVIDIA vs AMD -keskustelulle:

Virallinen: NVIDIA vs AMD (vs Intel) keskustelu- ja väittelyketju
AMD
 
Ainakin tämän artikkelin perusteella nykyaikaisilla kääntäjillä voi olla havaittavia eroja suorituskyvyn kanssa.


Juu eroja tulee kääntäjien välillä mutta suurempia eroja syntyy kun ei tartte niin välittää jostakin geneerisestä yhteensopivuudesta vaan lyödään rautaspeciifejä lippuja kehiin kääntäessä. Tästä hyvänä esimerkkinä kuopattu clear linux joka siis intelin tekele mutta myös AMD raudalla potkii menewmään varsin hyvin.

For the past ten years Intel software engineers have been crafting Clear Linux as a high performance distribution that is extensively optimized for x86_64 processors via aggressive compiler tuning, various patches to the Linux kernel and other packages, and a variety of other optimizations throughout the operating system. For years Clear Linux has led Linux x86_64 performance not only on Intel desktop/mobile/server hardware but on AMD systems too.



When taking the geometric mean from dozens of benchmarks completed on all configurations tested for this 5th Gen AMD EPYC performance, Clear Linux had a very nice final showing. Clear Linux was 34% faster than Ubuntu 25.04 out-of-the-box or 30% compared to AlmaLinux 10. With the performance governors, Clear Linux was still 29% faster than Ubuntu and 19% faster than AlmaLinux 10. The delta is lower than on last week's Intel tests topping out at 48% since as mentioned for this dual AMD EPYC 9965 configurations, the Clear Linux kernel configuration topped out at 512 threads rather than 768 threads on AlmaLinux and Ubuntu. But even with that handicap, Clear Linux was still leading in performance overall.

Luulisin että alkujaan tarkoitettiin tuolla ompun optimoinnella juurikin jotain vastaavaa.
 
Luulisin että alkujaan tarkoitettiin tuolla ompun optimoinnella juurikin jotain vastaavaa.
Aika selvältä ja virheelliseltä vaikuttaa alkuperäinen väite. Ei tuota oikein voi tulkita muuten kuin on kirjoitettu. Joko tuo väite on virheellinen(mikä ihmeen applen kääntäjä?) tai samat kääntäjät on kaikille valmistajille valmistajien optimoimia. intel/amd tukee samoja kääntäjiä(llvm, clang, gcc) samalla tapaa kuin apple. Esimerkiksi: Reddit - The heart of the internet
Applen hyvästä suorituskyvystä osa tulee siitä, että Applen softat käännetään Applen optimoimalla kääntäjällä joka optimoi koodin juuri nimenomaan Applen omalle ARM-ytimille parhaaksi mahdolliseksi.
 
Aika selvältä ja virheelliseltä vaikuttaa alkuperäinen väite. Ei tuota oikein voi tulkita muuten kuin on kirjoitettu. Joko tuo väite on virheellinen(mikä ihmeen applen kääntäjä?) tai samat kääntäjät on kaikille valmistajille valmistajien optimoimia. intel/amd tukee samoja kääntäjiä(llvm, clang, gcc) samalla tapaa kuin apple. Esimerkiksi: Reddit - The heart of the internet

Miks sun pitää jankata vastaan joka asiasta. Juuri kerroin että eiköhän sillä tarkoiteta juurikin sitä että ompulla tunnettu rauta jolloin voidaan käyttää kääntäjän optimointeja juuri sille raudalle, ei tartte siis mitään geneeristä arm koodia tehdä jolla taataan eetä se koodi pyörii kaikissa arm prossuissa.

Jos edes olisit viitsinyt vänkäämisen sijaan käydä noi phoronix testit läpitte niin huomaisit että tuolla voidaan saavuttaa varsin suurta hyötyä.

Tai jos sinä vastaavasti olet varma ja sulla on lähde että omppu EI näin toimi niin sitten toki lähdettä kehiin.
 
Miks sun pitää jankata vastaan joka asiasta. Juuri kerroin että eiköhän sillä tarkoiteta juurikin sitä että ompulla tunnettu rauta jolloin voidaan käyttää kääntäjän optimointeja juuri sille raudalle, ei tartte siis mitään geneeristä arm koodia tehdä jolla taataan eetä se koodi pyörii kaikissa arm prossuissa.

Jos edes olisit viitsinyt vänkäämisen sijaan käydä noi phoronix testit läpitte niin huomaisit että tuolla voidaan saavuttaa varsin suurta hyötyä.

Tai jos sinä vastaavasti olet varma ja sulla on lähde että omppu EI näin toimi niin sitten toki lähdettä kehiin.
Mikä se applen kääntäjä on jota ei saa käytettyä x86 koodin tai vaikka qualcom arm-koodin kanssa? Ei kai vaan llvm/clang johon myös intel ja amd tekevät patcheja? Toinen puoli ketjussa olleista argumenteista liittyi benchmarkkeihin. Ei kai apple puolella(kaan) enää käännetä benchmarkkeja eri kääntäjällä kuin applikaatioita. Jos käännetään eri kääntäjällä appsit ja benchmarkit niin olisi kiva jonkun linkata mikä se benchmarkeissa käytetty huijauskääntäjä on,...
 
Mikä se applen kääntäjä on jota ei saa käytettyä x86 koodin tai vaikka qualcom arm-koodin kanssa? Ei kai vaan llvm/clang johon myös intel ja amd tekevät patcheja? Toinen puoli ketjussa olleista argumenteista liittyi benchmarkkeihin. Ei kai apple puolella(kaan) enää käännetä benchmarkkeja eri kääntäjällä kuin applikaatioita. Jos käännetään eri kääntäjällä appsit ja benchmarkit niin olisi kiva jonkun linkata mikä se benchmarkeissa käytetty huijauskääntäjä on,...

Ei jumalauta etkö sä vittu ymmärrä mitään?

For the past ten years Intel software engineers have been crafting Clear Linux as a high performance distribution that is extensively optimized for x86_64 processors via aggressive compiler tuning, various patches to the Linux kernel and other packages,

Luuletko sä tosiaan että INTEL vain pystyy x86_64 arkkitehtuurin kanssa siihen että rankasti kun optimoidaan tietylle raudalle niin saavutetaan aika merkittävää nopeushyöty verrattuna siihen arkkitehtuurin GENEERISEEN koodiin? Väitätkö että APPLE ei omalle raudalleen pysty taikka osaa optimoida vaan tyytyyvät geneeriseen koodiin?

Ei ole siis kyse mistään OMENA kääntäjästä vaan se OMENA firmakin VOI niitä ihan yleisiä kääntäjiä pätsätä mieleisekseen jos ja kun näkevät tarvetta, ihan samoin kuin INTEL teki clear linux jakelun kanssa.
 
Noiden johtovälien ("metal pitch"-lukujen) katsominen kertoo hyvin, millaisesta huijauksesta näissä "nanometrilukemissa" on kyse.

Pitch sisältää sekä johdon että johtovälin, että se "pienin yksityiskohta" on käytännössä n. puolet tuosta pitchistä.

N7ssa siis oikeasti pystytään n. 20nm yksityiskohtiin, silti sitä kutsutaan "7-nanometriseksi"

Ja sitten N2 ei pienennä johtoväliä yhtään (edelleen sama 21nm kuin N2ssa). Mutta koska valmistusprosessiin tehdään muita parannuksia joilla kuitenkin transistoreita käytännössä usein (ei aina) saadaan pakattua tiheämpään, kehdataan sille laittaa numero, joka vihjaisi puolitoistakertaiseen dimensiopienennykseen (2.25x tiheysparannukseen) , vaikka todellisin oleellinen mitta ei pienene yhtään ja oikeasti tiheys paranee keskimäärin ehkä n. 1.25-kertaisesti.

Käytännössä siis, jos nanometrilukemat olisivat tosia, A5-prosessin pitäisi olla 200 kertaa tiheämpi kuin N7-prosessi (14*14=~200), mutta tosiasiassa puhutaan n. 10-kertaisesta tiheysparannuksesta näiden prosessien välillä (2.5x pienempi johtoleveys ^2 tekisi samalla track-määrällä 6.25x parannuksen, mutta pienempi track-määrä antaa tämän lisäksi usein muttei aina 1.5x parannuksen, eli kokonaisuudessaan päästään usein n. 10x parannukseen noilla luvuilla. Toki on muita parannuksia tähän päälle, mutta on myös muita huononnuksia tähän päälle, esim tuo pienempi track-määrä pätee vain osaan soluista)

En tiedä käytinkö luotettavia lähteitä. Mutta kävin katsomassa esim. wikipediasta transistorin tiheyksiä. Monta transistoria on per neliömillimetri. :

Minusta näyttää siltä, että ennen vanhaan nuo parantui likimain kuten pitääkin, esim. 90 nm prosessi oli n. 1 miljoonaa transistoria per neliömillimetri ja 45nm oli n. 4 miljoonaa transistoria per neliömillimetri. Kuten pitäisikin, koska 0,5 potenssiin 2 on 0,25. Eli 2x pienempi prosessi paperilla pitäisi olla 4x parempi. 45nm jälkeen näyttää tosiaan tuolta kuten sanoit, 22-28nm prosessin pitäisi olla 4x parempi, mutta onkin enään 3x parempi kuin 45nm. Eli johonkin on kadonnut 1/4. Jos taas verrataan nykyisiä suosittuja prosesseja kuten 5nm, se on n. 118 miljoonaa transistoria per neliömillimetri. 10 nm pitäisi olla tuosta 4x huonompi, mutta ei ole kuin n. 60% huonompi. Varmaan 2,5 nm on enään 2x parempi kui n 5nm. Eli nykyään johonkin on kadonnut 1/2 jo karkeasti tuosta kehityksestä eli toisin sanottuna, jos 4nm/N4 prosessia haluaa 4x paremman prosessin se lienee 1nm/1N vasta.

Vilkaisin myös tubesta muutaman pätkän, joka on suunnattu maallikolle/aloittelijalle enemmän :
Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.

Linkki: https://www.youtube.com/watch?v=EJh4BIujpHA


Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.

Linkki: https://www.youtube.com/watch?v=2QEJC_ZPwWY


Niiden perusteella isot hyppäykset arkkitehtuurissa 1 sukupolvessa olivat viimeksi core 2 duo ja core 2 quad julkaisut 2006-2007. Sen jälkeen isoimmat kehitysaskeleet lienee 1 sukupolvessa AMD:n x3d välimuistitekniikka ja Intelin ja AMD:n chiplet tekniikka. Lähinnä tarkoitan tällä sitä, että kun itse totuin 90-luvulla ja 2000-luvun alussa siihen, että jo 2-3v päivityssyklillä sai melko merkittävän parannuksen koneeseen. Nykyään tuo aika on vähintään tuplaantunut. Ja varmaan seuraavien vuosien aikana, jos A5 on vaan 10x parempi kuin N7. Niin tuo 1/2 kehityksen katoamisesta joutuu ottamaan lisää pois. Siihen päälle vielä se, että arkkitehtuurisia tai muita merkittäviä parannuksia tulee yhä harvinaisemmin per sukupolvi voi hidastaa vielä lisää kehitystä.

Tuossa siis omat johtopäätökset viime aikojen havainnoista sillä ymmärrystasolla, mitä noista sain irti.
 
Niiden perusteella isot hyppäykset arkkitehtuurissa 1 sukupolvessa olivat viimeksi core 2 duo ja core 2 quad julkaisut 2006-2007. Sen jälkeen isoimmat kehitysaskeleet lienee 1 sukupolvessa AMD:n x3d välimuistitekniikka ja Intelin ja AMD:n chiplet tekniikka.

Tämä ei todellakaan pidä paikkaansa. Et nyt yhtään ymmärrä mitä "arkkitehtuuri" tarkoittaa. Nuo asiat mitä mainitset eivät ole arkkitehtuuria vaan paketointitekniikkaa.

Arkkitehtuuri on se piirin rakenne ja toimintaperiaate.

Pentium Pro, Pentium II, pentium III, core duo/quad, core2, nehalem perustuivat kaikki P6-arkkitehtuuriin, jossa oli tomasulo-periaatteella toimiva käskyjen uudelleenjärjestely.

Sandy Bridge vaihtoi Tomasulosta PRF-tyyppiseen käskyjen uudelleenjärjestelyyn, mikä tarkoitti että koko prossun sisäinen rakenne eli arkkitehtuuri muuttui täysin erilaiseksi.

Lähinnä tarkoitan tällä sitä, että kun itse totuin 90-luvulla ja 2000-luvun alussa siihen, että jo 2-3v päivityssyklillä sai melko merkittävän parannuksen koneeseen. Nykyään tuo aika on vähintään tuplaantunut. Ja varmaan seuraavien vuosien aikana, jos A5 on vaan 10x parempi kuin N7. Niin tuo 1/2 kehityksen katoamisesta joutuu ottamaan lisää pois. Siihen päälle vielä se, että arkkitehtuurisia tai muita merkittäviä parannuksia tulee yhä harvinaisemmin per sukupolvi voi hidastaa vielä lisää kehitystä.

Arkkitehtuurillisia parannuksia tulee nykyään jopa useammin kuin 90-luvulla, mutta ne ovat paljon pienempiä.

80-90-luvuilla mentiin joku nelisen vuotta samalla arkkitehtuurlla(8086 -> 80286 -> 80386 -> 80486 -> pentium -> P6 , mutta seuraava arkkitehtuuri oli silloin yleensä yli tuplasti isompi ja n. tuplasti nopeampi (ja valmistustekniikan kehityksen mahdollistamat suuremmat kellot antoi vielä toisen tuplauksen nopeuteen että se 4n vuoden päästä tuleva uusi arkkitehtuuri oli n. 4x nopeampi)

Nykyään uusia arkkitehtuureita tulee n. kolmen vuoden välein, mutta niiden parannukset suoriotuskykyyn edellisestä on jossain n. 10% luokassa ja uusi valmistustekniikkakin parantaa kelloja vain n. 10%
 
Tämä ei todellakaan pidä paikkaansa. Et nyt yhtään ymmärrä mitä "arkkitehtuuri" tarkoittaa. Nuo asiat mitä mainitset eivät ole arkkitehtuuria vaan paketointitekniikkaa.

Arkkitehtuuri on se piirin rakenne ja toimintaperiaate.

Pentium Pro, Pentium II, pentium III, core duo/quad, core2, nehalem perustuivat kaikki P6-arkkitehtuuriin, jossa oli tomasulo-periaatteella toimiva käskyjen uudelleenjärjestely.

Sandy Bridge vaihtoi Tomasulosta PRF-tyyppiseen käskyjen uudelleenjärjestelyyn, mikä tarkoitti että koko prossun sisäinen rakenne eli arkkitehtuuri muuttui täysin erilaiseksi.



Arkkitehtuurillisia parannuksia tulee nykyään jopa useammin kuin 90-luvulla, mutta ne ovat paljon pienempiä.

80-90-luvuilla mentiin joku nelisen vuotta samalla arkkitehtuurlla(8086 -> 80286 -> 80386 -> 80486 -> pentium -> P6 , mutta seuraava arkkitehtuuri oli silloin yleensä yli tuplasti isompi ja n. tuplasti nopeampi (ja valmistustekniikan kehityksen mahdollistamat suuremmat kellot antoi vielä toisen tuplauksen nopeuteen että se 4n vuoden päästä tuleva uusi arkkitehtuuri oli n. 4x nopeampi)

Nykyään uusia arkkitehtuureita tulee n. kolmen vuoden välein, mutta niiden parannukset suoriotuskykyyn edellisestä on jossain n. 10% luokassa ja uusi valmistustekniikkakin parantaa kelloja vain n. 10%
Kiitos selvennyksestä termeihin.

Tämä selvensi lisää.
 

Statistiikka

Viestiketjuista
287 246
Viestejä
4 926 306
Jäsenet
79 336
Uusin jäsen
amirH

Hinta.fi

Back
Ylös Bottom