Virallinen: AMD vs Intel keskustelu- ja väittelyketju

  • Keskustelun aloittaja Keskustelun aloittaja Sampsa
  • Aloitettu Aloitettu
Lähinnä vaan ihmetyttää, että miksi valittu 32- eikä 64-ytiminen malli. Mutta ehkä maksimikellojen takia; Ehkä Linuxin kääntelyssä on edelleen paljon tilanteita joissa >32 säiettä ei joidenkin riippuvuuksien takia päästä tehokkaasti hyödyntämään, ja tuo 32-ytiminen malli tarjoaa suuremman maksimikellon eli paremman yhden säikeen suorituskyvyn. Tai sitten 3990X-pohjaisia koneita ei vaan ollut samalla tavalla hyllyssä kuin 3970X-pohjaisia koneita ja olisi pitänyt tilailla jostain ja odotella sitä yms.

Olisko ihan muistin takia. Jos Linus vaikka ajelee ramdiskillä käännöksiä niin alkaa käydä muistimäärä vähiin kun 256G on TR alustalla vissiin maksimi.
En tiijä miten toi kernelin kääntö rankasee muistia mutta chromium esim. rankasee pahasti. Tällä 8-coren rysällä 16G loppuu aika nopeesti jos ei rajota säikeitä reippaasti.
 
Olisko ihan muistin takia. Jos Linus vaikka ajelee ramdiskillä käännöksiä niin alkaa käydä muistimäärä vähiin kun 256G on TR alustalla vissiin maksimi.
En tiijä miten toi kernelin kääntö rankasee muistia mutta chromium esim. rankasee pahasti. Tällä 8-coren rysällä 16G loppuu aika nopeesti jos ei rajota säikeitä reippaasti.

Muistia itsekin arvelen. Itsekin piti muistin määrä päivittää 16GB -> 32GB kun Ryzen 2700x:n kanssa jo alkoi Gentoolla muisti käydä vähiin tiettyjen pakettien kohdalla.

Toisaalta voi olla että TR:llä tiedostojärjestelmänkin I/O muodostaa jo pullonkaulaa +100 threadilla käännellessä?
 
Olisko ihan muistin takia. Jos Linus vaikka ajelee ramdiskillä käännöksiä niin alkaa käydä muistimäärä vähiin kun 256G on TR alustalla vissiin maksimi.
En tiijä miten toi kernelin kääntö rankasee muistia mutta chromium esim. rankasee pahasti. Tällä 8-coren rysällä 16G loppuu aika nopeesti jos ei rajota säikeitä reippaasti.

C-kielen käännösprosessit ei tyypillisesti vie montaa kymmentä megatavua, ja Linuxin kernelissä eikä gitissä ei ole mitään C++-kielisiä templatehärveleitä jossa voitaisiin mennä moneen sataan megatavuun.

Ainoastaan linkkauksessa voi muistinkulutus mennä selvästi isommaksi, mutta kovin montaa linkkausta ei koskaan ajella rinnakkain.

Mutta linkkaus on muutenkin IO-intensiivistä, itse kääntämisen ollessa enemmän CPU-intensiivistä.
 
Mitenköhän kauan tuo kernelin kääntäminen mahtaa viedä tuolla allmodconfig-asetuksella. Peruskäännös vie Threadripperillä alle puoli minuuttia, ja ero 32 ja 64 ytimen välillä on pieni (reilun sekunnin).

Tein huvikseni erittäin tieteellisen ja tarkan kokeen. Oma käytössä oleva kerneli (5.6.10), omalla melko minimalistisella configilla mistä on jätetty pois se roska mitä en tarvitse:
Bash:
$ time make -j16 bzImage modules
...
real    2m24.397s
user    32m26.377s
sys     1m46.164s

Luonnollisesti mrproperilla siivottu ennen make oldconfigia.
Buildihakemiston koko mrproperin jäljiltä 1.1G, ylläolevan jälkeen 1.7G

Sama allmodconfigilla:
Bash:
$ make mrproper && make allmodconfig && time make -j16 bzImage modules
...
real    20m55.584s
user    313m19.023s
sys     17m3.507s

Hakemiston koko 6.3G
 
Ehkä Linuxin AMD-tuki alkaa pikku hiljaa lähenemään Intel-tasoa: LKML: Linus Torvalds: Linux 5.7-rc7


Oman kokemukseni mukaan Linukassa, Intelin näyttisajurit on parhaat, AMD:n lähentelee pikajunan vessa tasoa ja NVIDIAN ajurit vaatii suht pitkää tikkua että niihin viitsii koskea. Intelin verkkopiirit: LAN, WIFI ovat parhaita. Ja vastineita ei taida AMD / NVIDIA sektorilta löytyä. Pidän siis Intel osti Rivet Networksin (Killer-verkkotuotteet) erittäin huonona uutisena Linukka sopivuuden kannalta.

Olisko ihan muistin takia. Jos Linus vaikka ajelee ramdiskillä käännöksiä niin alkaa käydä muistimäärä vähiin kun 256G on TR alustalla vissiin maksimi.
En tiijä miten toi kernelin kääntö rankasee muistia mutta chromium esim. rankasee pahasti. Tällä 8-coren rysällä 16G loppuu aika nopeesti jos ei rajota säikeitä reippaasti.

Jokunen vuosi takaperin NINJA:an ei vaikuttanut MAKEOPTS="-jn" käsky (n=loogiset ytimet ja ehkä + jotain), ja lisäsin make.conf:iin rivin NINJAOPTS="-jn", johan alkoi Chromiumin kääntaminen sujumaan ilman swappaystä ja ihme kaatumisia. Tilanne saattaa nyt olla muuttunut, mutta en jaksa säätää ja NINJAOPTS="-jn" pysyy make.conf:ssa.
 
Oman kokemukseni mukaan Linukassa, Intelin näyttisajurit on parhaat, AMD:n lähentelee pikajunan vessa tasoa ja NVIDIAN ajurit vaatii suht pitkää tikkua että niihin viitsii koskea. Intelin verkkopiirit: LAN, WIFI ovat parhaita. Ja vastineita ei taida AMD / NVIDIA sektorilta löytyä. Pidän siis Intel osti Rivet Networksin (Killer-verkkotuotteet) erittäin huonona uutisena Linukka sopivuuden kannalta.

Minulla läppäreissä ollut toistaiseksi yksinomaan Intsukan näytönohjaimet, eikä tuo mitenkään harvinaista ole nykyisessäkään että ajuri heittää voltin ja kuva katoaa vaatien uudelleenkäynnistyksen. Kaikki muu toimii kyllä, näyttö vaan pimeä ja dmesgista löytyy tuo ajurista tullut GPF.
 
Siiretty vaikka tänne, koska ei kuulu ainakaan tuonne mistä peräisin.

Toi kireillä asetuksilla ajeleminen oli esimerkki. XMP ajelua vaan.

Mielestäni kyllä kuka ostaa jonkun päälle 500€ prossun (+emon) ei sinne laita jtn. 80€ muistikittiä kun ~180€ saa jo 4400Mhz tikut (2x8Gb) kun puhe on pelikoneesta.

Ylivoimaisesti suurin osa ihmisistä ostaa kerralla kokonaisen tietokoneen eikä erillistä prosessoria. Ja sen kokonaisen tietokoneen mukana tulee yleensä sitä bulkkimuistia.

Avattiin töissä pari vuotta sitten työkaverin työkone, joka tilattu "tehotyöasema"na, standardivalikoimasta mitä oli tarjolla.
Koneen valmistaja oli muistaakseni Lenovo.

Koneessa oli prosessorina Intelin 2066-kantainen. joka tuki neljää muistikanavaa, en muista prossun tarkkaa mallia.

No, kone oli varustettu yhdellä 32 gigan muistikammalla eli prossun muistikaista rajoitettu neljäsosaan koska kolme neljästä muistikanavasta käyttämättä.

Ja tämä on varmaan yleisin konfiguraatio millä tuota konetta valmistettiin ja myytiin.

Lisäksi sen virtalähteessä ei riittänyt puhti esim. Fury-näyttikselle.

(Ja tästä koneesta työpaikka oli maksanut varmaan monta tonnia.)

Tietokoneharrastajat on todella pieni murto-osa kaikista tietokoneiden markkinoista, ja tämä pätee myös niihin yläpään mallien ostajiin.

Ja ne koneet mitä nuo "isot valmistajat" tekee ja suurelle massalle myy on kaikkea muuta kuin "optimoituja kokoonpanoja", VAIKKA niihin olisi sepeksattu jotain kalliita osia, muista osista vaan säästetään senkin edestä kun niistä ei saada bullet pointteja eikä asiakasta tajua niiden tasosta mitään. Asiakas osaa tilata koneen josssa on "nopein prossu" muttei sen enempää.
 
C-kielen käännösprosessit ei tyypillisesti vie montaa kymmentä megatavua, ja Linuxin kernelissä eikä gitissä ei ole mitään C++-kielisiä templatehärveleitä jossa voitaisiin mennä moneen sataan megatavuun.

Ainoastaan linkkauksessa voi muistinkulutus mennä selvästi isommaksi, mutta kovin montaa linkkausta ei koskaan ajella rinnakkain.

Mutta linkkaus on muutenkin IO-intensiivistä, itse kääntämisen ollessa enemmän CPU-intensiivistä.

Joo ei toi kernelin kääntö kurita muistia pahasti. 4GB riitti hyvin kääntämiseen 8 "ytimellä", rpmbuild ajeli 12 jobia.
Ja ilmeisesti tossa cromiumissa on ollu joku ongelma kääntövaiheessa sillon kun sitä testasin. Nyt näyttäisi 8GB riittävän kun ajelee 12 jobia samaan aikaan.

Tein huvikseni erittäin tieteellisen ja tarkan kokeen.

Testaas huvikses 24 jobilla että vaikuttaako aikaan. Iänaikainen neuvo on ollut että 1,5 kertanen määrä jobeja mitä cpu tarjoaa ytimiä smt mukaanlukien. Syynä tähän on se että monet noista jobeista kestää lyhyen aikaa niin tuolla saadaan pidettyä cpu kiireisempänä.
 
Ei.

Muistista haetaan kerralla aina välimuistilinjan verran dataa.

Se, mikä muistityyppi on käytössä ei vaikuta yhtään sen välimuistilinjan kokoon; Välimuisti on jo >10 vuotta ollut kaikissa x86-prosessoreissa 64 tavua.
Ei.

Muistista haetaan kerralla sellaisen burstin pituinen määrä dataa, mitä kyseinen muististandardi tukee. Prosessorin muistiohjaimet ja välimuistit suunnitellaan tuon kanssa yhteensopivaksi. Tuo burstin pituus merkittäviltä osin määrittää sen muistin nopeuden, sillä peruskelloa ei voi määrättömästi nostaa.

Burstin pituus oli DDR2:ssa 4 siirtoa ja DDR3:n sekä DDR4:n kanssa 8 siirtoa. DDR5 käyttää oletusarvoisesti 16. pituista burstia ja on oletettavaa, että prosessoriarkkitehtuuri / muistiohjaimet suunnitellaan myös sitä tukemaan. Olisi varsin typerää, jos näin ei tehtäisi. Nythän yhtään DDR5-muistillista x86-prosessoria ei ole julkistettu ja kaikki mitä sinä (tai minä) sanot on spekulaatiota.

Todennäköisin käytännön toteutustapa lienee on, että koska DDR5 tukee kahta muistikanavaa per DIMM, tehdään siirto (ja bursti) kerrallaan vain yhdellä kanavalla, joka vastaa nykyistä prosessorin välimuistilinjaa. Näin molemmat kanavat voivat hakea yhtäaikaa tietoa toisiaan haittaamatta vaikkapa eri ytimien tarpeisiin, eikä välimuistiarkkitehtuuriin tarvitse tällä tasolla koskea. DDR5 käytännössä tuplaa muistikanavien määrän DDR4:een.

Jotta kaksi muistiväylää per DIMM todella toisi lisää kaistaa muistioperaatioihin on oletettavaa, että DDR5-tuellisissa (teho)prosessoreissa on (vähintään) neljä muistikanavaa: Kaksi per DIMM x 2 DIMMiä.

Micronin blogista:

"Increased data burst length to 16
A data burst length of 16 (BL16) is required on DDR5 to take full advantage of the increased data rates as core timing of the DRAM has not improved. BL16 improves data and command bus efficiency due to larger array accesses limiting the exposure to I/O-array timing constraints within the same bank. The burst length increase to 16 also enables the new DIMM architecture, which results in two completely independent 40-bit channels. This outcome improves concurrency and essentially doubles available memory channels in the system."

Uudemmat muistityypit vaan mahdollistavat sille muistiväylälle suuremman kellotaajuuden, että se välimuistilinja siirtyy hiukan nopeammin.
Kyllä, mutta tuplasyvyisellä burstilla ja kahdella kanavalla saa DDR5-muisti siirrettyä potentiaalisesti yhden muistinhakulantenssin aikana kaksinkertaisen määrän tietoa (DDR5-6400 vs DDR4-3200). Kuten yllä on mainittu, jaetaan DIMM kahtia ja tehdään kaksi hakua yhtäaikaa eri paikkoihin muistia, mikä on yhä kasvavan ydinmäärän kanssa toimiva tapa lisätä suorituskykyä.

Ja uudemmat muistityypit eivät myöskään tuo mitään parempaa prefetchiä. Siihen, millaisia prefetchejä ydin tekee vaikuttaa vain se ydin.
En väittänytkään prosessorin prefetchin siitä muistityypistä parantuvan, vaan sanoin nopeamman muistityypin yhdessä paremman prefetchin kanssa lisäävän tehoa. Mitä paremmin prosessori osaa ennakoida tulevat haut ja hakee tiedon valmiiksi, sitä vähemmän suorat muistihaut haittavat liukuhihnan etenemistä.
 
Viimeksi muokattu:
Testaas huvikses 24 jobilla että vaikuttaako aikaan. Iänaikainen neuvo on ollut että 1,5 kertanen määrä jobeja mitä cpu tarjoaa ytimiä smt mukaanlukien. Syynä tähän on se että monet noista jobeista kestää lyhyen aikaa niin tuolla saadaan pidettyä cpu kiireisempänä.

En itse muista tuollaista neuvoa aikaisemmin kuulleeni, tulee lähinnä mieleen Gentoon epävirallisen virallinen nyrkkisääntö MAKEOPTS="-jX", X=1.5x fyysisten ytimien määrä. Mutta tämä ei ehkä aivan samaan asiaan liity. Vaan suotta sitä arvelemaan, ajelin samaan rahaan eilisen 16 jobia myös uusiksi, tällä kertaa lisäksi tyhjentelin levycachet alkuun ettei ainakaan vääristä tuloksia suuntaan taikka toiseen. Bonuksena helpommin toistettava defconfig eilisen käsin säädetyn sijaan:
Bash:
# echo 3 > /proc/sys/vm/drop_caches && make mrproper && make allmodconfig && time make -j24 bzImage modules
...
real    20m25.600s
user    320m21.137s
sys     18m0.096s

# echo 3 > /proc/sys/vm/drop_caches && make mrproper && make allmodconfig && time make -j16 bzImage modules
...
real    20m52.145s
user    313m29.951s
sys     18m5.698s

# echo 3 > /proc/sys/vm/drop_caches && make mrproper && make allmodconfig && time make -j12 bzImage modules
...
real    24m3.031s
user    277m22.668s
sys     16m22.365s

# echo 3 > /proc/sys/vm/drop_caches && make mrproper && make defconfig && time make -j16 bzImage modules
...
real    1m49.582s
user    26m40.168s
sys     1m32.720s
 
Gentoon epävirallisen virallinen nyrkkisääntö MAKEOPTS="-jX", X=1.5x fyysisten ytimien määrä.

Jep. Redhat pohjaiset näyttää nykyisin vetävän vakiona tuolla. Ei tartte enää taistella että saa rpmbuild komennon ajamaan enemmän kuin 1 jobia kerrallaan.
Eipä tuo isosti vaikuttanut, mutta onhan se pienikin parannus jotakin ;)
 

Kyllä.
Muistista haetaan kerralla sellaisen burstin pituinen määrä dataa, mitä kyseinen muististandardi tukee.

Muististandardit tukevat monen eri kokoisia accesseja. Ja muisteja voidaan laittaa eri määrä rinnakkain.

Sen sijaan pienin datamäärä mitä välimuistit pystyvät käsittelemään ja josta pitämään kirjaa on tasan sen välimuistilihkon koko.

Välimuisti ei koskaan pyydä mitään muuta määrää dataa ulommalta muistilta, kuin välimuistilinjansa verran.

Prosessorin muistiohjaimet ja välimuistit suunnitellaan tuon kanssa yhteensopivaksi.

64 tavun välimuistilinja, jota on käytetty kaikissa x86-prosessoreissa >10 vuotta ja tullaan (hyvin todennäköisesti) käyttämään vielä monta vuotta tulevaisuudessakin, on yhteensopiva kaikkien tunnettujen , nykyisten ja tulevien JEDECin standardoimien keskusmuistiksi tarkoitetujen muistityyppien kanssa.

DDR5n tapauksessa itse asiassa homma menee nimenomaan sitenpäin, että muististandardia on nimenomaan "tuunattu" JOTTA se toimisi järkevästi myös 64 tavun välimuistilinjojen kanssa.

Ja prosessorin välimuistilinjan koko ei ole asia jota vaihdetaan kuten muistityyppiä tai sukkia. Se vaikuttaa kaikkeen siinä välimuistin kirjanpidossa, se vaikuttaa välimuistin koherenttiusprotokollaan. Ja koska data- ja käskyvälimuistien pitää pysyä koherentteina keskenään, se vaikuttaa selvästi myös käskynhakuun ja mm. siihen, miten hypyt ja niiden kohteet kannattaa olla alignoituna muistissa että ne on nopeita. Välimuistin lohkokokoa voidaan helposti vaihtaa vain kun koko ydin menee aivan uusiksi.

Ja Zenissä jopa lisättiin käsky (clzero) joka kirjoittaa yhden välimuistilinjan verran nollia, eli välimuistilinjan koko käytännössä paljastettiin softalle; Jos välimuistilinjan koko muuttuu, tämän käskyn toiminta muuttuu.

Samsung meni omaan Mongoose M1-ARM-ytimeensä 128 tavun lohkokoon, kun sen kanssa "little"nä käytettävässä Cortex A53ssa on vain 64 tavun lohkokoko. Tästä seurasi aika ilkeitä bugeja Exynos 8890-piirillä.


Tuo burstin pituus merkittäviltä osin määrittää sen muistin nopeuden, sillä peruskelloa ei voi määrättömästi nostaa.

Tässä ollaan hyvin oikeilla jäljillä, tosin en ole varma, onko asian kaikkia yksityiskohtia kuitenkaan aivan täysin ymmärretty.

Tässä on siis kyse siitä, kuinka monta kertaa leväempi sisäinen dataväylä (ja pienempi datansiirtotaajuus) muistilla sisäisesti on vs sen väylän datansiirtotaajuus ja leveys. Tälle käyetään termiä prefetch mikä on harhaanjohtava koska tällä on myös toinen täysin erilainen merkitys välimuisteista puhuttaessa.

Tämä ei kuitenkaan suoraan lukitse burstin pituutta. Se ainoastaan asettaa minimin sille, kuinka lyhyellä burstilla saadaan tehtyä kaistan kannalta optimaalisia siirtoja ilman että kikkaillaan useamman bankin kanssa

Eli, DDR2-400 toimii ulkoisesti 200 MHz kellotaajuudella, siirtäen dataa nousevalla ja laskevalla reunalle (400 MHz datansiirtotaajuus) mutta sisäisesti 100 MHz taajuudella. Kun muistista haetaan yhtään mitään, yhtä ulkoisen väylän bittiä kohden haetaan ja sisäisesti siiretään yhden sisäisen kellojakson aikana neljästä rinnakkaisesta paikasta 4 bittiä(prefetch=4n). Nämä voidaan sitten siirtää piiriltä ulos kahden ulkoisen kellojakson (neljän ulkoisen kellonreunan) aikana eli samassa ajassa.

DDR3-800 toimii sitten ulkosesti 400 MHz kellotaajuudella, siirtäen dataa nousevalla ja laskevalla reunalle (800 MHz datansiirtotaajuus) mutta sisäisesti 100 MHz taajuudella. Kun muistista haetaan yhtään mitään, yhtä ulkoisen väylän bittiä kohden haetaan ja sisäisesti siiretään yhden sisäisen kellojakson aikana kahdeksasta rinnakkaisesta paikasta 8 bittiä(prefetch=8n). Nämä voidaan sitten siirtää piiriltä ulos neljän ulkoisen kellojakson (kahdeksan ulkoisen kellonreunan) aikana eli samassa ajassa.

Mutta tämä pätee vain DDR3een asti.

DDR4ssa edelleen itse muistisoluista haetaan yhdellä accessilla yhtä muistiväylän bittiä kohden vain 8 bittiä kerrallaan(prefetch=8n), mutta ulkoinen väylä käy silti selvästi suuremmalla nopeudella kuin 8x datansiirtotaajuudella. Ja se, miten se muistiväylä saadaan työllistettyä sen loppuajan siitä yhdestä pitkästä sisäisestä kellojaksosta on, siellä suoritetaan seuraava burst-siirto jonka data tulee toisesta bank groupista; DDR4 tukee neljää bank grouppia; Kun kaksi erillistä accessia osuu eri bank grouppeihin, niiden datat voidaan hakea saman sisäisen kellojakson aikana muistisoluista ja tunkea saman sisäisen kellojakson aikana peräkkäin ulos ulkoiselle väylälle.

Burstin pituus oli DDR2:ssa 4 siirtoa

Väärin. DDR2n bursin pituus on vähintään 4 siirtoa. Se voi olla myös enemmän, ainakin 8.


Prefetch on DDR2ssa 4n.

ja DDR3:n sekä DDR4:n kanssa 8 siirtoa.

Väärin, se voi olla myös 4 (burst chop mode), mutta tämä tarkoittaa vaan sitä, että muistisoluista jo haetusta datasta heitetään puolet mäkeen ja ilmeisesti kaista puolittuu.

Verrattuna siihen, että data, jota ei tarvita, heitettäisiin mäkeen vasta siirron jälkeen toisessa päässä tällä kuitenkin säästetään virtaa tapauksissa, joissa muistiväylän ja välimuistin välinen konfiguraatio on epäoptimaalinen.


En ole varma, onnistuuko DDR4lla myös 4-mittaiset burstit neljään eri bank grouppiin, jolloin kaista ei tässä tilanteessa kärsi, mikäli accessit oikeasti sattuu osumaan neljään eri bank grouppiin.

Prefetch on DDR3ssa ja DDR4ssa 8n.

DDR5 käyttää oletusarvoisesti 16. pituista burstia

Nyt tajusit vihdoin lisätä "oletusarvoisesti"-sanan joka tekee väitteestäsi toden.

Tosin siinä on myös 32-pitkä moodi.

ja on oletettavaa, että prosessoriarkkitehtuuri / muistiohjaimet suunnitellaan myös sitä tukemaan.

Se 64 tavun välimuistilohko, jota on käytetty jo >10 vuotta, tukee sitä. 32-bittisillä muistikanavilla, joihin DDR5n myötä siirrytään.

Olisi varsin typerää, jos näin ei tehtäisi.

Välimuistin lohkokoko ja musitiohjaimen suunnittelu on toisistaan jossai määrin erillisiä asiota, ja se, kumpi vaikuttaa kumpaan, menee täysin toisinpäin: Muistiohjain suunnitellaan siten, että se palvelee sitä välimuistia mahdollisimman hyvin, kun välimuistin lohkokoko on ensin lyöty lukkoon.

Ja DRAM-muistiohjain suunnitellaan aina nimenomaan jollekin muistityypille että se toimii, ja on aivan itsestäänselvyys, että se optimoidaan toimimaan nopeasti sillä muistyypillä, jota se tukee.

Sen sijaan siinä, kumpi vaikuttaa kumpaan myös välillä välimuistilinjan koko vs muististandardii homma välimuistilinjojen koon kanssa menee käytännössä nykyään siten, että muististandardi (DDR5-DIMMin kanavan leveys) tuunattiin siten että se toimii optimaalisesti 64 tavun välimuistilinjojen kanssa.

Nythän yhtään DDR5-muistillista x86-prosessoria ei ole julkistettu ja kaikki mitä sinä (tai minä) sanot on spekulaatiota.

Erottelen kyllä kommenteissani hyvin selvästi spekulaation ja faktat toisistaan, ja kaikki mitä sanoin tuossa edellisessä viestissäni on faktaa, ei spekulaatiota.

Sinä sen sijaan sekoitat minimiburstin pituuden ja burstin pituuden, ja sinä täällä spekuloit siitä mitä mielestäsi pitää muuttaa tai jopa on pitänyt muttaa, vaikka tosiasia on, että ei ole muutettu.

Väännetään vielä rautalankaa:

Kun dataa haetaan yhdellä 64-bittisellä kanavalla, 64-tavuisen välimuistilinjan siirtämiseen tarvitaan 8 peräkkäistä siirtoa.
Tämän voi tehdä DDR2lla, DDR3lla ja DDR4lla yhdellä 8-mittaisella burstilla.

Kun data on interleavattu kadelle kahdelle 64-bittiselle kanavalle, 64-tavuisen välimuistilinjan siirtämiseen tarvitaan 4 peräkkäistä siirtoa

Tämän voi tehdä DDR2lla yhdellä 4-mittaisella burstilla.

Tämän voisi tehdä DDR3lla ja DDR4lla chop-modessa 4-mittaisella burstilla, mutta (nyt alkaa spekulaatio)
käsittääkseni näin ei yleensä tehdä, vaan DDR3n ja DD4n kanssa tällaisten kahden kanavan välillä interleavausta ei prosessoreilla tehdä, vaan data interleavataan siten, että kokonainen välimuistilinja on aina yhdessä kanavassa ja seuraava seuraavassa, ja tällöin voidaan käyttää optimaalista 8-mittaista burstia.


Kun dataa haetaan yhdellä 32-bittisellä kanavalla, 64-tavuisen välimuistilinjan siirtämiseen tarvitaan 16 siirtoa.

Tämän voi tehdä DDR5lla yhdellä 16-mittaisella burstilla.

Standardeissa DDR5-simmeissä yhden kanavan leveys on kavennettu 32 bittiin, juuri sen takia, että maailma on täynnä prosessoreita joiden välimuistilinja on 64 tavua.

Todennäköisin käytännön toteutustapa lienee on, että koska DDR5 tukee kahta muistikanavaa per DIMM, tehdään siirto (ja bursti) kerrallaan vain yhdellä kanavalla, joka vastaa nykyistä prosessorin välimuistilinjaa. Näin molemmat kanavat voivat hakea yhtäaikaa tietoa toisiaan haittaamatta vaikkapa eri ytimien tarpeisiin, eikä välimuistiarkkitehtuuriin tarvitse tällä tasolla koskea. DDR5 käytännössä tuplaa muistikanavien määrän DDR4:een.

Kyllä, oikeastaan sama mitä kirjoitin yllä.


Kyllä, mutta tuplasyvyisellä burstilla ja kahdella kanavalla saa DDR5-muisti siirrettyä potentiaalisesti yhden muistinhakulantenssin aikana kaksinkertaisen määrän tietoa (DDR5-6400 vs DDR4-3200). Kuten yllä on mainittu, jaetaan DIMM kahtia ja tehdään kaksi hakua yhtäaikaa eri paikkoihin muistia, mikä on yhä kasvavan ydinmäärän kanssa toimiva tapa lisätä suorituskykyä.

Se yksittäinen datamöykky mikä sieltä DDR5-DIMMiltä haetaan on edelleentasan saman kokoinen, 64 tavua.

Siirtyminen DDR5een ei siis yhdessäkään PCssä muuta kerralla siirretyn datan määrää yhtään, kuten ei myöskään vaikuttanut siirtyminen mihinkään muuhunkaan aiempaan muistityyppiin.

Sen siirtämiseen vaan DDR5lla tarvitaan vain puolet sen yhden DIMMin pinneistä, ja sinne saman DIMMiin toiseen kanavaan voi olla samaan aikaan täysin rinnakkainen access menossa.

Aiemmat muistityyppivaihdokset taas vaikutti vain siihen, että se sama datamäärä siirrettiin lyhemmässä ajassa.

En väittänytkään prosessorin prefetchin siitä muistityypistä parantuvan, vaan sanoin nopeamman muistityypin yhdessä paremman prefetchin kanssa lisäävän tehoa. Mitä paremmin prosessori osaa ennakoida tulevat haut ja hakee tiedon valmiiksi, sitä vähemmän suorat muistihaut haittavat liukuhihnan etenemistä.

Liian aggressiivisella välimuisti-prefetcherillä on aina huomattava riski heittää välimuistista mäkeen myös sellaista dataa, jota oikeasti tarvittaisiinkin aiemmin kuin sitä prefechattua dataa.

Prefetch ei ole mikään magic bullet joka vaihtaa kaistaa viiveeseen ilman haittavaikutuksia.
 
Viimeksi muokattu:
Siirretty muualta.

(puhuttiin far cry 5sta)

Se ei selitä miksi Intelin prosessorit skaalautuvat siitä riippumatta niin hyvin säikeiden mukaan, että 5 GHz 9900K on nopeampi kuin 5,1 GHz 9700K, kun samaan aikaan ytimet tai säikeet ei vaikuta käytännössä lainkaan Ryzenin suorituskykyyn

Koska Intelillä suuremman määrän ytimiä mukana tulee aina suurempi L3-kakku, ja tuo tuntuu tykkäävän isosta L3-kakusta samasta syystä miksi se tykkää pienistä muistiviiveistä).

Ryzenillä taas (yhdelle tai parilla säikeelle toimivan) L3-kakun määrä ei riipu ytimien määrästä, se on aina joko 4 (APUt), 8(zen1) tai 16 (zen2) mebitavua.

Tuo tuntuu olevan myös pelejä joissa ero zen1 -> zen2 on aika suuri.
 
Viimeksi muokattu:
Sekoitat bugien korjaamisen (todennäköisesti scheduloinnissa), optimoimiseen.
Tuolla logiikalla puhjenneen autonrenkaan vaihtaminen ehjään olisi optimointia.

Jos vaikka on ajettu radalla sillä autolla ja renkaan puhkeaminen on johtunut ylikuumenemisesta ja vaihdetaan samalla sliksit alle jolloin suorituskyky paranee eli tulee nopeampia kierrosaikoja niin kyllä se on on optimointia.

En missään vaiheessa ole puhunut tuosta Intelin porsastelusta ja se on käsitelty täällä ainakin 10 kertaa jo aiemmin.
En ymmärrä sitä että nykyään ns. koodarit tuntuu kieltävän koko optimoinnin olemassa olon. Esim. toi ryzenin tupla CCX on sellainen että aikanaan kun ohjelmia on koodattu niin ei tuollaisesta ole tarttenu välittää tuon taivaallista, mutta nyt kun tuollainen rakenne on olemassa joka on vähän kuin numa mutta ei kuitenkaan, niin sen huomioiminen voi todellakin vaikuttaa positiivisesti suorituskykyyn.
Tämä ei ole mitään bugin korjaamista koska ei joskus 2015 koodaajilla ole ollu mitään käryä Zen rakenteesta. Eli kyseessä on koodin optimointi ottamaan huomioon tietyn arkkitehtuurin erilaisuuden.
Vaikka ne intelin ja amd prossut ajaa x86_64 koodia niin RAKENTEELTAAN ne on erilaisia.
Vähän kuin menet ruoka kauppaan niin siellä on tietyt jutut tietyssä paikassa, ne on optimoitu sinne tarkoituksella. Ja kun menet toiseen kauppaan niin tietty perusteema toistuu mutta silti ne on erilaisia. Ja kun vaihdat uuteen kauppaan niin joudut opettelemaan sen niksit.

Tapahtuu se huomioiminen sitten itse ohjelmassa taikka sedulerissa niin se on optimointia, ei bugin korjaamista koska mitään bugia ei ole ollut edelleenkään koska ei tuota Zenin rakennetta ole silloin kukaan voinut ennustaa kun koodi on kirjoitettu. Toinen on tää windowsin 64 core raja. Sen huomioon ottaminen ohjelmassa voi parantaa suorituskykyä. Kyllä minusta tuollainen on juurikin optimointia.

Mutta jos sinä et osaa optimoida niin ei kannata olettaa että kukaan muukaan ei osaa.

Ja esimerkkiä optimoinnista voit katsoa vaikka linux kernelin sorsista. Siellä on näitä Inttelin tietoturha aukkoja paikkailtu, laiska koodaaja heittäisi ne paikat päälle ihan vaan kaikille prossuille, mutta siellä on koukkuja joilla tarkitetaan että tartteeko kyseinen prossu sitä paikkaa vaiko ei. On myös bugeja lipsahtanut joukkoon, joku paikka ajettiin myös AMD:n prossuille vaikka se ei sitä tarttenu.
 
Siirretty muualta.

(puhuttiin far cry 5sta)



Koska Intelillä suuremman määrän ytimiä mukana tulee aina suurempi L3-kakku, ja tuo tuntuu tykkäävän isosta L3-kakusta samasta syystä miksi se tykkää pienistä muistiviiveistä).

Ryzenillä taas (yhdelle tai parilla säikeelle toimivan) L3-kakun määrä ei riipu ytimien määrästä, se on aina joko 4 (APUt), 8(zen1) tai 16 (zen2) mebitavua.

Tuo tuntuu olevan myös pelejä joissa ero zen1 -> zen2 on aika suuri.

Oma kokemus noista on keskimäärin semmoinen, että Zen+ -> Zen2 tehoero peleissä n. tasan 15%, kun molempien muistiajoitukset tunattu minimiin tFAW, tRFC jne. kohdilta. Eli käytännössä sen mitä IPC:tä tuli lisää... Eikä juuri sen enempää. Tämä siis 2700X -> 3800X hypyllä ja muistiviritykset maksimoitu b-die:llä. 2700X sai tosin yli 30% suorituskykyparannuksen auto-säätöihin verrattuna tietyissä peleissä, siinä kun 3800X hyötyi vähemmän, varmaan johtuen jo isommasta cachesta. Pullonkaulana zenissä on kuitenkin siis edelleen se muistin käsittely, kun ei näköjään kellotaajudella ole peleissä juuri merkitystä 5GHz 3800X vrt. vakioon, jolloin niillä säikeillä/ytimien lisämäärillä ei juuri saa aikaan parempia max fps numeroita.

Se XCOM: Chimera Squad peli näyttäisi taas että jos nykyistä muistin pullonkaulaa ei olisi, niin taitaisi zen2 skaalata aika pahasti intelistä jo ohi ja Zen+ olisi jo aika tasoissa... Tai sitten tuon voisi myös lukea niin, että jos käyttöjärjestelmää ja pelejä ei optimoitaisi ensisijaisesti Intelin prosessoreille, niin varmaan potentiaalisesti menisi AMD ohi sitten kaikessa.
 
Pullonkaulana zenissä on kuitenkin siis edelleen se muistin käsittely, kun ei näköjään kellotaajudella ole peleissä juuri merkitystä 5GHz 3800X vrt. vakioon, jolloin niillä säikeillä/ytimien lisämäärillä ei juuri saa aikaan parempia max fps numeroita.

IF:n nopeus on se pullonkaula kun Zen 2 mennään tuonne 4,5GHz. Sen jälkeen ei enää tule vauhtia lisää peleissä. Todennäköisesti monet muut ohjelmat kyllä hyötyy tuon jälkeenkin kelloista. Huhuja on että huhutut refreshit menisi 2000 asti IF:ssä, jolloin voisi mahdollisesti peleissä hiukan tulla parannusta mutta tiedä sitten minkä verran toi vaikuttaa. Jos Zen 2 nyt on sellainen 1800 minkä varmaan menee about kaikki ja jos refresheissä se on vastaavasti toi 2000 niin onhan siinä 11% parannus.

Tai sitten tuon voisi myös lukea niin, että jos käyttöjärjestelmää ja pelejä ei optimoitaisi ensisijaisesti Intelin prosessoreille, niin varmaan potentiaalisesti menisi AMD ohi sitten kaikessa.

Hys hys! Kohta forumin asiantuntia koodarit kimpoaa paikalle ripittämään mitenkä mitään koko optimointi sanaa ei tunneta koodauksessa. Kaikki on vain bugi korjauksia. Ja optimointi millekkään on täysin turhaa kun kääntäjät on ihan jumalaisia eikä niiden tekemää työtä saa missään nimessä kenenkään kyseenalaistaa.
 
Oma kokemus noista on keskimäärin semmoinen, että Zen+ -> Zen2 tehoero peleissä n. tasan 15%, kun molempien muistiajoitukset tunattu minimiin tFAW, tRFC jne. kohdilta. Eli käytännössä sen mitä IPC:tä tuli lisää... Eikä juuri sen enempää.

Ei ole mitään "tasan 15%"ia jota IPCtä tuli lisää zen+->zen2. Se, paljonko IPCtä tuli lisää riippuu täysin tilanteesta, että millaista koodia sillä ajetaan, ja (huomattava) osa siitä parannuksesta tuli nimenomaan johtuen suuremmasta L3-välimuistista.

Yleisesti puhutaan 15%sta koska se oli se keskimääräinen parannus niillä benchmarkeilla mitä arvosteluissa yleensä käytettiin.
 
Jos ZEN3:ssa toteutuu 2000 flck vai mikä se ram jakaja olikaan noissa niin eikös se tule tuon IPC kehityksen päälle vai onko ne linkitetty jo kun suorituskykyä testataan?
 
Hys hys! Kohta forumin asiantuntia koodarit kimpoaa paikalle ripittämään mitenkä mitään koko optimointi sanaa ei tunneta koodauksessa. Kaikki on vain bugi korjauksia. Ja optimointi millekkään on täysin turhaa kun kääntäjät on ihan jumalaisia eikä niiden tekemää työtä saa missään nimessä kenenkään kyseenalaistaa.

Hienoa olkiukkoilua ja itseä enemmän asioista perillä olevien dissausta, kun itse on aivan pihalla siitä, mitä koodin optimointi käytännössä on; Täydellinen ymmärryksen puute siitä, mitä eroa on korkean ja matalan tason optimoinneilla.


Olen viimeiset n. 14 vuotta (viimeistä kuukautta lukuunottamtta) tehnyt töikseni pääasiassa koodin optimointeihin liittyviä juttuja:

1) Kirjoitellut kääntäjän matalan tason optimoijaa tekemään uusia matalan tason optimointeja tai tekemään olemassaolevia optimointeja entistä paremmin
2) Välillä optimoinut itse kääntäjän ajoaikaa kun se on ajautunut liian hitaasti
3) Suunnitellut tietylle koodille customoituja prosessoreita
4) Optoimoinut näitä koodeja jotta se toimisi sillä prosessorilla paremmin.

Näistä siis ainoastaan kääntäjä on pyörinyt x86-arkkitehtuurilla, mutta kaikki optimoinnit mitä sen kääntäjän ajoajan pienentämiseksi olen tehnyt on ollut korkean tason optimointeja, jotka hyödyttävät aivan samalla tavalla sekä intelin että AMDn prosessoreita.

Ne on ollut sellaisia asioita että
* Poistettu kutsuja joihinkin aivan älyttömän hitaisiin rajapintoihin ja korvattu ne järkevillä
* Ei esim. kutsuta monimutkaisen tietorakenteen size()-funktiota loopin ehdontarkastuksessa
* Valitaan tietorakenteet siten että niistä voidaan asiat hakea O(log (N)) -nopeudella O(N)-nopeuden sijaan.
* Lisätään "softavälimuisteja" joihon tallennetaan jonkun raskaan rutiinin laskemia tuloksia sen sijaan että ne laskettaisiin aina uudestaan
* Yhdistellään struktin eri kenttiä (alunperin monta kapeaa kentään) jotta saadaan strukti viemään vähemmän tilaa
* Tehdään kriittisistä usein kutsutuista pienistä funktioista inline-funktiota/varmistetaan, että kääntäjä osaa inlinetä ne


Kääntäjän loppupäässä on perinteisesti kolme koodin nopeuteen oleellisti vaikuttavaa osaa, tosin näistä erityisesti viimeisen osusu on nykyprosessoreilla paljon pienempi kuin aiemmin.

Ja vaikka koodattaisiin käsin assemblyä, näiden tekemät valinnat pitäisi silti tehdä itse, samat vaiheet tulisi esille.

Ja oikeastaan näistä ykköskohtaa voi koodari tehdä C/C++aakin koodatessa osittain manuaalisesti (mutta tällöin ei enä kirjotia puhdasta C/C++aa vaan kirjoittaa alustariippuvaista koodia), mikäli käyttää jotain intrinsiccejä (jotta voi pakottaa että jotain lasketaan SIMD-käskykannoilla, eikä olla kääntäjän armon varassaa, että sattuukö kääntäjä onnistumaan vektoroimaan koodin)


1) käskynvalinta: Millä käskyillä joku koodi suoritetaan.

Käytännössä nykyaikana x86lla tämän osalta oleellinen kysymys on esim. , että suoritetaanko liukulukulasku SSE:llä vai AVX:llä.

(tosin, se AVX pitää siis ensin sallia kääntäjän asetuksista että sitä saadaan käyttää, -mAVX esim.)

Toinen, ja erityisesti näiden fanipoikien intel vs amd-sotien kannalta merkittävä esimerkkivalinta on, että käytetäänkö esim. AVX2n gather-käskyä vaikka sitä ei täysin optimaalisesti pystyttäisi hyödyntämään; Zenissä gather on hyvin hidas, haswellissa se on hidas, ja skylakessa se on nopea.

Se, että gatheria käytetään tyypillisesti hidastaa koodia zenillä, voi joko nopeuttaa tai hidastaa haswellilla riippuen tilanteesta, ja nopeuttaa skylakella. Se, että tätä käytetään aina kun se on saatavilla ei ole mitään keinotekoista Intelin suosimista vaan se on järkevää optimointia joka kuitenkin sattuu zenillä koska zenin gather-implementatio sukkaa.

AMD-fanipojat toki heti syyttää että "tehtiin pahoja intel-spesifisiä optimointeja", jos gatheria käytetään, mutta ei. Tehtiin optimointeja sen mukaan mitä voidaan olettaa että mikä on järkevällä prosessorilla nopeaa. Se, että AMDllä joidenkin käskyjen suorituskyky sukkaa ei ole Intelin eikä koodarin vika, se on vain AMDn vika. Ja usein niillä softankehittäjillä on itsellään se Skylake jolla se koodi nopeutuu, ja koodarit testaavat koodin nopeutta pääasiassa nimenomaan omalla työkoneellaan.

Ja se, että ruvetaan lisäämään omaa koodipolkua ihan vaan gatherin disabloimiseksi niillä (harvoilla) prosessoreilla, jotka muuten tukevat AVX2sta mutta joiden gather on surkean hidas, olisi vaan selvä lisävaiva koodarille, erityisesti jos sitä ei voi edes omalla työkoneella testata. Ja sen koodinpolun tekeminen menee helposti pieleen siten, että siihen ohjataan vääriä tulevia prosessoreita, kun zen1n aikana ei voitu tietää, tuleeko zen2n ja zen3n gather olemaan nopea vai hidas, kielletäänkö gatherin käyttö vaan kaikilta AMDN prossuilta vai tasin siltä nykyiseltä yhdeltä prossumallilta jossa sen tiedetään olevan hidas, vai jotain siltä väliltä? family-id:n perusteella?

Ja vielä tuosta SSE vs AVX: Zen1llä kysymys, että käytetäänkö AVX/AVX2sta ollenkaan, kun se ei sillä käytännössä anna lisää nopeutta SSE4een nähden, ja AMDn oma optimointiopaskin taisi suositella, ettei sitä kannata käyttää. Sitten zen2lla AVX(2) (gatheria lukuunottamatta) olikin nopea => jos softat oli optimoitu useammalle koodipolulle siten että tarkastettiin, että onko prossuna zen (AMD family 17h), ja tällöin optimoitu zen1/-optimointiopasta käyttäen jättäen AVX(2) käyttämättä , ne toimi zen2lla (edelleen family 17h) turhaan hitaasti kun AVX(2) jätettiin käyttämättä.

Eli AMD ihan omalla zen1-optimointioppaallaan jonkin verran kusi zen2n muroihin.

2) Rekisteriallokaattori
MIhin paikalliset muuttujat laskennassa tilapäisesti käytettävät tilapäisarvot tallennetaan. Tämä vaikuttaa siihen, paljonko koodiin tulee (L1D:hen osuvia) muistiaccesseja, mutta tämä myös rajoittaa viimeistä vaihetta:

3) Käskyskeduleri. Mihin järjestykseen kääntäjä käskyt asettelee.

Nyky-CPUt ovat spekulatiivisesti suorittavia ja käskyjä uudelleenjärjestäviä, eli käskynhaku haarautumisenennustuksen osuessa hyvin monta kertaa putkeen, voi mennä jopa ~100 käskyn verran suoritusta edellä ladaten sieltä käskyjä ihan omia aikojaan, ja suoritus voi sitten sitten poimia suoritukseen mitä tahansa käskyjä joiden tarvitsemat arvot ovat valmiit.

Joten käskyskedulerin laadulla ei nykyaikaisella high-end-CPUlla ole paljoa merkitystä nopeuteen, ja käskyskedulerin kannattaa toimia käytännössä aika lailla täysin samalla tavalla sekä Intelin että AMDn prossuille koodia optimoidessa. Toki ne yrittävät mallintaa niitä prosessorin resursseja myös OoOE-prossuilla mutta tämän merkitys suorituskykyyn on käytännössä olematon

Kännyköissä sen sijaan little-ytiminä (ja halvoissa kännyköissä ainoina ytiminä) A53- tai A55-ytimiä jotka ovat edelleen in-order-prossuja, ja kymmenisen vuotta sitten Intel teki ekan sukupolven Atomin, joka oli in-order. (nyky-atomit sen sijaan ovat jo monta vuotta out-of-order). Näillä käskyskedulerin laadulla on paljon väliä, ja myös optimoimisella oikealle kohteelleon paljon enemmän väliä. Kuitenkin perussäännöt kuten "siirrä pitkän latenssin käskyt kuten lataukset mahdollisimman aikaiseksi ja yritä laittaa tällaisen käskyn ja sen tulosta käytävän käskyn väliin jotain muuta" pätee yhtä lailla A53lla, A55lla, Bonnellilla kuin perus-pentiumillakin, eniten vaihtelee se, paljonko siihen väliin tarvitaan niitä muita, riippumattomia käskyjä.
 
Viimeksi muokattu:
IF:n nopeus on se pullonkaula kun Zen 2 mennään tuonne 4,5GHz. Sen jälkeen ei enää tule vauhtia lisää peleissä. Todennäköisesti monet muut ohjelmat kyllä hyötyy tuon jälkeenkin kelloista. Huhuja on että huhutut refreshit menisi 2000 asti IF:ssä, jolloin voisi mahdollisesti peleissä hiukan tulla parannusta mutta tiedä sitten minkä verran toi vaikuttaa. Jos Zen 2 nyt on sellainen 1800 minkä varmaan menee about kaikki ja jos refresheissä se on vastaavasti toi 2000 niin onhan siinä 11% parannus.

Joo toki IF on osa sitä ongelmaa, varmasti moni muuttuja vaikuttaa siihen muistin latenssiin ja en siksi laittaisi sitä yksinään IF:n kellotaajuuden syyksi. Johan Zen+:lla suurin pullonkaula "saatiin kiinni" jo 3400+ muistinopeuksilla, koska siitä ylöspäin muistin kellotaajuuden nosto toi lähinnä yksittäisiä prosentteja, eli lähinnä siitä kun saadaan muistin kokonaislatenssia alas prossun ja muistin kellotaajuuden nostolla.

Käsittääkseni 5GHz virityksessä se IF on tällöin pullonkaula niin kuin sanoit, mutta vaikka väylä saataisiin 2000 asti (kun oma prossu menee vähän päälle 1900), niin ei sillä varmaan montaa prossun MHziä etua taas saada, että pullonkaula on jossain muualla (kuten latenssissa).

Hys hys! Kohta forumin asiantuntia koodarit kimpoaa paikalle ripittämään mitenkä mitään koko optimointi sanaa ei tunneta koodauksessa. Kaikki on vain bugi korjauksia. Ja optimointi millekkään on täysin turhaa kun kääntäjät on ihan jumalaisia eikä niiden tekemää työtä saa missään nimessä kenenkään kyseenalaistaa.

Heh no siis lähinnä ajoin tuota mielikuvaa siitä, että jos jokin pelimoottori koodataan tiettyjä speksejä käyttäen, niin veikkaan että aika pitkälti mennään silti sen perus x86 Intelin arkkitehtuurilla, vähän kuin peleissä nvidia hyötyy joko suorasti tai epäsuorasti siitä, että sillä on niin iso markkinaosuus näytönohjaimista.

Kaikki koodarit kuitenkin rakentaa pelimoottorin niin hyvin kuin itse osaavat, sitten kun oma kokoonpano hyötyy tietyistä tweakeista niin hyvin todennäköisesti siellä on ollut aina sitä intelin rautaa alla. Tuo XCOM tulos siis lähinnä näyttäisi myös mihin Zen2 yksinään jo kykenee jos tuo muistilatenssin pullonkaula pystytään kiertämään pelimoottorin kikoilla.

EDIT: Hyvä esimerkki siitä missä jopa 2007 vuoden intelin läppäriprossu on nopeampi kuin Zen; OpenRA. Ihan vaan siitä syystä että sen kehittäjillä on todnäk. 100% intel rautaa alla.
 
Viimeksi muokattu:
EDIT: Hyvä esimerkki siitä missä jopa 2007 vuoden intelin läppäriprossu on nopeampi kuin Zen; OpenRA. Ihan vaan siitä syystä että sen kehittäjillä on todnäk. 100% intel rautaa alla.
No tuo on kyllä väärä päätelmä. OpenRA on C# koodia ja sitten tekee mutkien kautta DirectX-kutsuja. Ei sitä ole mitenkään optimoito mitään prossua kohtaan. Tekijöillä on ihan riittävästi hommia saada se olemaan riittävän bugiton. Joku valmiiksi jakelussa oleva versio voi olla käännetty Inteliä suosivilla optioilla, mutta en sitä sanoisi Inteliä suosivaksi koodaukseksi.

Onko muuten tuota OpenRA:Ta käytetty jossain Intel vs AMD -vertailuissa? Voisin sen itse kääntää ja verrata testin tuloksia omalla käännöksellä saatuihin.
 
No tuo on kyllä väärä päätelmä. OpenRA on C# koodia ja sitten tekee mutkien kautta DirectX-kutsuja. Ei sitä ole mitenkään optimoito mitään prossua kohtaan. Tekijöillä on ihan riittävästi hommia saada se olemaan riittävän bugiton. Joku valmiiksi jakelussa oleva versio voi olla käännetty Inteliä suosivilla optioilla, mutta en sitä sanoisi Inteliä suosivaksi koodaukseksi.

Onko muuten tuota OpenRA:Ta käytetty jossain Intel vs AMD -vertailuissa? Voisin sen itse kääntää ja verrata testin tuloksia omalla käännöksellä saatuihin.

No siis, ei minun pointtina ollutkaan "syyttää" että sitä olisi tahalteen optimoitu paremmaksi jollain koneella. Kuten mainitsitkin että siinä on ihan riittävästi hommia tehdä siitä bugiton. Päätelmäni oli lähinnä se, että kun kehittäjillä on tiettyä rautaa alla niin koodaus tehään todennäköisesti niiden ehdoilla, olkoon se tarkoituksellista tai ei. Vähän kuin John Carmack ihmetteli miten Quake aikanaan pyöri Pentium 4:llä paremmin vaikk Athlon 64 taisi läpsytellä sitä suoritinta. Ei edes itse doom moottorin luoja osannut sanoa syytä tähän (paitsi että ehkä itse koodasi sitä intel kokoonpanoollaan?). :)

Mutta siis ei kyse ole välttämättä jostain kääntäjän vivuista, vaan ihan ohjelmakoodista miten se on rakennettu. Siinä vaiheessa kun läppärillä mikä ei jaksa pyörittää spekseiltään kunnolla edes Windows kymppiä mutta suoriutuu paremmalla ruudunpäivityksellä OpenRA:sta kertoo lähinnä että lopulta pelin sujuvaan pyörimiseen on hidastavana tekijänä yleensä se ihminen. En ole nyt Zen2:lla peliä taas kokeillut mutta noin. 10min jälkeen peli alkoi 2700X kokoonpanolla yleensä tahmaamaan niin pahasti 7 AI vastustajalla, ettei siitä pelaamisesta tule mitään. Edes tuo vanha intel läppärini ei jäätynyt siinä noin pahasti.
 
Tässä optimointijupakassa on hyvä muistaa, että intelille optimointi on paljon suoraviivaisempaa. Pitää vaan valita algoritmit joissa käytettävä data mahtuu pyörimään kakuissa sekä että ne säikeistyvät nätisti n. kahdeksaan säikeeseen asti ja juuri mitään muuta ei tarvitse tehdä. Zenin kanssa homma toimii ihan samalla tavalla yhden säikeen softissa (ja uudella windowsin versiolla aina 6-8 säikeeseen asti riippuen prosessorimallista) melko samalla tavalla. Tästä kun mennään ohi niin sit pitää alkaa miettimään kaikkea sellaista mitä millään intel alustalla ei ole tarvinnut pitkään aikaan tehdä. Kuten vaikka eri säiekimppujen jakoa eri ydinryppäille ja kannattaako kuinka moneen säikeeseen erilaisia tehtäviä edes jakaa jos parametrien välittäminen tietyn pykälän jälkeen hidastuu merkittävästi.

Zenille optimoiminen tuo ihan aidosti lisää työtaakkaa kehitystiimille verrattuna intelin prossuille optimoimiseen. Lisäksi ~kaikki intelin alustalle tehdyt optimoinnit nopeuttaa suoritusta myös Zen alustalla. Markkinaosuudet huomioonottaen on ihan odotettavaa että noihin spesifeihin zen optimointeihin ei ihan kauheasti hukata aikaa jossain tietokonepeleissä. Luultavasti tuleville konsoleille optimoiduissa engineissä, kuten unreal5, näitä asioita on mietitty vähän pidemmälle.
 
siis optimoinneista puhuttaessahan AMD on nimenomaan mennyt kovasti siihen suuntaan että Intel kääntäjät tuottaa AMD:n raudalle parhaiten toimivaa konekoodia, toista se oli Bulldozer aikaan josta amd todennäköisesti oppi jotain.
 
Eurooppalaisessa liikkeessä, 40€ hinta eroa 3800XT > 3900XT kuulostaa aika pieneltä erolta?

3900XT is tagged at 499€, the 3800XT at 459€, and the 3600XT at 319€, incl of VAT.
 
Eurooppalaisessa liikkeessä, 40€ hinta eroa 3800XT > 3900XT kuulostaa aika pieneltä erolta?

3900XT is tagged at 499€, the 3800XT at 459€, and the 3600XT at 319€, incl of VAT.
Saman kaupan hinnasto nykymalleille (kiitos @KognaK ), lisäsin sulkuihin Suomi-hinnat. Ehkä kannattaa ihmetellä tarkemmin kun alkaa tulemaan enemmän hintalistauksia.
3900X 515e (478€)
3800X 430e (363€)
3700X 370e (323€)
3600X 270e (215€)
3600 220e (183€)
 
Siirretty muualta...

Juu ja paljon isompi osa pelaa vielä 1366 x 768 kuin esim 4K.lla

... Läppäreillä, joissa on joku integroitu näyttis.

Niissäkään ei yleensä prossu ei tule pullonkaulaksi, vaan näyttis.

Enkä edes yleistänyt.
Viivattu kohta viittaa minun käyttööni eikä yleistämiseen.
"en ala "raiskaamaan" Rtx2080Ti suorituskykyä Ryzen prossulla"

Se merkityksellinen suorituskyky ei raiskaannu yhtään mihinkään siitä. Lähinnä kärsii idioottien ja prinsessojen "mulla on isompi kuin sulla"-numerot jos käyttää sellaisia asetuksia joissa se koko tehonäyttis on ihan turha.

Jos pelaa jollain fullHD-resolla tai matalammalla, sen RTX 2080ti:n ostaminen on ollut todella typeärä rahanhaaskausta.

Järkisyy ostaa "ylitehokas" prosessori on se, että sillä pyörii myös neljän vuoden päästä tulevat pelit, ettei niin nopeasti tarvi konetta päivittää uudempaan.

Ei se, että saadaan ziljoona FPSää nykypeleissä.

Se nykypelien FPS vaan usein korreloi sen kanssa, miten ne neljän vuoden päästäkin tulevat pelit tulevat pyörimään, joteen tasan tämän takia niiden nykypeline ziljoona-fps-lukemia kannattaa jonkin verran tuijottaa.

Mutta, kun uudet pelit tulevat hyödyntämään paremmin
1) Useaa säiettä
2) SIMD-käskykantoja

niin se korrelaatio nykypelien FPSien ja tulevaisuuden pelien pyörivyyden välillä ei ole täysin suora, vaan käytännössä kannattaa tulevaisuuten varautuessa hiukan suosia prosessoreita joissa 1) tehokas SIMD-implementaatio (pudottaa pois zen1n) 2) enemmän ytimiä ja hyvä energiatehokkuus(mahdollistaa korkeat kellot vaikka monta ydintä työllistettynä)

Mutta moni kyllä yleistää ettei ole merkitystä tai eroja tms. kun kyse on Intelin paremmasta peli suorituskyvystä,joissakin tapauksissa on joissakin ei.

Kun sanon että Ryzen on parempi ja järkevämpi hankinta lähes kaikkeen muuhun pelien ulkopuolella niin tähän ei kukaan tule nokkaansa koputteleen.
Eli onko Ryzen omistajat niitä jotka häiriintyy ja alkaa puolustelemaan sekä vähättelemään kun mainitaan "Intelin parempi pelisuorituskyky" ?

Esim warhammerin +20fps erolla ei merkitystä?

Sillä, pyöriikö RTS-peli 82 vai 111 fps ei todellakaan ole yhtään merkitystä, kun kyseessä ei ole huonon enginen omaava FPS-peli jossa ylisuuret FPSt auttaa tähtäämistä.

Sillä, pyöriikö neljän vuoden päästä tuleva RTS 50 vai 65 FPS sitten onkin jo väliä.

jos kyse olisi näytönohjaimista niin sillä olisi jo valtava merkity.

Jos kyse olisi näytönohjaimista, se voisi vaikuttaa siihen, voiko käyttää suurempaa resoluutiota joka voisi mahdollistaa esim. sen, että ruudulle mahtuu enemmän tavaraa.
Ja ainakin mahdollistaisi sen, että kun (hyötykäyttösyistä) on hankkinut sen 4k-ruudun, tarviiko esim. kärsiä skaalausefekteistä.
 
Viimeksi muokattu:
Taitaa Jim olla niin rikas mies että voi elellä herroiksi jo lopun elämäänsä.. jos malttaa pysyä erossa puolijohteista.
 
Tai jos karsii asetuksis niin päästään yhtälailla niihin Fps lukemiin mihin HighEnd ohjaimet pääsee Max asetuksilla ja jälleen on hyötyä siitä nopeammasta prossusta.
jos pelaa 60Hz näytöllä niin prossulla ei paljoa merkitystä.
Joo ja kun vielä laskee resoluution 320p tienoille, niin varmasti saa sen prossun pullonkaulaksi ja täten voi perustella sen intelin ostamista, ja laittaa rahaa siitä näytönohjaimesta siihen prosessoriin. Ja voi myös perusteella itselleen sen nopeimman peliprosessorin ostamista, maksoi mitä maksoi. Ja nyt kun huomaa että peli pyöri sielä päälle 200 fps, voi laittaa rahaa siihen miljoonan herzin näyttöön.

Tuloksena peli pyörii takuu varmasti sujuvasti, mutta kuva on karmean näköinen. Tätähän sinä yrität sanoa, että älä välitä kuvan laadusta, kunhan saa 144 hz näytön mahdollisuudet hyödynnettyä.

Asiaa voi ajatella myös niin että kun ottaa kerralla nopeamman näytönohjaimen, niin voi säästää prosessorissa ja pystyy pelaamaan niin että kuva varmasti on upean näköinen.

Aika moni on sitä mieltä että ottaa mielummin sen hyvän näköisen kuvan 60 hz, kuin 144 hz kuva näyttää kamalalta.
 
Siirretty muualta...



... Läppäreillä, joissa on joku integroitu näyttis.

Niissäkään ei yleensä prossu ei tule pullonkaulaksi, vaan näyttis.



Se merkityksellinen suorituskyky ei raiskaannu yhtään mihinkään siitä. Lähinnä kärsii idioottien ja prinsessojen "mulla on isompi kuin sulla"-numerot jos käyttää sellaisia asetuksia joissa se koko tehonäyttis on ihan turha.

Jos pelaa jollain fullHD-resolla tai matalammalla, sen RTX 2080ti:n ostaminen on ollut todella typeärä rahanhaaskausta.

Järkisyy ostaa "ylitehokas" prosessori on se, että sillä pyörii myös neljän vuoden päästä tulevat pelit, ettei niin nopeasti tarvi konetta päivittää uudempaan.

Ei se, että saadaan ziljoona FPSää nykypeleissä.

Se nykypelien FPS vaan usein korreloi sen kanssa, miten ne neljän vuoden päästäkin tulevat pelit tulevat pyörimään, joteen tasan tämän takia niiden nykypeline ziljoona-fps-lukemia kannattaa jonkin verran tuijottaa.

Mutta, kun uudet pelit tulevat hyödyntämään paremmin
1) Useaa säiettä
2) SIMD-käskykantoja

niin se korrelaatio nykypelien FPSien ja tulevaisuuden pelien pyörivyyden välillä ei ole täysin suora, vaan käytännössä kannattaa tulevaisuuten varautuessa hiukan suosia prosessoreita joissa 1) tehokas SIMD-implementaatio (pudottaa pois zen1n) 2) enemmän ytimiä ja hyvä energiatehokkuus(mahdollistaa korkeat kellot vaikka monta ydintä työllistettynä)



Sillä, pyöriikö RTS-peli 82 vai 111 fps ei todellakaan ole yhtään merkitystä, kun kyseessä ei ole huonon enginen omaava FPS-peli jossa ylisuuret FPSt auttaa tähtäämistä.

Sillä, pyöriikö neljän vuoden päästä tuleva RTS 50 vai 65 FPS sitten onkin jo väliä.



Jos kyse olisi näytönohjaimista, se voisi vaikuttaa siihen, voiko käyttää suurempaa resoluutiota joka voisi mahdollistaa esim. sen, että ruudulle mahtuu enemmän tavaraa.
Ja ainakin mahdollistaisi sen, että kun (hyötykäyttösyistä) on hankkinut sen 4k-ruudun, tarviiko esim. kärsiä skaalausefekteistä.
Kannattaa oikeasti kokeilla korkeilla virkistystaajuuksilla pelaamista, ero pelin sulavuudessa ja pelattavuudessa esim. 60 Hz vs 165 Hz on huomattava. Tuon eron huomaa jopa niinkin yksinkertaisessa pelissä kuin Miinaharava. Itsellä oli aikaisemmin 60 Hz näyttö ja Miinaharavan expert-vaikeustasolla nopeusennätys 96 sekuntia, jota en saanut yli vuoteen rikki. Kuukausi takaperin ostin 165 Hz näytön ja sen jälkeen olen tuon ajan alittanut toistakymmentä kertaa ja nopein aika on nyt 87 sekuntia. Näkee yksinkertaisesti paljon paremmin missä kursori menee, eikä tule ohiklikkauksia niin paljon nopeasti pelatessa.

Käytännössä kaikki pelit, joista on saanut 100 fps+ puristettua irti tuntuvat paljon paremmalta pelata, kuin aikaisemmalla 60 Hz näytöllä, esim. autopeleissä mutkaan tullessa auto liikkuu paljon pienemmän matkan per frame, jolloin jarruttamisen ja kääntymisen ajoittaminen on helpompaa ja mutkista pääsee puhtaammin läpi. RTS peleissä mikrottaminen on helpompaa, kun kursori ei hypi useita senttejä ruudulla per frame hiirtä nopeasti liikuttaessa, eli on paljon helpompi saada kursori nopeasti oikeaan paikkaan ilman korjausliikkeitä. FPS pelejä en ole juuri viime aikoina pelannut, muuta kuin puzzle peli Talos Principlen, joka jaksaa pyöriä tuon 165 fps aika kevyelläkin raudalla ja kyllähän se tuntuu ihan erilaiselta pelata kuin 60 fps.
 
Joo ja kun vielä laskee resoluution 320p tienoille, niin varmasti saa sen prossun pullonkaulaksi ja täten voi perustella sen intelin ostamista, ja laittaa rahaa siitä näytönohjaimesta siihen prosessoriin. Ja voi myös perusteella itselleen sen nopeimman peliprosessorin ostamista, maksoi mitä maksoi. Ja nyt kun huomaa että peli pyöri sielä päälle 200 fps, voi laittaa rahaa siihen miljoonan herzin näyttöön.

Tuloksena peli pyörii takuu varmasti sujuvasti, mutta kuva on karmean näköinen. Tätähän sinä yrität sanoa, että älä välitä kuvan laadusta, kunhan saa 144 hz näytön mahdollisuudet hyödynnettyä.

Asiaa voi ajatella myös niin että kun ottaa kerralla nopeamman näytönohjaimen, niin voi säästää prosessorissa ja pystyy pelaamaan niin että kuva varmasti on upean näköinen.

Aika moni on sitä mieltä että ottaa mielummin sen hyvän näköisen kuvan 60 hz, kuin 144 hz kuva näyttää kamalalta.
Tämä on kyllä niin pelikohtainen juttu etten lähtisi noinkaan yleistämään. Jo sillä on paljon merkitystä että onko kyseessä SP vai MP, unranked vai ranked.

Oma preferenssi tässä kuitenkin on 9/10 tapauksesta: korkea fps, mutta huonommat grafiikat. Ihan jo siitä syystä että arvostan sulavuutta paljon enemmän kuin grafiikoiden laatua, koska koen sen tekevän omasta pelikokemuksestani miellyttävämmän.
 
Tämä on kyllä niin pelikohtainen juttu etten lähtisi noinkaan yleistämään. Jo sillä on paljon merkitystä että onko kyseessä SP vai MP, unranked vai ranked.

Oma preferenssi tässä kuitenkin on 9/10 tapauksesta: korkea fps, mutta huonommat grafiikat. Ihan jo siitä syystä että arvostan sulavuutta paljon enemmän kuin grafiikoiden laatua, koska koen sen tekevän omasta pelikokemuksestani miellyttävämmän.
Nämä on niitä pelikohtaisia asioita tosiaan, ja tietenkin käyttäjäkohtaisia.
Itseä ei esimerkiksi harmita tippaakaan että läpikotaisin modattu Skyrim SE pyörii ulkomaailmassa jonkun 35-45 FPS ja vaatii verrattain usein quicksaveja koska jokin hajoaa ja FPS tippuu alle kymmeneen mutta korjaantuu aina lataamalla. Miksi se ei haittaa? Koska se on niin jumalattoman kaunista katseltavaa. Toki sitten taas jossain MP-pelissä tilanne olisi ihan toinen.
 
Tää ei ole 100% ketjun otsikon mukaista, mutta tuossa kun on tuosta uusimmasta Intelin sukupolven prossuissa ja noista TDP PL1/PL2 arvoista ja lukittujen prossujen "ylikelloituksista" ja miten nuo eri uusimman sukupolven Z emot kohtelee prossuja eri vakioarvoilla, niin huvikseni kokeilin mitä Intel XTU sanoo lukitusta Ivy Brindge prossusta. Se näyttää kaksi samanlaista varmaan noita PL1/PL2 arvoja vastaavaa lukemaa, ja niitä voi säädellä ja noi säädöt näyttävät jäävän jonnekin vaikka ohjelman sulkeekin. Eli kaikinpuolin vaikuttaa että kone ottaa ne vastaan.

Kysymys kuuluukin, että vaikuttaako noi suorituskykyyn, siis lukituilla ei-nykyisen sukupolven prossuilla? Mä siis tiedän mitä noiden arvojen muutos tekee ja ei tee, mutta kysymys presiis tuo vasemmalla oleva virke.

Mun prossulla "ei", mutta se voi hyvin olla vain seurausta siitä että turbo kertoimet ovat vain pykälän verran yli nimellisnopeuden niin noi TDP rajat eivät koskaan tule vastaan(joo en viitsi kokeilla sammuttaa tuuletinta tms.).
 

AMD kaapannut 50% kaikkein tuottoisimmista high-end CPU toimituksista desktop tietokone markkinasegmentissä globaalisti.

Aika kova. Ja refreshit + Zen3 varmasti lisää AMD:n etumatkaa. Tuo Intelin 10xxx-julkaisu oli kyllä näin jälkikäteen mietittynä aikamoinen pannukakku. Nuo nokitti pelitehoiltaan AMD:n Ryzenit, mutta hinta/tehosuhteessa Intelin olisi pitänyt pystyä parempaan.
 
Viimeksi muokattu:
Tuossa puhutaan etailereista, eli nettikaupoista diy markkinoilla lähinnä.

Kokonaisuutena siis vielä paljon tekemistä, että pääsee intelin ohi, saati että saa kiinni.
 
Aika kova. Ja refreshit + Zen3 varmasti lisää AMD:n etumatkaa. Tuo Intelin 10xxx-julkaisu oli kyllä näin jälkikäteen mietittynä aikamoinen pannukakku. Nuo nokitti pelitehoiltaan AMD:n Ryzenit, mutta hinta/tehosuhteessa Intelin olisi pitänyt pystyä parempaan.

Pannukakut muuten maistuu hyvältä.

Tässä on kyllä hieno malliesimerkki fanipojan kaksoisstandardeista.

AMDn n. 2% lisää (pelkkiä) maksimikelloja tuovat "refreshit" on hyvä ja "AMDn etumatkaa" lisäävä juttu, mutta intelin mallista riippuen 6-11% lisää kelloja, sekä joko 20% lisää ytimiä ja 20% lisää L3-välimuistia, tai sitten SMTn tuova linjasto on "pannukakku" :facepalm:

Ja jos ei tarkastella niitä huippumalleja vaan niitä malleja joita normaalit ihmiset ostaa, niin:

esim. n. 250e hintaluokassa 3600X oli ennen todella kova, nyt 270 eurolla Inteliltä saa 10600KF:n jossa pelitehoa löytyy selvästi enemmän kuin 3600XTstä ja monen säikeen suorituskykykin (joka 9600KF:llä oli selvästi jäljessä) on melko samaa luokkaa, kiitos SMTn lisäämisen ja n. 11% peruskellolisän vrt 9600KF. 3600XT ei 2.3% maksimikellotaajuusparannuksellaan muuta tätä käytännössä yhtään mihinkään.


Jos yhtään omaa järkeä ja kykyä katsoa asioita objektiviisesti eikä vain omien fanipoikalasien läpi, niin pitäisi kyllä tajuta, että tuon tilaston tarkasteleman ajan jälkeen nimenomaan intelin kilpailutilanne on parantunut selvästi Comet Laken työpäytämallien myötä, eikä AMDn 2% lisää maksimikelloa tuovat refreshit muuta tätä merkittävästi.

Kaveri tilasi juuri uuden pelikoneen, ja kyselin minultakin neuvoja. Aluksi muutama viikko sitten suosittelin pääasiallisesti 3600X:ää, mutta myös muutamaa muuta mallia (molemmilta valmistajilta), mutta kun huhut 3600XT:stä alkoi kiihtyä ja puhui selvästi suuremmista kellotaajuusparannuksista, ehdotin, että viivyttää koneen hankintaa hiukan ja odottaa 3600XTn julkaisua, että se voi olla aika kova hänelle. Mutta kun paljastuikin, että se oli vain 100 MHz parannus, totesin että sitä ei kannata odottaa. Kaveri laittoi sitten 10600KF:n tilaukseen heti 3600XTn julkaisun jälkeen.
 
Viimeksi muokattu:
Onhan se Intel edelleen paras valinta puhtaasti pelikoneeseen niin kuin on ollut jo vuosia. Varsinkin nyt kun melkein samalla rahalla saa saman määrän ytimiä ja säikeitä.

Saa nähdä pieneneekö latenssit Zen3 kanssa tarpeeksi että AMD pääsee rinnalle...
 
Intelin päätös lisäillä HT oli oikein hyvä parannus jos vertaa esim siihen mikäli 9600K kelloja oltaisiin HT sijaan nostettu se +100mhz.

Näillä Inteleillä pystyy tekemään myös muutakin kuin pelaileen, eikä se työkäyttökään välttämättä vaadi mitään julmettua määrää ytimiä/säikeitä tai Amd rautaa kuten ei se pelaaminenkaan välttämättä vaadi sitä Inteliä.
 
Pannukakut muuten maistuu hyvältä.

Tässä on kyllä hieno malliesimerkki fanipojan kaksoisstandardeista.

AMDn n. 2% lisää (pelkkiä) maksimikelloja tuovat "refreshit" on hyvä ja "AMDn etumatkaa" lisäävä juttu, mutta intelin mallista riippuen 6-11% lisää kelloja, sekä joko 20% lisää ytimiä ja 20% lisää L3-välimuistia, tai sitten SMTn tuova linjasto on "pannukakku" :facepalm:

Ja jos ei tarkastella niitä huippumalleja vaan niitä malleja joita normaalit ihmiset ostaa, niin:

esim. n. 250e hintaluokassa 3600X oli ennen todella kova, nyt 270 eurolla Inteliltä saa 10600KF:n jossa pelitehoa löytyy selvästi enemmän kuin 3600XTstä ja monen säikeen suorituskykykin (joka 9600KF:llä oli selvästi jäljessä) on melko samaa luokkaa, kiitos SMTn lisäämisen ja n. 11% peruskellolisän vrt 9600KF. 3600XT ei 2.3% maksimikellotaajuusparannuksellaan muuta tätä käytännössä yhtään mihinkään.


Jos yhtään omaa järkeä ja kykyä katsoa asioita objektiviisesti eikä vain omien fanipoikalasien läpi, niin pitäisi kyllä tajuta, että tuon tilaston tarkasteleman ajan jälkeen nimenomaan intelin kilpailutilanne on parantunut selvästi Comet Laken työpäytämallien myötä, eikä AMDn 2% lisää maksimikelloa tuovat refreshit muuta tätä merkittävästi.

Kaveri tilasi juuri uuden pelikoneen, ja kyselin minultakin neuvoja. Aluksi muutama viikko sitten suosittelin pääasiallisesti 3600X:ää, mutta myös muutamaa muuta mallia (molemmilta valmistajilta), mutta kun huhut 3600XT:stä alkoi kiihtyä ja puhui selvästi suuremmista kellotaajuusparannuksista, ehdotin, että viivyttää koneen hankintaa hiukan ja odottaa 3600XTn julkaisua, että se voi olla aika kova hänelle. Mutta kun paljastuikin, että se oli vain 100 MHz parannus, totesin että sitä ei kannata odottaa. Kaveri laittoi sitten 10600KF:n tilaukseen heti 3600XTn julkaisun jälkeen.

Tähän vaan semmoinen, että 3600X ei ole hyvä ostos ja kannattaa ostaa vaikka parempi emolevy siihen rahaan tai jäähy. Ja 3600 prosessoriksi.

Lisäksi tässä on suurimpana ongelmana se, että tuijotetaan absoluuttista prosessorin hintaa. 3600X 250€,10600KF 270€... (ja muuten 3600 alle 200€). Käytännössä tässä on ihan kätevät bundlet:

Hintaluokka on tuo ja se on melkein 50% lisää hintaa Intelistä. Eikä sillä rahalla saa 50% lisää suorituskykyä.

--

Mietityttää kyllä minuakin, miten kaltaisesi fiksu kaveri katselee jotain maksimiboosteja ja käyttää niitä mittareina.. Ne on täysin turhia , jos/kun niitä pidetään vain jotain mikrosekunteja mittausohjelmassa. Pahimmassa tapauksessa tulee stutterointia, kun prosessorin kellotaajuus sahaa kovaa vauhtia edestakaisin kun jäähynä on riittämätön stock-jäähy (erityisesti 3600X:n kanssa). +50€ ja saa 3600XT:n nykyhinnoilla Suomesta 3700X:n, niin ei siinäkään taas ole mitään järkeä. Ja joo, se 3700X on muuten B550-emolevyllä samanhintainen kuin tuo 10600K-bundle. Ja halvemmalla emolevyllä pääsee 10600KF:n hintoihin - niin mitä te nyt olette änkemässä 3600X/3600XT:tä sitä vastaan, kun hinnan puolesta se ei sinne kuulu.

Tämä lähinnä vaan muistutuksena, että Intelistä pitää vieläkin maksaa enemmän. Ja lopettakaa se mallinumeroiden käyttö vertailussa ja vertailkaa saman hintaluokan kokoonpanoja, eikä suositushintoja tai jotain maksimispeksejä.
 
Tähän vaan semmoinen, että 3600X ei ole hyvä ostos ja kannattaa ostaa vaikka parempi emolevy siihen rahaan tai jäähy. Ja 3600 prosessoriksi.

Jep toi 3600X on ollut kokoajan melko järjetön tuote eikä 3600XT sen valossa mitä spekseistä tiedetään tule asiaa muuttamaan juurikaan paremmaksi. Testejä toki odotellessa että tulisiko se oikeasti saavuttamaan luvatut kellot muussakin kuin hetkellisinä millisekunnin purskeina.
 
Jep toi 3600X on ollut kokoajan melko järjetön tuote eikä 3600XT sen valossa mitä spekseistä tiedetään tule asiaa muuttamaan juurikaan paremmaksi. Testejä toki odotellessa että tulisiko se oikeasti saavuttamaan luvatut kellot muussakin kuin hetkellisinä millisekunnin purskeina.

Oma 3600X ei ole ikinä saavuttanut luvattuja boost kellotaajuuksia eli jää purskeissakin yhden thredin kuormalla 3350Mhz (eli jää luvatusta 4400Mhz) vaikka on nestemetallit ja 280mm nestejäähdytys blokki. Tosin oletan tämän osittain johtuvan siitä, että olen ylikellottanut muistit ihan niin tappiin saakka kun infinity fabricistä irtoaa, joten oletan, että muistiohjain tuottaa ylikellotettuna kai sen verran lämpöä, että se rajottaa boostkelloja vähän. Suorituskyky on kuitenkin mittauksissa hyvä niin ei voi oikein valittaa (verrattuna tuloksiin mitä muut ovat saaneet samoista testeistä ulos).

Mietin sitä, että käyköhän tolle 3600XT sama, että jos kellottaa infinity fabric ihan tappiin asti (jos dram piirit kestää sen) kellotaajuuksissa ennen kuin alkaa latenssit kärsiä käyköhän tuon XT kanssa sama juttu, että kellot ei nouse kun muistiohjain tekee lämpöä sen verran ylikellotettuna, että coret alkaa rajottaa kellotaajuuksiaan? Eli onkohan tossa XT mallissa mitään järkeä jos infinity fabric ei ole parannettu mitenkään?

En siis tiedä johtuuko se, että oma 3600X ei saavuta boost kelloja tästä, mutta tämä on teoriani. Olen myös asentanut uusimman biossin ja uusimmat chipset ajurit joten sekään ei ole auttanut. Voi myös olla, että olen saanut jonkun heikomman yksilön.
 
Mietin sitä, että käyköhän tolle 3600XT sama, että jos kellottaa infinity fabric ihan tappiin asti (jos dram piirit kestää sen) kellotaajuuksissa ennen kuin alkaa latenssit kärsiä käyköhän tuon XT kanssa sama juttu, että kellot ei nouse kun muistiohjain tekee lämpöä sen verran ylikellotettuna, että coret alkaa rajottaa kellotaajuuksiaan? Eli onkohan tossa XT mallissa mitään järkeä jos infinity fabric ei ole parannettu mitenkään?

Huhuja siitä on että hiukan paremmin IF kulkisi mutta jää nähtäväksi. Mutta eikös nää nykyiset IF nopeudet aikalailla sinne 4500MHz asti riitä?
 

Statistiikka

Viestiketjuista
259 402
Viestejä
4 511 307
Jäsenet
74 363
Uusin jäsen
wlliamwill

Hinta.fi

Back
Ylös Bottom