Virallinen: AMD vs Intel keskustelu- ja väittelyketju

  • Keskustelun aloittaja Keskustelun aloittaja Sampsa
  • Aloitettu Aloitettu
Nuo asiat eivät liity toisiinsa mitenkään. GF sanoi julkisesti ettei heitä haittaa vaikka AMD valmistaisi TSMC:lla koska heillä ei kapasiteetti riitä. Lisäksi TSMC:n tiedettiin saavan 7nm tuotannon valmiiksi ennen GF:a, joten miksi AMD ei tekisi TSMC:lla paremman katteen tuotteita ensin kun siellä täytyy kuitenkin tehdä jotakin?

Koska GF puhui täyttä paskaa tuolloin. Kyllä toi GF:n 7nm dumppaaminen on ollut jo pidemmän aikaa tiedossa mitä julkisuuteen annetaan ymmärtää. Ei tollaisia päätöksiä tehdä kuukauden varoitusajalla.
AMD vain pelasi tuota peliä mukana ja kertoili että osa tullaan valmistamaan TSMC:llä, onhan siinä voinut olla ihan AMD:n etukin kertoilla tuollaisia satuja ja on saatu TSMC:ltä parempi diili.
 
Koska GF puhui täyttä paskaa tuolloin. Kyllä toi GF:n 7nm dumppaaminen on ollut jo pidemmän aikaa tiedossa mitä julkisuuteen annetaan ymmärtää. Ei tollaisia päätöksiä tehdä kuukauden varoitusajalla.
AMD vain pelasi tuota peliä mukana ja kertoili että osa tullaan valmistamaan TSMC:llä, onhan siinä voinut olla ihan AMD:n etukin kertoilla tuollaisia satuja ja on saatu TSMC:ltä parempi diili.

Olen eri linjoilla. Jokainen päivä jonka GF viivytti tuota päätöksen toteutusta tuotti paljon lisää kustannuksia. Koska päätöksen tavoitteena oli vähentää kustannuksia, ei ole järkeä viivyttää päätöksen toimeenpanoa yhtään kauemmin kuin on pakko. Eli: heti kun asiasta oli päätetty, se toteutettiin. Nythän tiedetään ettei GF:lla ole mitään suunnitelmia sille mitä tapahtuu mm. laitteille joilla piti tehdä 7nm tuotantoa. Mikäli tuosta olisi tiedetty etukäteen, niille laitteille olisi valmiiksi kartoitettu käyttöä ja/tai mahdollinen ostaja. Kaiken päälle tällaisen uutispommin vuotaminen julkisuuteen etukäteen tekisi GF:lle entistä enemmän haittaa.

Millaisia satuja? Että AMD tarvitsee TSMC:lta valmistuskapasiteettia koska GF:lla ei riitä sitä tarpeeksi? Miten tuo AMD:n tilannetta auttaa?
 
Olen eri linjoilla. Jokainen päivä jonka GF viivytti tuota päätöksen toteutusta tuotti paljon lisää kustannuksia.

Mitä kustannuksia siitä nyt tulee jos 7nm kehitys pistettiin jäihin jo keväällä mutta tiedottaminen tehtiin vasta nyt?

Nythän tiedetään ettei GF:lla ole mitään suunnitelmia sille mitä tapahtuu mm. laitteille joilla piti tehdä 7nm tuotantoa.

Onhan niillä suunnitelma. Myydä ne laitteet. Markkinat vain taitaa olla melko pienet, potentiaalisia ostajia taitaa olla peräti 2 eli TSMC ja Simsung.

Millaisia satuja? Että AMD tarvitsee TSMC:lta valmistuskapasiteettia koska GF:lla ei riitä sitä tarpeeksi? Miten tuo AMD:n tilannetta auttaa?

Juurihan minä sanoin että AMD leikki tuota leikkiä mukana saadakseen TSMC:ltä paremman diilin. En väitä faktana mutta paljon mahdollista.
 
Sillä on hyvin vähän merkitystä kuten todistin moneen kertaan.

Näytönohjaimen tapauksessa rajoitetaan resoluutiota jolloin kuormaa siirtyy prosessorille, minun esimerkissäni rajoitetaan muistia jolloin kuormaa siirtyy SSD:lle.

Edelleen, GTX1080 näyönohjaimella harvemmin pelataan 1080p resoluutiolla vaikka samat numerot ovat molemmissa.
Et ole kyllä todistanut yhtäkään väitettäs mitenkään.
Ei siinä rajoteta resoluutiota, vaan testataan miten prosessorin suorituskykyä yleisimmällä käytössä olevalla resoluutiolla. Sen takia pienemmällä resoluutiolla testejä ei enään tehdä, kun ei kukaan sellasia näyttöjä enään osta/käytä.
Kai toi sun esimerkkitestis kiinnostaa sit niitä joilla on se 4gt muistia, ei muita. Kuitenkin ne 1080p tulokset kiinnostaa erittäin monia. Ei tietenkään kannata kattella testejä jotka ei vastaa oman sen hetkisen, tai tulevan näytön resoluutioo.
Jos sää laitat liian tehottoman näytönohjaimen kiinni siihen testikokoonpanoon, niin tottakai AMD ja Intel saa joka resoluutiolla saman tuloksen rajotuksen ansiosta.
Kaikkihan tietää miten Ryzeni tykkää nopeista muisteista. Hyvä testihän siis olis heittää jokkut kämäsimmällä kellotaajuudella ja latenssilla olevat muistit molempiin kokoonpanoihin ja huomata kuinka paljon parempi Inteli on. Harmi vaan kun yleensä ne testataan niillä nopeemmilla muisteilla juurikin sen takia ettei ei rajoteta tahallaan AMD:tä.

Aikoinaan ostaa AMD:n näytönohjain "vaikka sillä ei tehdä muuta kuin pelataan." Sitten tuli kryptoboomi (kahdesti) ja kappas vaan sitä muuta käyttöä ihmeellisesti löytyikin.

Harvalla on kaksi näyttöä käytössä, useimmilla on yksi.
Ja sää varmasti ostit kasan niitä AMD:n näyttiksiä ennen kryptobuumia ja myit ne sit tuplahinnalla? Varmaan osasit senkin ennustaa.
Turha yrittää tollasia ennustaa, kun se olis ihan yhtähyvin voinu hyödyntää jotain mitä Nvidialla oli mutta AMD:llä ei. Lisäks kukaan tuskin osti omaan käyttöön niitä Vegoja, jos oli jo Nvidia kiinni koneessa ja ei aikonu uutta näyttistä ostaa siihen koneen pääkäyttöön. Ne ostettiin erilliseen kokoonpanoon, jolla ainoostaan mainattiin.
Ne jotka mainas sillä pelikoneellansa, tyyty siihen mitä vaan sai sen hetkisellä näyttiksellä.

Ai nyt sillä onkin väliä mitä useimmalla on käytössä, kun se ei kelvannu tossa 1080p resoluution testaamisessa, vaikka suurimmalla osalla se vielä on? Eikai kukaan nyt striimaakkaan yhellä näytöllä. Kauhee säätö kun pitäs chattiakin lukee ja asetuksia säätää kesken pelin. Joten eikös sit kannata alkaa ehdotteleen noille konepaketti-osion kyselijöille suoraan 2 näytön setuppia Ryzenin kans, ihan vaan jos alkaa sit myöhemmin kiinnostaa striimaamine. Ja se Quadro kans kylkeen niin voi sit harrastella niitä grafiikkajuttujakin.

Lähempänä kuin aikaisemmin, joka oli pääpointti.
Ei ollu lähempänä kun aiemmin, kuten ne syyt aiemmin sulle selitin mistä ne tulokset johtu.

Benchmarkit eivät ole sama asia kuin tulokset. Benchmarkin ei tarvitse saada mitään näkyvää lopputulosta aikaan, kunhan vaan heittää arvoja ruudulle. Rendauksessa yleensä saadaan jonkinlainen tulos luotua ja siihen menevä aika voidaan mitata.
Öööh siis mitähän helvettiä. Rendausajan testaaminen = Benchmark. Eli testataan kuinka nopeeta se nyt sitten rendaa sitä.
Pelejä benchmarkatessa saadaan kanssa tulos, joka on fps.

Vaikka se olisi teoriassa "jotain nanosekunteja", se voi olla käytännössä jotain ihan muuta. Teoria ja käytöntö ovat harvoin sama asia.
Muttakun nimenomaan käytännössä sitä eroo ei huomaa. En minä ole huomannu, ei kukaan kaveri ole huomannut, kukaan netissä ei ole ilmeisesti huomannu kun ei kukaan valita asiasta. Eli se siis käytännössäkään ei ole ongelma, niinkun sää tunnut väittävän, vaikket ole edes kokeillu.
Harvoin sama asia on, joten miks sää sit sanot AMD:n olevan parempi ja perustelet sitä nimenomaan teoreettisilla asioilla, kun benchmarkitkaan ei sun mukaan päde, koska voi manipuloida.

Eikös se resoluutio laskettu sen takia ettei näytönohjaimella ole niin suurta osuutta asiassa, jolloin noissa tuloksissa näytönohjaimen vaikutus on lähes olematon? Nytkö eivät sitten kelpaakaan ne jotka aiemmin kelpasivat?

Jos Ryzen olisi yhtä nopea peleissä, se kannattaa ottaa koska HS on juotettu eikä purkattu, AM4 alusta on parempi ja tarjoaa paremman päivitettävyyden ja Ryzen on muualla parempi. Plus Ryzen on todennäköisesti halvempi myös. Ei mitään syytä ottaa Inteliä enää tuossa kohtaa pl. muutama marginaalitapaus.
Sun pitää verrata niitä keskenään samalla resoluutiolla...Olisko siis järkee testata vaikka AMD 4k resolla, ja verrata sen tulos Intelin 720p resoon ja todeta, kuinka AMD ei anna ees 60 fps jossain peleissä, ja Intel antaa jokasessa tyyliin 200?

Mitä sen purkan on väliä, jos ei aio kellotella? Se ei ole ongelma edes miedoilla kellotuksilla, joka kuitenkin on enemmän mitä AMD:llä saa kellotettua.
AM4 ei ole yhtään sen parempi. Tosta päivitettävyydestä en jaksa enään jauhaa, kun et ole ymmärtänyt aiempana 5 kertana mitä oon siitä sanonu. Halvempi se on, mutta harvemmin hyvää halvalla saa.

Pointtina oli ettei Intel tarjoa järkevää päivitysprosessoria LGA1151 kannalle. Ne tulevat 8-ytimiset, vaikka toimisivatkin LGA1151+Z370 yhdistelmällä, eivät sellaisia ole mikäli huhut pitävät paikkaansa. Eli tuossa mielessä eivät muuta asiaa mihinkään vaikka toimisivatkin.
Sanoit että nimenomaan ei ole yhteensopiva, et mistään järkevyydestä. Onhan se vallan mainio päivitysprosessori. Enemmän ytimiä ja juotettu HS. Mitä enemmän sitä vois vaatia? Hinta on suolane, mutta köyhät kyykkyyn.

Kuinka paljon on testattu samalla piirisarjalla varustettujen emolevyjen keskinäisiä nopeuksia (prosessori ja muistit "vakiona"? Paljon. Paljonko on testattu eri valmistajien samantyyppistä (DDR2 jne) muistien nopeuksia samoilla asetuksilla? Paljon. Eli turhempaankin on resursseja haaskattu. Ehkä joskus tutkinkin asiaa, tosin eihän se kelpaa ellei joku muu tuloksia vahvista.

Jos koitata samaa, yritä keksiä myös jokin järkevä perustelu miksi noin käy. Tuollaiset heitot ovat pelkkää trollaamista.
Niitä on testattu, koska halutaan selvittää onko eroja ja paljonko sitä eroo on. Saathan sää tehä sen testin jos sua asia kiinnostaa, ketään näköjään ei kiinnosta kun se ei vaikuta mihinkään.
No mun järkevä perustelu on se, että silleen käy tulevaisuudessa. Eikai se nyt tarkempaa todistetta tarvi, kun et sinäkään tarvi mitään todisteita väitteilles.

Eiköhän se kesähessu huomaisi jotain omituista niissä tuloksissa ja ruudunpäivityksessä. Tubettajat ovat tuossa mielessä parempia, totta.

Anandin skriptissä ei ollut virhettä vaan asetuksissa. On ihan mahdollista ettei virheitä huomata mikäli kaikilla on sama tai samantapainen virhe asetuksissa tai skriptissä.
Ei ne siitä scriptistä suoraan niitten sivuille tuloksia postaa, vaan joku kattoo ja analysoi ne tulokset ja kirjottaa artikkelin. Eli on siä joku ne tulokset kattonu, eli sama tulos olis jos se sälli olis vieressä istunu ja ihmetelly kun scripti tekee töitään.
Kyllä ne virheet huomataan kun monet tollaset tubettajat tai pienet benchmarkkaajat jotka ei scriptejä käytä, spottaa ne liian isot erot scriptaajiin nähden.

Höpö höpö. Esim. Meltdownia tai mitään suoraan siihen liittyvää aukkoa on ollut turha alkaa hakemaankaan AMD:n prosessoreista. Mikäli Meltdownin haluaa saada AMD:lla toimimaan, täytyy hakea prosessorista bugi (tällä kertaa bugi termi on ihan oikea). Ellei sellaista löydy, Meltdown ei toimi AMD:lla vaikka käyttäisi hakemiseen loputtomasti aikaa.

Eli Meltdownin tyyppistä haavoittuvuutta ei löydy AMD:n prosessorista koska sen toimiminen on mahdotonta (ellei prosessorista löydy bugia). Syynä ei ole se ettei sellaista jaksettaisi hakea.
Samaa varmaan ajateltiin vuosia sitten Intelistä, mutta kappas kun löytykin. Ei sen tarvi olla identtinen tän Meltdownin kanssa, vaan voi olla vaikka ihan erilainen mutta sama lopputulos. Aika tyhmää spekulaatioo tollane ettei muka mitään haavottuvuutta voi tulla koskaan.
 
Höpö höpö. Esim. Meltdownia tai mitään suoraan siihen liittyvää aukkoa on ollut turha alkaa hakemaankaan AMD:n prosessoreista. Mikäli Meltdownin haluaa saada AMD:lla toimimaan, täytyy hakea prosessorista bugi (tällä kertaa bugi termi on ihan oikea). Ellei sellaista löydy, Meltdown ei toimi AMD:lla vaikka käyttäisi hakemiseen loputtomasti aikaa.

Eli Meltdownin tyyppistä haavoittuvuutta ei löydy AMD:n prosessorista koska sen toimiminen on mahdotonta (ellei prosessorista löydy bugia). Syynä ei ole se ettei sellaista jaksettaisi hakea.
Täysin erilaiset arkkitehtuurit on suorastaan varmaa ettei ihan sama toimikaan AMD: n puolella. Ihmisten tekemiä nekin vaan on.
Samaa varmaan ajateltiin vuosia sitten Intelistä, mutta kappas kun löytykin. Ei sen tarvi olla identtinen tän Meltdownin kanssa, vaan voi olla vaikka ihan erilainen mutta sama lopputulos. Aika tyhmää spekulaatioo tollane ettei muka mitään haavottuvuutta voi tulla koskaan.
:tup::tup: Juuri näin se menee.
 
En usko pelien käyttävän AVX2:ta pitkään aikaan, ainakin kahdesta syystä:

1. Integroidut näytönohjaimet. Usein prosessorilla ja prosessoriin integroidulla näytönohjaimella on "kokonaisbudjetti" virrankulutukselle. AVX2-kuormat tuottavat melkoisesti lämpöä jolloin joudutaan hidastamaan näytönohjainta ja kokonaisnopeus laskee.

:facepalm:

Höpöhöpö.

Se sama asia pitää kuitenkin laskea per frame. Sen laskeminen AVX-käskyillä Intelin prossuilla tuhlaa selvästi vähemmän sähköä ja tuottaa selvästi vähemmän kuin saman asian laskeminen SSEllä, koska se lasketaan niin paljon nopeammin.

Kun kelloa lasketaan sen verran alaspäin, että tehonkulutus on samansuuruinen, suorituskykyä on enemmän.

Jos kelloa lasketaan niin paljon alaspäin, että suorituskyky on sama, sähköä kuluu ja lämpöä tuotetaan selvästi vähemmän.

Että integroiduilla näyttiksillä ei ole tasan yhtään mitään tekemistä tämän kanssa.

Tai päin vastoin, tämä argumentti olisi vain sinua vastaan.

2. Monien koneiden jäähyjä ei ole suunniteltu AVX2-kuormille, eli käytännössä prosessori alkaa pian throttlaamaan ja nopeus laskee.

Molemmissa tapauksissa pelintekijä saa syyt "koska laittoi AVX2-laskentaa pelin koodiin mukaan".

Höpöhöpö. Suorituskyky pysyy silti paljon parempana, koska kelloa pudotetaan paljon vähemmän kuin mitä kellokohtaista suorituskykyä saadaan lisää.


Skylakessa AVX(2)sta kellon pudotus on yhdellä ytimellä/turbo-modessa tyypillisesti vain 100 MHz (3%), täysillä ytimillä/ei-turbo-modessa tyypillisesti 300 Mhz(n. 10%).

Jos esimerkiksi suorituskyky per kello paranee 30% ja kello laskee 3-10%, kokonaissuorituskyky on 17-26 % plussalla.

(ja 30% valittu hyvin konservatiivinen lukema, teoreettinen laskentanopeus tosiaan tuplaantuu)
 
Viimeksi muokattu:
Mitä kustannuksia siitä nyt tulee jos 7nm kehitys pistettiin jäihin jo keväällä mutta tiedottaminen tehtiin vasta nyt?

Tuotantolinjan laittaminen kuntoon ei ole ilmaista. Siihen tarvitaan myös henkilökuntaa joka sekin maksaa. Noin suuressa tehtaassa on myös hyvin vaikeaa feikata linjan pystytyksen olevan käynnissä, vaikka todellisuudessa mitään ei tapahdu (mikäli tarjoat skenaariota jossa koko 7nm oli jäissä pidempään mutta ulospäin kerrottiin sen olevan tekeillä).

Onhan niillä suunnitelma. Myydä ne laitteet. Markkinat vain taitaa olla melko pienet, potentiaalisia ostajia taitaa olla peräti 2 eli TSMC ja Simsung.

Se on yksi vaihtoehto. Sitä suunnitelmaa oli mahdollisuus hioa monta kuukautta etukäteen. Nyt näyttää siltä ettei asialle tehty mitään ennen päätöstä lopettaa koko 7nm tuotanto.

Näillä spekseillä teoriasi 7nm tuotannon hylkäämisestä ajat sitten ei vaikuta kovin uskottavalta.

Juurihan minä sanoin että AMD leikki tuota leikkiä mukana saadakseen TSMC:ltä paremman diilin. En väitä faktana mutta paljon mahdollista.

Ihan mahdollista niin mutta miten tuo leikkiminen auttaa saamaan paremman diilin?

Et ole kyllä todistanut yhtäkään väitettäs mitenkään.
Ei siinä rajoteta resoluutiota, vaan testataan miten prosessorin suorituskykyä yleisimmällä käytössä olevalla resoluutiolla. Sen takia pienemmällä resoluutiolla testejä ei enään tehdä, kun ei kukaan sellasia näyttöjä enään osta/käytä.

Resoluutio pienenee = resoluutiota rajoitetaan. Prosessorin suorituskyvyllä ei ole merkitystä silloin kun näytönohjain rajoittaa ja tuolla resoluutiolla halvempi näytönohjain on rajoite.

Vai ettei pienemmällä resoluutiolla tehdä testejä? Tuossa parit 720p benchmarkit vm 2018. Lisää löytyy googlella.

AMD Ryzen 5 2600X 3.6 GHz Review
Ryzen 5 2600 vs. Core i5-8400: 36 Game Benchmark

Käytössä on GTX1080Ti :smoke:

Kai toi sun esimerkkitestis kiinnostaa sit niitä joilla on se 4gt muistia, ei muita. Kuitenkin ne 1080p tulokset kiinnostaa erittäin monia. Ei tietenkään kannata kattella testejä jotka ei vastaa oman sen hetkisen, tai tulevan näytön resoluutioo.
Jos sää laitat liian tehottoman näytönohjaimen kiinni siihen testikokoonpanoon, niin tottakai AMD ja Intel saa joka resoluutiolla saman tuloksen rajotuksen ansiosta.
Kaikkihan tietää miten Ryzeni tykkää nopeista muisteista. Hyvä testihän siis olis heittää jokkut kämäsimmällä kellotaajuudella ja latenssilla olevat muistit molempiin kokoonpanoihin ja huomata kuinka paljon parempi Inteli on. Harmi vaan kun yleensä ne testataan niillä nopeemmilla muisteilla juurikin sen takia ettei ei rajoteta tahallaan AMD:tä.

1080p tulokset kiinnostavat niitä joilla on GTX1080Ti ja 1080p näyttö, eli ei käytännössä ketään.

Useimmilla käyttäjillä on koneessaan "liian tehoton" näytönohjain ja jos silloin Intel ja AMD ovat tasoissa, niin sitten ovat. Samalla tavalla jos useimmilla on koneessaan "riittävästi" muistia, SATA SSD:n ja NVME SSD:n ero ei ole kovin huomattava, niin sitten se on niin. Ei tarvitse hakemalla hakea eroa jota ei ole.

Läheskään aina ei testata nopeimmilla muisteilla. Tuohon pätee tietenkin sama kuin näytönohjaimeen: jos on tonnin näytönohjain satasen prosessorin kanssa, olkoon sitten nopeat muistit myös.

Ja sää varmasti ostit kasan niitä AMD:n näyttiksiä ennen kryptobuumia ja myit ne sit tuplahinnalla? Varmaan osasit senkin ennustaa.
Turha yrittää tollasia ennustaa, kun se olis ihan yhtähyvin voinu hyödyntää jotain mitä Nvidialla oli mutta AMD:llä ei. Lisäks kukaan tuskin osti omaan käyttöön niitä Vegoja, jos oli jo Nvidia kiinni koneessa ja ei aikonu uutta näyttistä ostaa siihen koneen pääkäyttöön. Ne ostettiin erilliseen kokoonpanoon, jolla ainoostaan mainattiin.
Ne jotka mainas sillä pelikoneellansa, tyyty siihen mitä vaan sai sen hetkisellä näyttiksellä.

Ensimmäisellä kerralla tuo ennustaminen oli vaikeaa. Niitä kryprtobuumeja tuli kaksi kappaletta, joten se jälkimmäinen ei tullut kenellekään "täytenä yllätyksenä".

Hyödyntää jotain mitä Nvidialla oli ja AMD:lla ei? Kuten esimerkiksi mitä? Ei tällaiset asiat tyhjästä tule.

Ne jotka mainasivat pelikoneellaan saivat huomattavaa etua jos kortti oli AMD.

Ai nyt sillä onkin väliä mitä useimmalla on käytössä, kun se ei kelvannu tossa 1080p resoluution testaamisessa, vaikka suurimmalla osalla se vielä on? Eikai kukaan nyt striimaakkaan yhellä näytöllä. Kauhee säätö kun pitäs chattiakin lukee ja asetuksia säätää kesken pelin. Joten eikös sit kannata alkaa ehdotteleen noille konepaketti-osion kyselijöille suoraan 2 näytön setuppia Ryzenin kans, ihan vaan jos alkaa sit myöhemmin kiinnostaa striimaamine. Ja se Quadro kans kylkeen niin voi sit harrastella niitä grafiikkajuttujakin.

Ei kelvannut 1080 testaamisessa koska näytönohjain on sellainen joka aniharvalta löytyy. Iso juttu tuo kaksi näyttöä ei ole koska näytön lisääminen on huomattavasti helpompaa kuin näytönohjaimen vaihtaminen. Lisäksi se toinen näyttö voi olla tasoa "halpa".

Ei ollu lähempänä kun aiemmin, kuten ne syyt aiemmin sulle selitin mistä ne tulokset johtu.

Et oikeastaan mutta ihan sama.

Öööh siis mitähän helvettiä. Rendausajan testaaminen = Benchmark. Eli testataan kuinka nopeeta se nyt sitten rendaa sitä.
Pelejä benchmarkatessa saadaan kanssa tulos, joka on fps.

Rendaus tuottaa tietyn lopputuloksen vaikket "pelaisi" sitä rendausta. Harvemmin kukaan "pelaa" demomuotoista benchmarkkia. Tuossa on täysin selkeä ero.

Muttakun nimenomaan käytännössä sitä eroo ei huomaa. En minä ole huomannu, ei kukaan kaveri ole huomannut, kukaan netissä ei ole ilmeisesti huomannu kun ei kukaan valita asiasta. Eli se siis käytännössäkään ei ole ongelma, niinkun sää tunnut väittävän, vaikket ole edes kokeillu.
Harvoin sama asia on, joten miks sää sit sanot AMD:n olevan parempi ja perustelet sitä nimenomaan teoreettisilla asioilla, kun benchmarkitkaan ei sun mukaan päde, koska voi manipuloida.

Näitä "ei huomaa" juttuja on nähty vaikka kuinka. Kunnes joku saa testituloksia asiasta ja sitten kaikki yhtäkkiä "huomaavatkin" :think:

Pelibenchmarkit ovat eri asia kuin monet hyötyohjelmabenchmarkit, mainituista syistä.

Sun pitää verrata niitä keskenään samalla resoluutiolla...Olisko siis järkee testata vaikka AMD 4k resolla, ja verrata sen tulos Intelin 720p resoon ja todeta, kuinka AMD ei anna ees 60 fps jossain peleissä, ja Intel antaa jokasessa tyyliin 200?

Testataan molemmat samalla resoluutiolla niin ongelma osittain poistuu. Noissa linkitetyissä testeissä olivat samat asetukset molemmilla. Tässä haettiin keskinäistä eroa.

Mitä sen purkan on väliä, jos ei aio kellotella? Se ei ole ongelma edes miedoilla kellotuksilla, joka kuitenkin on enemmän mitä AMD:llä saa kellotettua.
AM4 ei ole yhtään sen parempi. Tosta päivitettävyydestä en jaksa enään jauhaa, kun et ole ymmärtänyt aiempana 5 kertana mitä oon siitä sanonu. Halvempi se on, mutta harvemmin hyvää halvalla saa.

Purkka nostaa prosessorin lämpötilaa ja sen kestävyys pidemmässä käytössä voi olla selvästi huonompi kuin juotteella.

Sanoit että nimenomaan ei ole yhteensopiva, et mistään järkevyydestä. Onhan se vallan mainio päivitysprosessori. Enemmän ytimiä ja juotettu HS. Mitä enemmän sitä vois vaatia? Hinta on suolane, mutta köyhät kyykkyyn.

Inteliltä loppui 14nm kapasiteetti kesken, joten eivät voikaan tehdä uusia piirisarjoja yhtä montaa kuin ajattelivat. Ehkä eivät edes julkaise Z390 piirisarjaa (tai se on Z370 eri nimellä). Ilman tuota ongelmaa Intel olisi laittanut ne 8-ytimiset vain uudelle piirisarjalle. Kaikkeen ei voi varautua. GF:n luopuminen 7nm tekniikasta laittoi myös ison määrän spekulointeja uusiksi. Mainio päivitysprosessori? IPC-parannus: 0, kellotaajuusparannus: hyvin pieni, lämmöntuotto: kasvaa...

No joo, saa sillä pari ydintä lisää ja ehkä juotetun HS:n. Ei mitään järkeä huhutulla hinnalla päivittää mitään 6-ytimistä Coffee Lakea mihinkään 9000-sarjalaiseen, eli aika surkea päivitysprosessori.

Niitä on testattu, koska halutaan selvittää onko eroja ja paljonko sitä eroo on. Saathan sää tehä sen testin jos sua asia kiinnostaa, ketään näköjään ei kiinnosta kun se ei vaikuta mihinkään.
No mun järkevä perustelu on se, että silleen käy tulevaisuudessa. Eikai se nyt tarkempaa todistetta tarvi, kun et sinäkään tarvi mitään todisteita väitteilles.

Testaamattakin voi sanoa ettei merkittäviä eroja ole. Viime aikoina tuollaiset testit eivät ole paljoakaan kiinnostaneet.

Intelin prosesoreista löytyvät haavoittuvuudet ovat hyvä perustelu. Samaan kastiin omien höpinöidesi kanssa menisi vaikka seuraava ennustus: Intel menee ensi viikolla konkurssiin, koska paikallisesta liikkeestä ovat Intelin prosessorit loppu (ja se osoittaa ettei Intelillä ole enää varaa valmistaa mitään).

Ei ne siitä scriptistä suoraan niitten sivuille tuloksia postaa, vaan joku kattoo ja analysoi ne tulokset ja kirjottaa artikkelin. Eli on siä joku ne tulokset kattonu, eli sama tulos olis jos se sälli olis vieressä istunu ja ihmetelly kun scripti tekee töitään.
Kyllä ne virheet huomataan kun monet tollaset tubettajat tai pienet benchmarkkaajat jotka ei scriptejä käytä, spottaa ne liian isot erot scriptaajiin nähden.

Kesähessu olisi kyllä huomannut ettei ruudunpäivitys ole sitä tasoa mikä sen pitäisi olla.

Virheen huomaamiseen ja korjaamiseen meni aika kauan.

Samaa varmaan ajateltiin vuosia sitten Intelistä, mutta kappas kun löytykin. Ei sen tarvi olla identtinen tän Meltdownin kanssa, vaan voi olla vaikka ihan erilainen mutta sama lopputulos. Aika tyhmää spekulaatioo tollane ettei muka mitään haavottuvuutta voi tulla koskaan.

Lopputulos ei voi olla sama koska AMD:n prosessorissa ei ole ongelmia Meltdownin kanssa. Tyhmää spekulaatiota on ennustaa AMD:sta muka löytyvän jotain vakavampaa haavoittuvuutta kuin Intelistä vaikka tällä hetkellä mikään fakta ei viittaa sinne päinkään.

Täysin erilaiset arkkitehtuurit on suorastaan varmaa ettei ihan sama toimikaan AMD: n puolella. Ihmisten tekemiä nekin vaan on.

Spectre 1 toimii AMD:lla lähes samaan tapaan kuin Intelillä.

Ihan satavarmasti Intelillä etsitään haavoittuvuuksia jotka toimivat AMD:n prosessoreilla mutteivät Intelin prosessoreilla. Hiljaista on.

:tup::tup: Juuri näin se menee.

Eikä ole koska sama (tai edes lähelle sama) lopputulos vaatii samankaltaisen haavoittuvuuden. Ja sellaista samankaltaista haavoittuvuutta ei AMD:n prosessorissa ole. Vaatii bugin jota ei tähän mennessä ole löydetty.

:facepalm:

Höpöhöpö.

Se sama asia pitää kuitenkin laskea per frame. Sen laskeminen AVX-käskyillä Intelin prossuilla tuhlaa selvästi vähemmän sähköä ja tuottaa selvästi vähemmän kuin saman asian laskeminen SSEllä, koska se lasketaan niin paljon nopeammin.

Kun kelloa lasketaan sen verran alaspäin, että tehonkulutus on samansuuruinen, suorituskykyä on enemmän.

Jos kelloa lasketaan niin paljon alaspäin, että suorituskyky on sama, sähköä kuluu ja lämpöä tuotetaan selvästi vähemmän.

Että integroiduilla näyttiksillä ei ole tasan yhtään mitään tekemistä tämän kanssa.

Tai päin vastoin, tämä argumentti olisi vain sinua vastaan.

Teoriassa noin. Käytännössä Intelin prosessorit käyvät puolitehoilla AVX:n suhteen normaalitilanteessa, tätä on nähty useassa mallissa ja Skylaken suhteen Intel taisi sanoa suoraan tällaisen virransäästön olevan olemassa. Normaalisti intelin prosessorissa AVX-yksiköistä "puolikas" on pois päältä, eli AVX-yksiköt ovat "128-bit moodissa". Jos prosessorille laitetaan sopiva käsky (sellainen joka pystytään 256-bit moodissa suorittamaan kerralla, 128-bit moodissa ei?) prosessori käynnistää toisen puolikkaan AVX-yksiköistä johon menee satoja kellojaksoja. 256-bittiset AVX-käskyt suoritetaan kahdessa osassa (myöhemmin tästä spekulaatiota) kunnes "256-bit moodi" on päällä.

Mitä tästä seuraa? 256-bit AVX käskyjen käyttäminen satunnaisesti on peleissä turhaa, koska viive nopeatempoisessa pelissä on liikaa. Vaihtoehtona on pitää AVX2-yksiköt koko ajan käynnistettynä. Ei taida olla käskyä jolla ne pidetään päällä tietyn aikaa, eli koodissa pitää olla tarpeeksi usein (kuinka usein? Intel ei tietääkseni kerro kuinka kauan 256-bit moodi on päällä kunnes menee pois päältä) yksi 256-bit AVX käsky joka pitää "256-bit moden" päällä. Se on paitsi hankalaa, myös kasvattaa lämmöntuottoa turhan takia ja todennäköisesti laskee prosessorin kellotaajuutta kaiken päälle "koska 256-bit moodi käytössä". Lopputuloksena näytönohjaimelle riittää vähemmän virtaa tai prosessori hidastuu alemman kellotaajuuden takia.

Höpöhöpö. Suorituskyky pysyy silti paljon parempana, koska kelloa pudotetaan paljon vähemmän kuin mitä kellokohtaista suorituskykyä saadaan lisää.

Skylakessa AVX(2)sta kellon pudotus on yhdellä ytimellä/turbo-modessa tyypillisesti vain 100 MHz (3%), täysillä ytimillä/ei-turbo-modessa tyypillisesti 300 Mhz(n. 10%).

Jos esimerkiksi suorituskyky per kello paranee 30% ja kello laskee 3-10%, kokonaissuorituskyky on 17-26 % plussalla.

(ja 30% valittu hyvin konservatiivinen lukema, teoreettinen laskentanopeus tosiaan tuplaantuu)

Kuten tuossa ylempänä kerrotaan, siitä 256-bit AVX koodista on hyvin vaikea saada merkittävää hyötyä koska yksiköiden saamisessa täydelle teholle menee liian kauan. Veikkaisin myös Intelin 256-bit AVX käskyjen suorituksen olevan "128-bit moodissa" hitaampaa kuin AMD:lla, koska oletuksena ne 256-bit käskyt lasketaan "256-bit moodissa" ja siitä seuraa erinäistä säätämistä kun käytössä onkin vain "128-bit moodi".

256-bit AVX on Intelinkin mielestä raskaaseen (ja jossain määrin jatkuvaan) käyttöön, ei satunnaiseen. Ja kun pysytään 128 bitissä, AMD pärjää oikein hyvin.
 
Koska GF puhui täyttä paskaa tuolloin. Kyllä toi GF:n 7nm dumppaaminen on ollut jo pidemmän aikaa tiedossa mitä julkisuuteen annetaan ymmärtää. Ei tollaisia päätöksiä tehdä kuukauden varoitusajalla.
AMD vain pelasi tuota peliä mukana ja kertoili että osa tullaan valmistamaan TSMC:llä, onhan siinä voinut olla ihan AMD:n etukin kertoilla tuollaisia satuja ja on saatu TSMC:ltä parempi diili.
AMD:llähän oli WSA sopimuksen takia vähän pakko pitää GloFon 7nm virallisissa suunnitelmissa.
Kyseinen sopimus on ajalta jolloin tehtaat erotettiin AMD:stä ja sopimukseen tuli AMD:lle kiintiö ainakin tietyn piikiekkomäärän ostamisesta vastineena sille, että GloFo jatkaa tuotantolinjojen kehittämistä.
AMD kun ei tosiaankaan ole ollut vapaa ostamaan valmistuskapasiteettia mistä tahansa.
AMD takes a $335m one-time charge for more sourcing flexibility
 
Teoriassa noin. Käytännössä Intelin prosessorit käyvät puolitehoilla AVX:n suhteen normaalitilanteessa, tätä on nähty useassa mallissa ja Skylaken suhteen Intel taisi sanoa suoraan tällaisen virransäästön olevan olemassa. Normaalisti intelin prosessorissa AVX-yksiköistä "puolikas" on pois päältä, eli AVX-yksiköt ovat "128-bit moodissa". Jos prosessorille laitetaan sopiva käsky (sellainen joka pystytään 256-bit moodissa suorittamaan kerralla, 128-bit moodissa ei?) prosessori käynnistää toisen puolikkaan AVX-yksiköistä johon menee satoja kellojaksoja. 256-bittiset AVX-käskyt suoritetaan kahdessa osassa (myöhemmin tästä spekulaatiota) kunnes "256-bit moodi" on päällä.

Höpöhöpö. Mitään tällaista "128-bittistä AVX-moodia" ei intelin prosessoreissa ole olemassa. Jos suoritetaan 256-bittisillä vektoreilla operoivia käskyjä, ne suoritetaan aina 256-bittisellä datapolulla.

Sen sijaan skylake-SP:n halvemmilla malleilla AVX-512-käskyjä suoritetaan pilkkoen niitä kahteen 256-bittiseen osaan. Taidat sekoittaa tähän.

AVX/AVX2n suhteen on vain moodit:
1) kaikkien YMM-rekisterien bitit 129-255 on nollia, ja
2) Kaikkien YMM-rekisterien bitit 128-255 eivät ole nollia.
Jälkimmäisessä moodissa prosessori käy matalammalla kellotaajuudella.

Mitä tästä seuraa? 256-bit AVX käskyjen käyttäminen satunnaisesti on peleissä turhaa, koska viive nopeatempoisessa pelissä on liikaa. Vaihtoehtona on pitää AVX2-yksiköt koko ajan käynnistettynä. Ei taida olla käskyä jolla ne pidetään päällä tietyn aikaa, eli koodissa pitää olla tarpeeksi usein (kuinka usein? Intel ei tietääkseni kerro kuinka kauan 256-bit moodi on päällä kunnes menee pois päältä) yksi 256-bit AVX käsky joka pitää "256-bit moden" päällä. Se on paitsi hankalaa, myös kasvattaa lämmöntuottoa turhan takia ja todennäköisesti laskee prosessorin kellotaajuutta kaiken päälle "koska 256-bit moodi käytössä". Lopputuloksena näytönohjaimelle riittää vähemmän virtaa tai prosessori hidastuu alemman kellotaajuuden takia.

Höpöhöpö.

Ensinnäkin:
Se prosessori pitää sen "256-bittisen moodin" käytännössä melkein tasan niin kauan kun niissä YMM-rekisterien ylemmissä biteissä on nollia.

Ajamalla käsky vzeroupper voidaan nollata ne kaikkien YMM-rekisterien ylemmät bitit jolloin prosessori palaa nopeasti täyteen kellotaajuuteensa.

Ja aina kun esimerkiksi poistutaan funktiosta, joka sitä AVXää käytti, sellaiseen kutsuvan funktioon, joka sitä ei käytä, ne YMM-rekisterien ylimmät bitit nollataan.

Sinne YMM-rekisterien ylimpiin bitteihin jää roskaa hidastamaan prossun kellotaajuuta "turhaan" tai "pidemmäksi aikaa" käytännössä ainoastaan jos kääntäjä tai käyttis on bugisia (ja joo, pari tällaista bugia on löydetty JA KORJATTU).


Toisekseen: Sinulla on jälleen täysin hukassa se, millaisista aikayksiköistä ja suuruusluokista tietokoneen sisällä puhutaan.
4 gigahertsiä tarkoittaa neljää miljardia kellojaksoa sekunnissa. 60 FPS:llä se tarkoittaa 66 MILJOONAA kellojaksoa framessa. Se, että joskus jostain tilavaihdoksesta (joka tehdään vaikka joitain kymmeniä kertoja framessa, eli luokkaa parin miljoonan kellojakson välein) tulee parin sadan kellojakson viive ei ole yhtään mitään väliä. Saman luokan viive tulee siitä, että edes yhden kerran accessoidaan muistia osoitteesta, jota ei löydy välimuistista, vaan joudutaan menemään DRAMille asti. Ja pelien working set muistin suhteen on "aika paljon" enemmän kuin 8 - 16 megatavua mitä nykyprossujen L3-välimuistiin mahtuu.

Kuten tuossa ylempänä kerrotaan, siitä 256-bit AVX koodista on hyvin vaikea saada merkittävää hyötyä koska yksiköiden saamisessa täydelle teholle menee liian kauan.

Täyttä puppua.

Veikkaisin myös Intelin 256-bit AVX käskyjen suorituksen olevan "128-bit moodissa" hitaampaa kuin AMD:lla, koska oletuksena ne 256-bit käskyt lasketaan "256-bit moodissa" ja siitä seuraa erinäistä säätämistä kun käytössä onkin vain "128-bit moodi".

Intelillä ei ole mitään "128-bittistä moodia" ja vaikka AVX-käsky stallaisi hetken kellotajuutta laskiessa ennen kuin se saadaan suorittaa, miljoona kellojaksoa laskevalla rutiinilla ei ole mitään ongelmaa odotella 100 kellojaksoa AVX-yksiköiden heräämistä.

256-bit AVX on Intelinkin mielestä raskaaseen (ja jossain määrin jatkuvaan) käyttöön, ei satunnaiseen. Ja kun pysytään 128 bitissä, AMD pärjää oikein hyvin.

"satunnaisella" tarkoitetaan tällaisissa nyt sitä, että ei tehdä vaikka yksittäisiä 64 tavun memcpy:tä AVX2-rekistereitä käyttäen, jotta voidaan tehdä tämä neljän osan sijasta kahdessa osassa, ja säästää kaksi kellojaksoa. Heti kun aletaan oikeasti laskea yhtään mitään (mitä se peli laskee hyvin paljon) siitä saadaa huomattava hyöty.
 
Intel Core i7-9700K review posted ahead of launch | VideoCardz.com

9700k prossu ilmeisesti vuotanut ja jotkut sitä päässeet jo testaamaan?

cinebench 9700k.jpg
 
Ihan mahdollista niin mutta miten tuo leikkiminen auttaa saamaan paremman diilin?

Ihan simppeli kysynnän ja tarjonnan laki. Jos sinulla on vaihtoehtoja ostaa jotain useammasta paikasta niin pyynti ei voi olla ihan mitä tahansa. Jos tuotteelle on vain yksi myyjä eli käytännössä monopoli niin tämä monopolin omistaja voi määritellä hinnan ihan miten haluaa, joko ostat taikka olet kokonaan ilman kun ei ole vaihtoehtoja.
 
Tää varmaan selventää aika hyvin miksi Intel joutunu tuohon tilanteeseen että pitää TSMC:ltä ostaa nyt kiekkoja.

Intel can’t supply 14nm Xeons, HPE directly recommends AMD Epyc : Amd

Assuming 0.1 defect per cm2 Intel gets from one 300 mm wafer:
  • 408 good and 53 defective i5/7 7x00 dies (9,21 mm x ~13,50 mm)
  • 325 good and 52 defective i5/i7 8x00 dies (9.19 mm x ~16.28 mm)
  • 125 good and 47 defective LCC (10 or fewer cores) Skylake Xeons (22.26 mm x ~14.62 mm)
  • 68 good and 40 defective HCC (18 or fewer cores) Skylake Xeons (21.6 x 22.4 mm)
  • 37 good and 35 defective XCC (28 or fewer cores) Skylake Xeons (21.6 x 32.3 mm)
and that's before you even look at the clocks/voltages those can run at - it's easier to find die with all 4 cores than run well, than die with all 28 cores that run well..

By comparison AMD can get 214 good and 50 defective Zeppelin dies (2x 4 core CCX + memory controller + other stuff) - enough for 53 Epyc CPUs with 32 cores each - and they can bin each 8-core block separately..

Edit:
If you increase defect rate to 0.2 / cm2 you get 21 good 28 core xeons / wafer and 43 good 32-core Epycs / wafer
If you increase defect rate to 0.3 / cm2 you get 13 good 28 core xeons / wafer and 36 good 32-core Epycs / wafer
If you increase defect rate to 0.4 / cm2 you get 8 good 28 core xeons / wafer and 30 good 32-core Epycs / wafer

Eli yheltä kiekolta ei noita isoja xeoneita paljoo tule ja nyt kun kaikki huutaa moar cores niin Intel on kusessa kun 10nm prosessi ei ole vielä valmis. Lisäksi olin lukevinani että jenkeissä jotain säännöksiä että piirisarjatkin tarvii jo tehdä 14nm 22nm sijaan. Loppu vaan 14nm kapasiteetti.

Eli noi 9000 sarjan prossut tulee olemaan hyvin suurella todennäköisyydellä vielä suurempi paperijulkaisu kuin viime vuonna noi 8000 sarjan prossut.
 
Viimeksi muokattu:
en tiedä liittyykö tähän ketjuun mutta tsmc alkaa tehdä jotain kamaa intelille. Mielestäni aika huikea uutinen.
lähde:
TSMC to Build Intel 14nm Processors and Chipsets
Intelillä on valmistuskapasiteetti lopussa kun tehtaiden päivitys ei ole sujunut.
Samalla kun AMD:n paineeseen vastaaminen vaatii prossujen ydinmäärien kasvattamista laskien piikiekolta saatavien prossujen määriä.
EPYCia ja Threadripperia vastaan kilpailevat valtavat monoliittiset sirut varmaan ahmivat piikiekkoja melkoisia määriä myyntilukuihin nähden.

Tosiaan suurille OEM valmistajillekaan ei enää tule kaikki toimitukset aikataulussa.
Partners: Intel CPU Shortage Delaying Shipments, Raising Prices
Ja näillä on varmasti prioriteetti ja sopimuksissa myös kohdat sen varalta, jos toimitukset alkavat viipyillä enemmän.

Eli ysitonnisten kohdalla tuskin kannattaa odottaa hyvää saatavuutta pariin kuukauteen, tai ainakaan hyvään hintaan.
Voisi vaikka käydä samoin kuin aikanaan Core 2:n julkaisun jälkeen.
 
en tiedä liittyykö tähän ketjuun mutta tsmc alkaa tehdä jotain kamaa intelille. Mielestäni aika huikea uutinen.
lähde:
TSMC to Build Intel 14nm Processors and Chipsets


Eiköhän tuo oikeasti koske vain noita emolevyjen IO-piirejä.

Kun vähän kelaa taaksepäin mihin tuo perustuu, niin kaikki perustuu seuraavaan lauseeseen:

Intel intends to give priority to its high-margin products mainly server-use processors and chipsets amid its tight 14nm process capacity, and therefore plans to outsource the production of its entry-level H310 and several other 300 series desktop processors to TSMC, the sources indicated.

Intelillä ei tietääkseni ole mitään "300-sarjan prosessoreita". Nuo on emolevylle tulevia IO-piirejä, joku on vaan sählännyt laittaessaan tuohon sana "processors".
 
Muutama sana SSE vs. AVX, joiden kanssa olen päivitysmielessä sattumoisin puuhastellut viime aikoina.
Etenkin Visual Studiolla tulos AVX:n kanssa voi olla strcmp:llä jopa negatiivinen, kun verrataan SSE4.2:een (kun käytetään auto-vektorisointia). Memcpy tuntuu pääsääntöisesti hyötyvän AVX:stä hieman, tulokset jäävät tosin isossa kuvassa mittausepätarkkuuksien sisään. AVX2 antaa hieman lisäetua, mutta se taas on liian uusi, jotta sen voisi ottaa käyttöön oikeasti.
Linuxilla GCC:n strcmp ja memcpy tuntuvat olevan pääsääntöisesti huonompia AVX:llä kuin SSE4.2:lla, tilanne muuttuu, kun käytetään -fno-builtin vipua, joka siis käyttää libc:n strcmptä ja memcpytä gcc:n omien sijaan. Ilmeisesti Linux vendorit (ainakin Redhat) optimoivat noita.

ICC (Intel C) tuntuu olevan pääsääntöisesti parempi kuin VS tai GCC, mutta tuottaa liian isoja binääreitä.
(sitten on tietysti mm. asmlib, mutta tämä on GPL-syövän alla).

Eli lopputulos SSE vs. AVX ei välttämättä ole yksiselitteisesti uudempi parempi.
 
Muutama sana SSE vs. AVX, joiden kanssa olen päivitysmielessä sattumoisin puuhastellut viime aikoina.
Etenkin Visual Studiolla tulos AVX:n kanssa voi olla strcmp:llä jopa negatiivinen, kun verrataan SSE4.2:een (kun käytetään auto-vektorisointia). Memcpy tuntuu pääsääntöisesti hyötyvän AVX:stä hieman, tulokset jäävät tosin isossa kuvassa mittausepätarkkuuksien sisään. AVX2 antaa hieman lisäetua, mutta se taas on liian uusi, jotta sen voisi ottaa käyttöön oikeasti.
Linuxilla GCC:n strcmp ja memcpy tuntuvat olevan pääsääntöisesti huonompia AVX:llä kuin SSE4.2:lla, tilanne muuttuu, kun käytetään -fno-builtin vipua, joka siis käyttää libc:n strcmptä ja memcpytä gcc:n omien sijaan. Ilmeisesti Linux vendorit (ainakin Redhat) optimoivat noita.

ICC (Intel C) tuntuu olevan pääsääntöisesti parempi kuin VS tai GCC, mutta tuottaa liian isoja binääreitä.
(sitten on tietysti mm. asmlib, mutta tämä on GPL-syövän alla).

Eli lopputulos SSE vs. AVX ei välttämättä ole yksiselitteisesti uudempi parempi.

AVX ei sisällä 256-bittisiä kokonaislukuoperaatioita, ne tulee vasta AVX2ssa. AVX sisältää käytännössä vain 256-bittisten vektorien liukuluku- ja muistioperaatiot, Joten hyvin ymmärrettävää, että strcmp ei hyödy siitä.

Ja tosiaan memcpyn kanssa tilanne on se, että jos tehdään joku lyhyt memcpy niin ne AVX(2)n käyttöönotto-overheadit maksaa helposti enemmän kuin mitä AVX nopeuttaa. Tulokset lienee hyvin erilaisia sen mukaan, tehdäänkö suuri määrä pieniä memcpy:itä vai pieni määrä suuria.

Mutta joku numeronmurskaus on sitten ihan eri juttu kuin tällaiset ei-kovin rinnakkaiset pikkurutiinit. Ja peleissä kuitenkin on selvästi esim. CPUlla laskettavaia fysiikkarutiineita.
 
Viimeksi muokattu:
Höpöhöpö. Mitään tällaista "128-bittistä AVX-moodia" ei intelin prosessoreissa ole olemassa. Jos suoritetaan 256-bittisillä vektoreilla operoivia käskyjä, ne suoritetaan aina 256-bittisellä datapolulla.

Sen sijaan skylake-SP:n halvemmilla malleilla AVX-512-käskyjä suoritetaan pilkkoen niitä kahteen 256-bittiseen osaan. Taidat sekoittaa tähän.

AVX/AVX2n suhteen on vain moodit:
1) kaikkien YMM-rekisterien bitit 129-255 on nollia, ja
2) Kaikkien YMM-rekisterien bitit 128-255 eivät ole nollia.
Jälkimmäisessä moodissa prosessori käy matalammalla kellotaajuudella.

Nuo kaksi moodia ovat lähelle sitä mitä tarkoitan. On myös paljon spekulaatiota (edes Intel ei tätä kunnolla kerro) myös suoritusyksiköiden kytkemisestä pois päältä. Eli moodi 1:ssa myös puolet suoritusyksiköistä kytketään pois päältä virransyötön nimissä.

Valitettavasti spekulaation varassa tässä ollaan.

Höpöhöpö.

Ensinnäkin:
Se prosessori pitää sen "256-bittisen moodin" käytännössä melkein tasan niin kauan kun niissä YMM-rekisterien ylemmissä biteissä on nollia.

Ajamalla käsky vzeroupper voidaan nollata ne kaikkien YMM-rekisterien ylemmät bitit jolloin prosessori palaa nopeasti täyteen kellotaajuuteensa.

Ja aina kun esimerkiksi poistutaan funktiosta, joka sitä AVXää käytti, sellaiseen kutsuvan funktioon, joka sitä ei käytä, ne YMM-rekisterien ylimmät bitit nollataan.

Sinne YMM-rekisterien ylimpiin bitteihin jää roskaa hidastamaan prossun kellotaajuuta "turhaan" tai "pidemmäksi aikaa" käytännössä ainoastaan jos kääntäjä tai käyttis on bugisia (ja joo, pari tällaista bugia on löydetty JA KORJATTU).

Kysehän tässä ei ole niinkään siitä kuinka nopeasti prosessorin saa palaamaan normaaliin kellotaajuuteen vaan siitä kuinka kauan kestää saada AVX2 yksiköt täyteen vauhtiin.

Toisekseen: Sinulla on jälleen täysin hukassa se, millaisista aikayksiköistä ja suuruusluokista tietokoneen sisällä puhutaan.
4 gigahertsiä tarkoittaa neljää miljardia kellojaksoa sekunnissa. 60 FPS:llä se tarkoittaa 66 MILJOONAA kellojaksoa framessa. Se, että joskus jostain tilavaihdoksesta (joka tehdään vaikka joitain kymmeniä kertoja framessa, eli luokkaa parin miljoonan kellojakson välein) tulee parin sadan kellojakson viive ei ole yhtään mitään väliä. Saman luokan viive tulee siitä, että edes yhden kerran accessoidaan muistia osoitteesta, jota ei löydy välimuistista, vaan joudutaan menemään DRAMille asti. Ja pelien working set muistin suhteen on "aika paljon" enemmän kuin 8 - 16 megatavua mitä nykyprossujen L3-välimuistiin mahtuu.

Joidenkin nettilähteiden mukaan se AVX2-yksiköiden käynnistysviive on kymmeniä tuhansia kellojaksoja, joka on jo aika huomattava kun sitä verrataan esim. muistihaun viiveisiin. Tuosta on ollut vähintään spekulaatiota kauan.

Ilman virallista kantaa asiaan on melko vaikea sanoa.

Intelillä ei ole mitään "128-bittistä moodia" ja vaikka AVX-käsky stallaisi hetken kellotajuutta laskiessa ennen kuin se saadaan suorittaa, miljoona kellojaksoa laskevalla rutiinilla ei ole mitään ongelmaa odotella 100 kellojaksoa AVX-yksiköiden heräämistä.

Sillä "moodilla" tarkoitetaan tässä tapauksessa virransäästötilaa jos se on olemassa. Entä jos lisätään se odottelu 10 000 kellojaksoon tai vielä suuremmaksi?

"satunnaisella" tarkoitetaan tällaisissa nyt sitä, että ei tehdä vaikka yksittäisiä 64 tavun memcpy:tä AVX2-rekistereitä käyttäen, jotta voidaan tehdä tämä neljän osan sijasta kahdessa osassa, ja säästää kaksi kellojaksoa. Heti kun aletaan oikeasti laskea yhtään mitään (mitä se peli laskee hyvin paljon) siitä saadaa huomattava hyöty.

Satunnaisella tarkoitin sitä ettei ole nopeaa suorittaa sitä ensimmäistä 256-bittistä AVX2 käskyä (tai mikä aktivoikaan kaikki tehot käyttöön) koska kaiken tehon saaminen edellyttää jatkuvaa AVX2 rekisterien ja laskentayksiköiden päälläpitoa. Siitä taas seuraa lisääntynyttä lämmöntuottoa.

Jos tätä kymmenien tuhansien kellojaksojen/mikrosekuntien viivettä ei ole olemassakaan, nämä spekulaationi lentävät roskiin. Jotkut sanovat sellaisen olevan, jotkut sanovat ettei sellaista ole, jotkut sanovat sen riippuvan prosessorista :confused:
 
Ihan satavarmasti Intelillä etsitään haavoittuvuuksia jotka toimivat AMD:n prosessoreilla mutteivät Intelin prosessoreilla. Hiljaista on.
Juu, ei varmasti etsi. Mitä järkeä olisi laittaa 100 henkilöä tuottamattomaan työhön, jos ja kun haavoittuvuus löydettäisiiin, AMD vain julkaisi siihen korjauksen -> taas 100 henkilöä jatkaa etsintää...(tekisivät vain AMD: lle ilmaista työtä):)
 
  • Tykkää
Reactions: MrM
Juu, ei varmasti etsi. Mitä järkeä olisi laittaa 100 henkilöä tuottamattomaan työhön, jos ja kun haavoittuvuus löydettäisiiin, AMD vain julkaisi siihen korjauksen -> taas 100 henkilöä jatkaa etsintää...(tekisivät vain AMD: lle ilmaista työtä):)

Intelillä on tällä hetkellä suuret paineet saada varsinkin palvelinpuolella omat prosessorinsa näyttämään paremmilta AMD:n prosessoreihin nähden. Tilanne:

- Meltdownin, Spectren, Foreshadowin jne takia Intelillä ei tällä hetkellä ole juurikaan jakoa palvelinprosessoreissa paitsi niissä tapauksissa joissa AMD:n modulaarinen rakenne toimii huonosti.

- Intelin on hyvin vaikea käyttää lahjuksia tällä kertaa koska valmistajat ovat nähneet mitä tapahtuu Intelin ollessa monopoliasemassa ja lisäksi Intelin valmistuskapasiteetti ei riitä.

- AMD julkaisee puolen vuoden sisään Zen2:n palvelimiin ja samalla on karkaamassa kauas edelle. Inteliltä on tulossa vain prosessoreita joissa on jotain rautakorjauksia Meltdowniin ja Spectreen. 10nm palvelinprosessorit tulevat "joskus parin vuoden päästä".

Mitä Intel voi tehdä? Koska Intel ei pysty parantamaan omia tuotteitaan pitkään aikaan merkittävästi, ainoa todellinen vaihtoehto on tehdä AMD:n tuotteista huonompia. Miten tehdä AMD:n tuotteista huonompia? Löytää niistä vakavia haavoittuvuuksia, CTS Labs köh.

Parempi kysymys on: miksi Intel EI etsi AMD:n prosessoreista haavoittuvuuksia?
 
Intelillä on tällä hetkellä suuret paineet saada varsinkin palvelinpuolella omat prosessorinsa näyttämään paremmilta AMD:n prosessoreihin nähden. Tilanne:

- Meltdownin, Spectren, Foreshadowin jne takia Intelillä ei tällä hetkellä ole juurikaan jakoa palvelinprosessoreissa paitsi niissä tapauksissa joissa AMD:n modulaarinen rakenne toimii huonosti.

Jos tarvitaan järeää numeronmurskausta niin Xeonit AVX-512lla pieksee EPYCejä aivan mennen tullen, neljä kertaa suurempi throughput per ydin/kellojakso. Ja myös LSUt on sen 4 kertaa leveämmät, joten ei jää pelkiksi markkinointi-flops-lukemiksi.

Samoin jos tarvitaan vaikka maksimaalista yhden ytimen suorituskyä, intel on edellä.

AMDn kilpailuasetelma palvelimissa on vahva, mutta ei tässä ole kyse mitään "ei jakoa"-tilanteesta.

AMD on vahvoilla koodilla, joka on monisäikeistetty hyvin mutta vektoroitu onnettomasti tai ei ollenkaan, tai kun ajetaan montaa instanssia koodista, joka ei sisällä datatason rinnakkaisuutta.

- AMD julkaisee puolen vuoden sisään Zen2:n palvelimiin ja samalla on karkaamassa kauas edelle.

Inteliltä on tulossa vain prosessoreita joissa on jotain rautakorjauksia Meltdowniin ja Spectreen. 10nm palvelinprosessorit tulevat "joskus parin vuoden päästä".

Hienosti ignorasit sen, mitkä inteililtä on jo tullut.

Ja sinulla ei ole mitään oikeita tietoja siitä, mitä muita parannuksia niissä on tehty.

Esimerkiksi tuota intelin "14nm" valmistusprosessia on jatkuvasti viilattu paremmaksi niin kelloja voidaan olettaa saatavan taas hiukan lisää samalla sähkönkulutuksella.

Samoin zen2sta ei tiedetä mitään muuta, kuin että ytimet lisääntyy.

Ei tiedetä:
1) Mitä parannuksia ytimen (mikro)arkkitehtuuriin on tulossa. Levennetäänkö SIMD-yksiköit vai ei? Tuleeko muita parannnuksia? Tuleeko tuki AVX-512lle?
2) Miten TSMCn "7nm" valmistusprosessi oikeasti suoriutuu.

Mitä Intel voi tehdä? Koska Intel ei pysty parantamaan omia tuotteitaan pitkään aikaan merkittävästi, ainoa todellinen vaihtoehto on tehdä AMD:n tuotteista huonompia. Miten tehdä AMD:n tuotteista huonompia? Löytää niistä vakavia haavoittuvuuksia, CTS Labs köh.

Parempi kysymys on: miksi Intel EI etsi AMD:n prosessoreista haavoittuvuuksia?

Paljon parempi käyttää se työmäärä ja ne resurssit siihen, että testataan OMIA prosessoreita, ja etsitään niistä ne bugit ja ongelmat ennen kuin ne prossut julkaistaan tai ennen kuin joku muu löytää ne, jolloin voidaan selvitä korjauksista paljon halvammalla ja pienemmillä PR-tappioilla.
 
Viimeksi muokattu:
Jos tarvitaan järeää numeronmurskausta niin Xeonit AVX-512lla pieksee EPYCejä aivan mennen tullen, neljä kertaa suurempi throughput per ydin/kellojakso. Ja myös LSUt on sen 4 kertaa leveämmät, joten ei jää pelkiksi markkinointi-flops-lukemiksi.

Samoin jos tarvitaan vaikka maksimaalista yhden ytimen suorituskyä, intel on edellä.

AMDn kilpailuasetelma palvelimissa on vahva, mutta ei tässä ole kyse mitään "ei jakoa"-tilanteesta.

AMD on vahvoilla koodilla, joka on monisäikeistetty hyvin mutta vektoroitu onnettomasti tai ei ollenkaan, tai kun ajetaan montaa instanssia koodista, joka ei sisällä datatason rinnakkaisuutta.

Kun tarvitaan järeää numeronmurskausta, otetaan käyttöön näytönohjain tai Intelin oma Xeon Phi.

Maksimaalinen yhden ytimen nopeus palvelimissa on melko marginaalitapaus.

Tällä hetkellä Intelillä on jakoa mutta mikäli AMD saa 64-ytimisen Zen2:n ulos, Intelin edut jäävät enimmäkseen tapauksiin joissa se yhden ytimen nopeus ratkaisee (hyvin marginaalinen), tarvitaan raskasta vektorilaskentatehoa (näytönohjaimet hoitavat sen useissa tapauksissa paremmin) sekä tapaukset joissa tarvitaan nopeaa ja isoa L3 välimuistia (tälle on markkinoita).

28 ydintä (Intel) vs 32 ydintä (AMD) on marginaalinen ero, 28 (Intel) vs 64 (AMD) on massiivinen ero kun katsotaan ydin per socket tai mitä tahansa suurempaa ydin per jotain mittaria.

Hienosti ignorasit sen, mitkä inteililtä on jo tullut.

Ja sinulla ei ole mitään oikeita tietoja siitä, mitä muita parannuksia niissä on tehty.

Esimerkiksi tuota intelin "14nm" valmistusprosessia on jatkuvasti viilattu paremmaksi niin kelloja voidaan olettaa saatavan taas hiukan lisää samalla sähkönkulutuksella.

Samoin zen2sta ei tiedetä mitään muuta, kuin että ytimet lisääntyy.

Ei tiedetä:
1) Mitä parannuksia ytimen (mikro)arkkitehtuuriin on tulossa. Levennetäänkö SIMD-yksiköit vai ei? Tuleeko muita parannnuksia? Tuleeko tuki AVX-512lle?
2) Miten TSMCn "7nm" valmistusprosessi oikeasti suoriutuu.

Mitä Inteliltä on tullut? Skylake-arkkitehtuuri käytössä kolmatta vuotta, AVX-512, Mesh interconnect ja vähän erilainen välimuistiratkaisu. Aika vähän.

Intel lupaa seuraavat parannukset: Cascade Lakeen tulee DL boost (Intel antaa ymmärttää sen olevan erilinen piiri) ja turvallisuusparannuksia. Cooper Lakeen tulee DL boostiin parannuksia ja ehkä saavat 8 muistikanavaa laitettua. Aika vähän.

Onhan sitä 14nm prosessia viilattu paremmaksi, tätä menoa se on kohta samalla tasolla kuin 10nm piti olla. Ei se loputtomiin kanna.

Se 64 ydintä on jo yksinään todella kova juttu kun Intelillä ei näytä olevan muuta tarjolla kuin pari pikkuparannusta ja 3 vuotta vanha arkkitehtuuri.

AMD:n kannalta SIMD yksiköiden levennys on puhtaasti design choice. AMD haluaa tehdä raskaat laskut näytönohjaimella, prosessorin yhteydessä olevalla tai erillisellä. Ei ihme vaikkei AMD leventäisi SIMD yksiköitä vieläkään edes Haswellin tasolle, jolloin olisivat yli 5 vuotta Inteliä "jäljessä".

Epyccin kannalta riittää hyvin pitkälle mikäli se 7nm prosessi tarjoaa tarpeeksi hyvät saannot ja kellotaajuudet eivät putoa nykyisestä. Aika pienet minimivaatimukset. Muut tuotteet eri asia.

Paljon parempi käyttää se työmäärä ja ne resurssit siihen, että testataan OMIA prosessoreita, ja etsitään niistä ne bugit ja ongelmat ennen kuin ne prossut julkaistaan tai ennen kuin joku muu löytää ne, jolloin voidaan selvitä korjauksista paljon halvammalla ja pienemmillä PR-tappioilla.

Kun katsoo historiaa taaksepäin, Intel on aina panostanut myös AMD:n haittaamiseen: Kääntäjä joka jättää ottamatta käskykantoja käyttöön ellei kyseessä ole Intelin prosessori (lakisyiden takia tällainen ei taida enää onnistua). Lahjotaan valmistajia jotta eivät käyttäisi AMD:ta (huono lahjoa nyt kun oma valmistuskapasiteetti ei riitä ja valmistajat haluavat jotain tuotteita tilalle). Muita keinoja? Etsiä AMD:n prosessoreista haavoittuvuuksia joiden korjaus hidastaa. Etsimällä omista prosessoreistaan haavoittuvuuksia Intel hidastuu AMD:n nähden. Intelin ainoa tapa saada omat prosessorinsa nopeammiksi AMD:n nähden on joko kehittää prosessoriarkkitehtuuriaan nopeammaksi (uutta arkkitehtuuria ei tule aikakaan kahteen vuoteen, eli ei ole vaihtoehto) tai hidastaa AMD:n prosessoreita. Siihen paras tapa on etsiä AMD:n prosessoreista haavoittuvuuksia.

Sitten on tämä CTS-labs, joka "löysi" AMD:n prosessoreista "haavoittuvuuksia". Kyseinen "yritys" ei ole saanut mitään aikaan sen jälkeen puolessa vuodessa, joten se oli näillä näkymin perustettu vain yhtä tarkoitusta varten, eli AMD:n dissaamiseen. Tuollainen homma ei ole ilmaista joten rahoittaja on joku rikas Intel-fanipoitsu :)D), osakemanipuloija (epäonnistui niin räikeästi ettei kovin uskottavaa) tai yritys joka haluaa tehdä AMD:lle haittaa. Ei ole todisteita mutta :think:
 
Samoin zen2sta ei tiedetä mitään muuta, kuin että ytimet lisääntyy.

Onko edes virallista tietoa vielä ulkona että coreja tulisi lisää? Meinaan Intelin kompastelujen takia AMD:llä ei välttämättä ole edes tarvetta vielä nostaa core määrää. Ja sekin on kai edelleen avoin kysymys että jos niitä coreja tulee lisää niin tuleeko nousemaan maksimi 48 vaiko 64.

Intelin ainoa tapa saada omat prosessorinsa nopeammiksi AMD:n nähden on joko kehittää prosessoriarkkitehtuuriaan nopeammaksi (uutta arkkitehtuuria ei tule aikakaan kahteen vuoteen, eli ei ole vaihtoehto) tai hidastaa AMD:n prosessoreita. Siihen paras tapa on etsiä AMD:n prosessoreista haavoittuvuuksia.

No ei Intelillä mikään tuomionpäivä ole edessään vaikka Rome julkaistaan. Xeonit on Romen julkaisun jälkeenkin parempia tiettyihin tilanteisiin kuin EPYC.

How Intel Xeon Changes Impacted Single Root Deep Learning Servers

Siinä esimerkiksi alue johon EPYC:n on hyvin vaikea päästä mukaan ja syy on selitetty sen verrasn hyvin että pitäisi jokaisen ymmärtää.
 
Onko edes virallista tietoa vielä ulkona että coreja tulisi lisää? Meinaan Intelin kompastelujen takia AMD:llä ei välttämättä ole edes tarvetta vielä nostaa core määrää. Ja sekin on kai edelleen avoin kysymys että jos niitä coreja tulee lisää niin tuleeko nousemaan maksimi 48 vaiko 64.

Eiköhän se coremäärä per CCX ole ajat sitten päätetty eikä sitä oikein voi pienentää muuten kuin disabloimalla ytimiä.

No ei Intelillä mikään tuomionpäivä ole edessään vaikka Rome julkaistaan. Xeonit on Romen julkaisun jälkeenkin parempia tiettyihin tilanteisiin kuin EPYC.

How Intel Xeon Changes Impacted Single Root Deep Learning Servers

Siinä esimerkiksi alue johon EPYC:n on hyvin vaikea päästä mukaan ja syy on selitetty sen verrasn hyvin että pitäisi jokaisen ymmärtää.

Tiettyihin tilanteisiin kyllä kuten sanoin. AMD:n tavoitteena ei olekaan mikään 100% markkinaosuus tässä tilanteessa. Monessa tilanteessa Intelillä ei ole jakoja edes nykyisiä Epyccejä vastaan hinta huomioiden ja Zen2 lisää niiden tilanteiden määrää.
 
Eiköhän se coremäärä per CCX ole ajat sitten päätetty eikä sitä oikein voi pienentää muuten kuin disabloimalla ytimiä.

Ei AMD:n ole mitään järkeä paukuttaa vain 16-coren sirua mikäli 64-coreen nousee maksimi. Eiköhän siellä ole nyt yhden sirun sijaan (tai 2 jos aput lasketaan mukaan) ole 2 sirua kypsymässä, eli 16 ja 8.
Kuten jo aiemmin sanoin niin on niitä markkinoita edelleen myös pinemmän coremäärän prosessoreille.
 
Ei AMD:n ole mitään järkeä paukuttaa vain 16-coren sirua mikäli 64-coreen nousee maksimi. Eiköhän siellä ole nyt yhden sirun sijaan (tai 2 jos aput lasketaan mukaan) ole 2 sirua kypsymässä, eli 16 ja 8.
Kuten jo aiemmin sanoin niin on niitä markkinoita edelleen myös pinemmän coremäärän prosessoreille.

Jotainhan siellä GlobalFoundriesilla piti valmistaa, joten vahva epäilys olisi sen 8-core sirun olleen GF:lle ajateltua. Sehän nähdään kun Zen2 Epyc tulee ulos. Jos tulee pelkkää 16-core sirua, se kertoo paljon.
 
Jotainhan siellä GlobalFoundriesilla piti valmistaa, joten vahva epäilys olisi sen 8-core sirun olleen GF:lle ajateltua. Sehän nähdään kun Zen2 Epyc tulee ulos. Jos tulee pelkkää 16-core sirua, se kertoo paljon.

Mikä estää valmistamasta myös 8-core sirua TSMC:llä?

Toki pienen coremäärän Rome prossuja voi ihan hyvin valmistaa 16-coren siruista myös jos saannot on niin huonot että sellaisia siruja tulee paljon joissa toimii vain vaikka pari corea per ccx, mutta varsinkin siinä vaiheessa kun saannot paranee niin ei ole mitään järkeä alkaa 16-coren sirulla valmistamaan 16-core EPYC jolloin jokaisesta 4 sirusta olisi 3/4 disabloitu.
 
Mikä estää valmistamasta myös 8-core sirua TSMC:llä?

Toki pienen coremäärän Rome prossuja voi ihan hyvin valmistaa 16-coren siruista myös jos saannot on niin huonot että sellaisia siruja tulee paljon joissa toimii vain vaikka pari corea per ccx, mutta varsinkin siinä vaiheessa kun saannot paranee niin ei ole mitään järkeä alkaa 16-coren sirulla valmistamaan 16-core EPYC jolloin jokaisesta 4 sirusta olisi 3/4 disabloitu.

Valmistuskapasiteetti. Ei AMD:n ole mitään järkeä tehdä 8-core Epyccejä 7nm:lla ennen kuin sillä 7nm tuotannolla pystyy korvaamaan kaikki 14nm Epycit. Se tapahtuu jossakin vaiheessa muttei heti.

Pienen coremäärän Rome prosessorit kisaisivat 14nm prosessorien kanssa, käytännössä korvaisi ne 1:1. Eli niitä 7nm prosessoreita pitää olla tarpeeksi korvaamaan 14nm prosessorien kysynnän ja lisäksi 14nm prosessoreita pitää olla varastossa vähän. Eli käytännössä ne huonosti toimivat sirut laitetaan sivuun odottelemaan sitä aikaa jolloin 7nm pikkusiruja saadaan tehtyä suuria määriä.

Nythän näyttää aika selkeästi siltä ettei AMD aikonut käyttää Ryzen/Threadrippereissä samoja siruja (valmistusteknisesti) mitä Epyceissä, koska Epyceistä ei ole eikä tule 12nm versiota.
 
Nythän näyttää aika selkeästi siltä ettei AMD aikonut käyttää Ryzen/Threadrippereissä samoja siruja (valmistusteknisesti) mitä Epyceissä, koska Epyceistä ei ole eikä tule 12nm versiota.

Tää nyt oli täysin tietoinen veto koska sillä "12nm" prosessilla ei olisi tuonne palvelinpuolelle saatu mitään lisäarvoa.
Lisäksi olisi taas pitänyt suorittaa kaikki validoinnit sun muu häsläys niin ei 12nm epyceissä olisi ollut mitään järkeä.
 
Tää nyt oli täysin tietoinen veto koska sillä "12nm" prosessilla ei olisi tuonne palvelinpuolelle saatu mitään lisäarvoa.
Lisäksi olisi taas pitänyt suorittaa kaikki validoinnit sun muu häsläys niin ei 12nm epyceissä olisi ollut mitään järkeä.

Olisihan sillä saatu pienennettyä virrankulutusta. Säätöä olisi totta kai tullut lisää ja juuri siksi päättivät jättää väliin ja tehdä palvelinprosessorit TSMC:n 7nm "mobiiliprosessilla".

Siltä pohjalta on helppo sanoa ettei AMD tee tuolla 7nm "mobiiliprosessilla" Ryzeneitä eikä Threadrippereitä.
 
Olisihan sillä saatu pienennettyä virrankulutusta. Säätöä olisi totta kai tullut lisää ja juuri siksi päättivät jättää väliin ja tehdä palvelinprosessorit TSMC:n 7nm "mobiiliprosessilla".

Siltä pohjalta on helppo sanoa ettei AMD tee tuolla 7nm "mobiiliprosessilla" Ryzeneitä eikä Threadrippereitä.

TSMCllä on "7nm" prosessista kaksi eri variaatiota (tai samalle prosessille kahdet eri kirjastot). Toinen on high performance, toinen low power.

Taiwan Semiconductor Manufacturing Company Limited

TSMC sanoi:
TSMC set another industry record by launching two separate 7nm FinFET tracks: one optimized for mobile applications, the other for high performance computing applications.

EPYCit ja Vegat (ja myöhemmin Ryzenit) tullaan valmistamaan tuolla High Performance-versiolla, ei sillä mobile-versiolla.

TSMCn "10nm" prosessista oli saatavilla ainostaan vähävirtainen versio, ei ollenkaan high performance-versiota.
 
Siltä pohjalta on helppo sanoa ettei AMD tee tuolla 7nm "mobiiliprosessilla" Ryzeneitä eikä Threadrippereitä.

Eh.. Onhan nämä nykyisetkin rysenit "mobiiliprosessilla" valmistettuja joten ei mikään estä niin tekemästä myös jatkossa.
Vai meinasitko että 2nd gen ryzenin ja seuraavan ryzenin väliin jäisi 2 vuoden väli julkaisussa? Jos se TSMC:n HPC prosessi on valmistumassa 2019H2 muistaakseni, niin seuraava ryzeni olisi siis tulossa 2020H1.
Lisäksi toi HPC prosessi on todennäköisesti huomattavasti kalliimpi per kiekko, niin onko sillä edes järkeä alkaa ryseniä valmistamaan heti alkuun, vai olisiko sillä parempi sitten vääntää taskulaskimia datacenter puolelle ensin jolloin rysenien julkaisu viivästyisi entisestään.
 
Eh.. Onhan nämä nykyisetkin rysenit "mobiiliprosessilla" valmistettuja joten ei mikään estä niin tekemästä myös jatkossa.
Vai meinasitko että 2nd gen ryzenin ja seuraavan ryzenin väliin jäisi 2 vuoden väli julkaisussa? Jos se TSMC:n HPC prosessi on valmistumassa 2019H2 muistaakseni, niin seuraava ryzeni olisi siis tulossa 2020H1.
Lisäksi toi HPC prosessi on todennäköisesti huomattavasti kalliimpi per kiekko, niin onko sillä edes järkeä alkaa ryseniä valmistamaan heti alkuun, vai olisiko sillä parempi sitten vääntää taskulaskimia datacenter puolelle ensin jolloin rysenien julkaisu viivästyisi entisestään.

Mitään GFn IBMltä perityn "14HP"n tyylistä todella kallista prosessia ei TSMCltä ole tulossa. Sieltä on jo ulkona "7nm" prossessista kaksi eri variaatiota, HP ja mobile.

Ja ensi vuonna on luvattu "7nm+" jossa käytetään EUV-laitteistoa.
Siitä todennäköisesti tulee samat kaksi variaatiota.

"7nm" ryzenit zen2-mikroarkkitehtuurilla nähtäneen keväällä, viimeistään kesällä, EPYCit varmaan muutama kuukausi aiemmin, molemmat "7nm" prosessin HP-variaatiolla.
 
Mitään GFn IBMltä perityn "14HP"n tyylistä todella kallista prosessia ei TSMCltä ole tulossa. Sieltä on jo ulkona "7nm" prossessista kaksi eri variaatiota, HP ja mobile.

Ja ensi vuonna on luvattu "7nm+" jossa käytetään EUV-laitteistoa.
Siitä todennäköisesti tulee samat kaksi variaatiota.

"7nm" ryzenit zen2-mikroarkkitehtuurilla nähtäneen keväällä, viimeistään kesällä, EPYCit varmaan muutama kuukausi aiemmin, molemmat "7nm" prosessin HP-variaatiolla.

No en mene väittämään mutta jostain muistan lukeneeni että HPC olisi tuotannossa vasta 2019H1 tai H2. Koitin ettiä mistä luin mutta en löytänyt.
Mutta joo se TSMC:n HPC ei ole mitenkään merkittävä hyppy ja sillä tuskin mitään 5GHz kelloja tullaan saavuttamaan.
 
TSMCllä on "7nm" prosessista kaksi eri variaatiota (tai samalle prosessille kahdet eri kirjastot). Toinen on high performance, toinen low power.

Taiwan Semiconductor Manufacturing Company Limited



EPYCit ja Vegat (ja myöhemmin Ryzenit) tullaan valmistamaan tuolla High Performance-versiolla, ei sillä mobile-versiolla.

TSMCn "10nm" prosessista oli saatavilla ainostaan vähävirtainen versio, ei ollenkaan high performance-versiota.

En tiennyt tuon "low powerin tarkkaa nimeä joten puhuin "mobiiliprosessista".

Se HP versio on jo tuotannossa? Muuttaa monta asiaa jos niin on. Kuulostaa hyvältä mikäli Ryzenit saadaan ulos keväällä, vaikka edelleen epäilen sitä koska 16-core versioista tulee kalliiksi tehdä Ryzeneitä.

Eh.. Onhan nämä nykyisetkin rysenit "mobiiliprosessilla" valmistettuja joten ei mikään estä niin tekemästä myös jatkossa.
Vai meinasitko että 2nd gen ryzenin ja seuraavan ryzenin väliin jäisi 2 vuoden väli julkaisussa? Jos se TSMC:n HPC prosessi on valmistumassa 2019H2 muistaakseni, niin seuraava ryzeni olisi siis tulossa 2020H1.
Lisäksi toi HPC prosessi on todennäköisesti huomattavasti kalliimpi per kiekko, niin onko sillä edes järkeä alkaa ryseniä valmistamaan heti alkuun, vai olisiko sillä parempi sitten vääntää taskulaskimia datacenter puolelle ensin jolloin rysenien julkaisu viivästyisi entisestään.

Eipä estä muttei se optimaalisin vaihtoehto ole.

Eiköhän tuohon aikaan saada sieltä tavaraa ulos. TSMC lupaa tiedotteessa 7nm+:n riskituotannon alkavan näihin aikoihin, eli massatuotanto joskus vuoden päästä. Aika omituinen aikataulu aloittaa 7nm HP prosessin massatuotanto muutamaa kuukautta aiemmin kuin 7nm+:n vastaava...

No en mene väittämään mutta jostain muistan lukeneeni että HPC olisi tuotannossa vasta 2019H1 tai H2. Koitin ettiä mistä luin mutta en löytänyt.
Mutta joo se TSMC:n HPC ei ole mitenkään merkittävä hyppy ja sillä tuskin mitään 5GHz kelloja tullaan saavuttamaan.

Kuten ylempänä: 7nm+ massatuotanto noin Q3-Q4/2019 ja 7nm HP massatuotanto H2/2019 ei kuulosta uskottavalta.

Kun "14nm mobiili" pääsee 4 GHz ja "12nm mobiili" 4,4 GHz, ei "7nm mobiili+":lla 5 GHz ole mikään ihmeellinen asia.
 
Kuten ylempänä: 7nm+ massatuotanto noin Q3-Q4/2019 ja 7nm HP massatuotanto H2/2019 ei kuulosta uskottavalta.

En muista oliko H1 vai H2 mutta 7nm+ on käsittääkseni EUV ja saa nähä että tuleeko se toteutumaan. Toi EUV on tuntunut olevan melkoinen akilleen kantapää, sitä on jo niin pitkään yritetty saada toimimaan.

Kun "14nm mobiili" pääsee 4 GHz ja "12nm mobiili" 4,4 GHz, ei "7nm mobiili+":lla 5 GHz ole mikään ihmeellinen asia.

Tuolla ajatusmallilla esim. Intelin 14nm prosessin pitäisi toimia 10GHz nopeudella.

Sinä unohdat nyt kokonaan sen että aina kun mennään pienempään ja tiheämpään valmistusprosessiin niin se tuo lisää haasteita.
Kyllä sille ihan fysiikasta löytyy syyt miksei kellot ole juurikaan kasvaneet.
 
En muista oliko H1 vai H2 mutta 7nm+ on käsittääkseni EUV ja saa nähä että tuleeko se toteutumaan. Toi EUV on tuntunut olevan melkoinen akilleen kantapää, sitä on jo niin pitkään yritetty saada toimimaan.

Noin lähekkäin niitä tuskin kannattaa edes lupailla. Tuolla toisaalla sanottiin 7nm HP:n massatuotannon alkaneen jo pari kuukautta sitten. Eli joku lähde/spekulaatio on väärässä.

Tuolla ajatusmallilla esim. Intelin 14nm prosessin pitäisi toimia 10GHz nopeudella.

Sinä unohdat nyt kokonaan sen että aina kun mennään pienempään ja tiheämpään valmistusprosessiin niin se tuo lisää haasteita.
Kyllä sille ihan fysiikasta löytyy syyt miksei kellot ole juurikaan kasvaneet.

Mikä siinä 5 GHz:n kellotaajuudessa on olevinaan niin ihmeellistä? Se että AMD sai Ryzenistä irti 14nm LPP:lla 4 GHz on paljon suurempi ihme kuin Zen2:n yltäminen 5 GHz:n.

Ne syyt löytyvät enemmän prosessoreista kuin valmistustekniikasta.

Intel pääsi 3,8 GHz:n kellotaajuuteen 90nm tekniikalla 2005, se oli 13(!) vuotta sitten.

AMD sai 8-ytimisen 32nm prosessorin 4,3 GHz:n 2013, siitäkin on 5 vuotta. Niitä superkellotettuja FX-9jotain ei viitsi tähän laskea.

Kun pysytään arkkitehtuureissa joissa ei ole ihan niin paljoa kellotaajuuksien hakuun panostettu:

AMD sai 4 GHz turbokellot valmistusprosessilla jonka pitäisi törmätä seinään 3,3 GHz:n paikkeilla.

Intelin puolelta 65nm (2007) 3 GHz. 45nm (2009) 3,5 GHz. 32nm (2011) tekniikalla 4 GHz. Sen jälkeen tulivat vuoden 2014 22nm (4,4 GHz) ja vuonna 2018 viritelty 14nm antoi 5 GHz. Intelin 10nm piti olla vastaava kuin TSMC:n 7nm. Jokainen "uusi node" näyttää hyvin tasaisesti antavan noin puoli gigahertsiä lisää. Kellotaajuuksien kasvu ei tuolla perusteella ole hidastunut vaan pysynyt samana pidemmän aikaa.

Edit: lisätty Core 2:t mukaan.
 
Viimeksi muokattu:
´
Tuolla toisaalla sanottiin 7nm HP:n massatuotannon alkaneen jo pari kuukautta sitten. Eli joku lähde/spekulaatio on väärässä.

Hyvä niin jos on jo toiminnassa mutta ei kannata odottaa siitä mitään sateentekijää, kuten hkultala mainitsi niin on joku kirjasto muutos vain, ei siis täysin oma valmistusprosessinsa.
Eli ei voi verratan mihinkään GF:n IBM:ltä perittyyn 14nm HP prosessiin.

Mikä siinä 5 GHz:n kellotaajuudessa on olevinaan niin ihmeellistä? Se että AMD sai Ryzenistä irti 14nm LPP:lla 4 GHz on paljon suurempi ihme kuin Zen2:n yltäminen 5 GHz:n.

Toki se voidaan saavuttaa mutta onko se kustannustehokasta on sitten eri juttu. Esim. se GF:n IBM:ltä peritty 14nm valmistustekniikka on erittäin kallis valmistaa siruja kun on 17 kerroksinen.
GlobalFoundries Weds FinFET and SOI in 14HP Process Tech for IBM z14 CPUs
Lisäksi kirjasto on 12T eli piirin koko kasvaisi jonkin verran jos ryseniä tuolla valmistettaisiin joka entisestään lisäisi kustannuksia.

Intelin 10nm piti olla vastaava kuin TSMC:n 7nm. Jokainen "uusi node" näyttää hyvin tasaisesti antavan noin puoli gigahertsiä lisää.

Vaan kun yksi 10nm ongelma huhujen mukaan on juuri se ettei päästä samoihin kelloihin kuin erittäin hyväksi hiotulla 14nm++ prosessilla. Siitä ei ole tihkunut tietoja että kuinka kaukana ovat mutta ilmeisesti liian kaukana kun mitään järkevää tuolla 10nm ei ole saatu julkaistua.

Kellotaajuuksien kasvu ei tuolla perusteella ole hidastunut vaan pysynyt samana pidemmän aikaa.

Satutko muistamaan millaista se nousukiito oli kun ensimmäinen kikaherzi rikottiin? Tultiin 4kikaherziin melko vauhdilla. ja eikös noi Intelin 2600K jo kulkenu sen 5GHz, ei toki kaikki mutta eihän kaikki 7700K prossutkaan 5GHz riko. 8700K jos olisi juotettu niin siitä voisi jo melkein sanoa että kaikki sen rikkoo ainakin yhdellä corella.
Eli siis noin 7,5v sitten on tuo maaginen 5 gigaherziä ollut ihan saavutettavissa ja edelleen sitä juhlitaan kuin jotain graalinmaljaa kun se saavutetaan. Joten kyllä se kikaherzi race on hidastunut huomattavasti.

Siitä nousukiidosta vielä. Vuonna 2000 Intel julkaisi P3 kuparimiinan joka meni kikaherzin. Viitisen vuotta myöhemmin hätyyteltiin P4:n kanssa jo 4GHz haamurajaa.
Sitten siirryttiin Core 2 aikakauteen ja kellot meni täysin uusiksi ja lähdettiin taas 2,5GHz tienoilta kipuamaan ylöspäin ja 2011 julkaistiin 2600K Joka on ilmoitettu 3,6GHz mutta sillä rikottiin 5GHz kellotettuna.
En jaksa kaivella että mihin noi muut kellottui, mutta muistaakseni P4:ssa ei paljoa löysää ollut. Kävivät jo vakiona todella kuumina. Core 2 taisi kellottua suht hyvin.
 
Hyvä niin jos on jo toiminnassa mutta ei kannata odottaa siitä mitään sateentekijää, kuten hkultala mainitsi niin on joku kirjasto muutos vain, ei siis täysin oma valmistusprosessinsa.
Eli ei voi verratan mihinkään GF:n IBM:ltä perittyyn 14nm HP prosessiin.

Tuosta on monenlaista juttua ollut koska AMD eikä TSMC ei ole varmistanut oikeastaan mitään asioita. Käytännössä kaikki on jonkinsteista spekulaatiota.

Toki se voidaan saavuttaa mutta onko se kustannustehokasta on sitten eri juttu. Esim. se GF:n IBM:ltä peritty 14nm valmistustekniikka on erittäin kallis valmistaa siruja kun on 17 kerroksinen.
GlobalFoundries Weds FinFET and SOI in 14HP Process Tech for IBM z14 CPUs
Lisäksi kirjasto on 12T eli piirin koko kasvaisi jonkin verran jos ryseniä tuolla valmistettaisiin joka entisestään lisäisi kustannuksia.

Intel pääsee 5 GHz:n tekniikalla joka paperilla on huonompi kuin TSMC:n 7nm tekniikka. Mikään ei viittaa siihen ettei Ryzen kellottuisi vähintään yhtä hyvin kuin Intel samalla valmistustekniikalla tehtynä. Eli jos TSMC:n tekniikka kellottuu edes yhtä hyvin kuin Intelin 14nm++ (joka ei olisi mikään ihme), Zen2 saavuttaa sen 5 GHz. Turbokelloista tässä spekuloitiin koska 5 GHz 8 ytimelle voi tarkoittaa melkoista lämmöntuottoa.

Vaan kun yksi 10nm ongelma huhujen mukaan on juuri se ettei päästä samoihin kelloihin kuin erittäin hyväksi hiotulla 14nm++ prosessilla. Siitä ei ole tihkunut tietoja että kuinka kaukana ovat mutta ilmeisesti liian kaukana kun mitään järkevää tuolla 10nm ei ole saatu julkaistua.

Eihän sillä tarvitsisi päästä hyviin kelloihin kun voisivat hyvin tehdä vaikka läppäreihin tai palvelimiin vähävirtaisia prosessoreita jotka eivät korkeita kellotaajuuksia tarvitse. Kun eivät saa ulos muuta kuin kuin 2-ytimisiä, ei tuollaista prosessia kannata mihinkään vertailuihin käyttää.

Satutko muistamaan millaista se nousukiito oli kun ensimmäinen kikaherzi rikottiin? Tultiin 4kikaherziin melko vauhdilla. ja eikös noi Intelin 2600K jo kulkenu sen 5GHz, ei toki kaikki mutta eihän kaikki 7700K prossutkaan 5GHz riko. 8700K jos olisi juotettu niin siitä voisi jo melkein sanoa että kaikki sen rikkoo ainakin yhdellä corella.
Eli siis noin 7,5v sitten on tuo maaginen 5 gigaherziä ollut ihan saavutettavissa ja edelleen sitä juhlitaan kuin jotain graalinmaljaa kun se saavutetaan. Joten kyllä se kikaherzi race on hidastunut huomattavasti.

Siitä nousukiidosta vielä. Vuonna 2000 Intel julkaisi P3 kuparimiinan joka meni kikaherzin. Viitisen vuotta myöhemmin hätyyteltiin P4:n kanssa jo 4GHz haamurajaa.
Sitten siirryttiin Core 2 aikakauteen ja kellot meni täysin uusiksi ja lähdettiin taas 2,5GHz tienoilta kipuamaan ylöspäin ja 2011 julkaistiin 2600K Joka on ilmoitettu 3,6GHz mutta sillä rikottiin 5GHz kellotettuna.
En jaksa kaivella että mihin noi muut kellottui, mutta muistaakseni P4:ssa ei paljoa löysää ollut. Kävivät jo vakiona todella kuumina. Core 2 taisi kellottua suht hyvin.

Muistan totta kai. Tuohon aikaan myös valmistustekniikat kehittyivät huomattavasti nopeammin eikä tarvittu markkinointilukuja kertomaan kuinka on niin paljon parempaa vaikkei olisikaan. Ja totta kai kehityskin on nopeampaa kun lähtökohta on karumpi kuin se nykyisin on.

5 GHz meni rikki jo Pentium 4:n aikoihin (eli noin 15 vuotta sitten). Ne Pentium 4:t olivatkin suunniteltu saavuttamaan korkeita kellotaajuuksia muiden asioiden kustannuksella, joten en niitä noihin esimerkkeihin ottanutkaan. Enkä myöskään ylikellotettuyja prosessoreita ylipäätään.

Pentium 4:ssa oli kellotuksen suhteen varaa, virrankulutus oli se ongelma. Samaa ongelmaa oli AMD:n FX-sarjassa Bulldozerilla ja Piledriverillä.

Kun jätetään pois FX:t ja Pentium 4:t (ja siten helpompi katsoa Inteliä), niin tuossa edellisessä viestissä näytin kuinka se puoli gigahertsia tulee lisää kun vaihdetaan nodea. Valitettavasti ei ole mitään vertailukohtaa TSMC:n prosesseille koska niillä ei pahemmin isompia prosessoreita ole valmistettu.
 
5 GHz meni rikki jo Pentium 4:n aikoihin (eli noin 15 vuotta sitten). Ne Pentium 4:t olivatkin suunniteltu saavuttamaan korkeita kellotaajuuksia muiden asioiden kustannuksella, joten en niitä noihin esimerkkeihin ottanutkaan. Enkä myöskään ylikellotettuyja prosessoreita ylipäätään.

Meni rikki miten, millaisella jäähdytyksellä? Muistelen että porukka kirosi noitten pena 4 kanssa että vaikka on vesillä niin ei oikein kellottaa voi.
 
Meni rikki miten, millaisella jäähdytyksellä? Muistelen että porukka kirosi noitten pena 4 kanssa että vaikka on vesillä niin ei oikein kellottaa voi.

Hyvällä vesijäähyllä 5 GHz ei ollut kovin ihmeellistä. Lämmöntuotto Prescottissa oli ongelma jo vakiona joten ilmajäähyllä kunnon kellotus oli aika epätoivoista.

Näköjään FX-prosessori (32nm) on saatu kellotettua 1,3 GHz korkeammalle ja Pentium D (65nm) gigahertsin korkeammalle kuin mikään Core-pohjainen 14nm prosessori. Nämä extremejähyillä (nestetyppi/helium), eli prosessorin arkkitehtuurikin vaikuttaa aika paljon.
 
Hyvällä vesijäähyllä 5 GHz ei ollut kovin ihmeellistä. Lämmöntuotto Prescottissa oli ongelma jo vakiona joten ilmajäähyllä kunnon kellotus oli aika epätoivoista.

Näköjään FX-prosessori (32nm) on saatu kellotettua 1,3 GHz korkeammalle ja Pentium D (65nm) gigahertsin korkeammalle kuin mikään Core-pohjainen 14nm prosessori. Nämä extremejähyillä (nestetyppi/helium), eli prosessorin arkkitehtuurikin vaikuttaa aika paljon.

Tässä nyt hetken aikaa ketjua seuranneena, niin pakko kysyä, että vänkäätkö ihan vain vänkäämisen ilosta? :D
 
Tässä nyt hetken aikaa ketjua seuranneena, niin pakko kysyä, että vänkäätkö ihan vain vänkäämisen ilosta? :D

Jotkut sanovat ettei Zen2 voi millään kellottua 5 GHz:n järkevillä lämmöntuotoilla koska TSMC:n prosessi on "huono". Minun mielestäni se saa olla todella huono ellei Zen2 yllä samaan mihin Core ix yltää 14nm:lla. Ryzeninkin piti jäädä johonkin 3,3-3,5 GHz:n paikkeille.

Tuossa lainatussa viestissä esimerkkinä kuinka 65nm prosessori kellottuu paljon paremmin kuin 14nm.
 
Jotkut sanovat ettei Zen2 voi millään kellottua 5 GHz:n järkevillä lämmöntuotoilla koska TSMC:n prosessi on "huono". Minun mielestäni se saa olla todella huono ellei Zen2 yllä samaan mihin Core ix yltää 14nm:lla. Ryzeninkin piti jäädä johonkin 3,3-3,5 GHz:n paikkeille.

Tuossa lainatussa viestissä esimerkkinä kuinka 65nm prosessori kellottuu paljon paremmin kuin 14nm.

Voihan se toki kulkeakin, sen kun tietäisi. Itse ajelen vanhalla I7 6700k & GTX1080 ja prossu olisi menossa vaihtoon, josko jostain järkevän hintaista saisi. Tällä hetkellä AMD ei vaihtoehto.
 
Voihan se toki kulkeakin, sen kun tietäisi. Itse ajelen vanhalla I7 6700k & GTX1080 ja prossu olisi menossa vaihtoon, josko jostain järkevän hintaista saisi. Tällä hetkellä AMD ei vaihtoehto.

AMD ei ole Zen2:sta kertonut oikeastaan mitään. Itse odottelen Zen2:ta PCIe 4.0:n takia. Koska AMD ei ole sitäkään vahvistanut, voi olla turha odotus :think:
 
Jotkut sanovat ettei Zen2 voi millään kellottua 5 GHz:n järkevillä lämmöntuotoilla koska TSMC:n prosessi on "huono". Minun mielestäni se saa olla todella huono ellei Zen2 yllä samaan mihin Core ix yltää 14nm:lla. Ryzeninkin piti jäädä johonkin 3,3-3,5 GHz:n paikkeille.

Tuossa lainatussa viestissä esimerkkinä kuinka 65nm prosessori kellottuu paljon paremmin kuin 14nm.

Sä ohitat kokonaan sen että mitä pienemmäksi mennään niin sen hankalammaksi virransyöttö tulee ja kun polut on hyvin lähellä toisiaan niin ns. hyppysähkö efectiä alkaa esiintymään entistä herkemmin. Tätä vastaan voidaan tapella sillä että lisätään niitä kerroksia jossa signaalia kuskataan mutta se taas kasvattaa valmistuskustannuksia. Esim. tuosta Intelin 14nm prosessista en ainakaan itte ole törmännyt mihinkään artikkeliin jossa kerrottaisiin että kuinka montaa kerrosta Intel käyttää. TSMC:n prosessista tiedetään että käyttää 13 voi olla esim. että Intelin prosessissa käytetään enemmän ja voisi olla yksi syy miksi Intel ei ole kovin halukas laskemaan hintoja.

Oletko missään vaiheessa miettinyt että miksei enää ole LN2 kellotuksissa nähty mitään maagisia 8GHz ylityksiä? Voisiko sillä olla mitään tekemistä etytä viivanleveys on supistunut ja kaikki on entistä tiivimmässä nipussa?
 
AMD ei ole Zen2:sta kertonut oikeastaan mitään. Itse odottelen Zen2:ta PCIe 4.0:n takia. Koska AMD ei ole sitäkään vahvistanut, voi olla turha odotus :think:

Ja mitä se PCIe 4.0 tuo sellaista mitä ei jo nyt olisi näin tavan kotikäyttäjälle?

Vega 20 tulee olemaan PCIe 4.0 kortti aika suurella todennäköisyydellä koska linux kerneliin se on jo sellaisenan lisätty, joten olettaisin kyllä että Rome ja Zen 2 tulee olemaan myös PCIe 4.0 tuella.

Mutta aika vähän kotikäytössä tuosta on hyötyä kun ei edes 3.0 x16 väylästä saada kuin puolet tukittua. (Tämä näkyi jossain näyttis testissä jossa pcie 3.0 8x ja 16x välillä ei ollut juurikaan mitään eroa)
 
Ja mitä se PCIe 4.0 tuo sellaista mitä ei jo nyt olisi näin tavan kotikäyttäjälle?

Vega 20 tulee olemaan PCIe 4.0 kortti aika suurella todennäköisyydellä koska linux kerneliin se on jo sellaisenan lisätty, joten olettaisin kyllä että Rome ja Zen 2 tulee olemaan myös PCIe 4.0 tuella.

Mutta aika vähän kotikäytössä tuosta on hyötyä kun ei edes 3.0 x16 väylästä saada kuin puolet tukittua. (Tämä näkyi jossain näyttis testissä jossa pcie 3.0 8x ja 16x välillä ei ollut juurikaan mitään eroa)

Jos aiotaan multiGPU leikkiä PCIe väylän kautta, niin mikään olemassaoleva ratkaisu ei ole riittävän nopea.

Ja mitä pienempien viivanleveyksien kelloihin tulee, niin pahimmillaan voi käydä niin, että haitat peittoavt hyödyt, eli on saavutettu suurinpiirtein se kellojen maksimi, jolloin kelloja on nostettava logiikan rakennemuutoksilla.

Zen2:n näkee sitten, kun se tulee, ei aiemmin.
 
Sä ohitat kokonaan sen että mitä pienemmäksi mennään niin sen hankalammaksi virransyöttö tulee ja kun polut on hyvin lähellä toisiaan niin ns. hyppysähkö efectiä alkaa esiintymään entistä herkemmin. Tätä vastaan voidaan tapella sillä että lisätään niitä kerroksia jossa signaalia kuskataan mutta se taas kasvattaa valmistuskustannuksia. Esim. tuosta Intelin 14nm prosessista en ainakaan itte ole törmännyt mihinkään artikkeliin jossa kerrottaisiin että kuinka montaa kerrosta Intel käyttää. TSMC:n prosessista tiedetään että käyttää 13 voi olla esim. että Intelin prosessissa käytetään enemmän ja voisi olla yksi syy miksi Intel ei ole kovin halukas laskemaan hintoja.

Oletko missään vaiheessa miettinyt että miksei enää ole LN2 kellotuksissa nähty mitään maagisia 8GHz ylityksiä? Voisiko sillä olla mitään tekemistä etytä viivanleveys on supistunut ja kaikki on entistä tiivimmässä nipussa?

Tuo ja moni muu asia tulee olemaan ongelma jossakin vaiheessa. Tässä vaiheessa mikään ei viittaa sen olevan merkittävästi rajoittava tekijä. Ainoa mikä tuohon voisi viitata on Intelin 10nm prosessi. Mutta koska prosessin ongelmana eivät ole kellotaajuudet vaan saannot, ei siitäkään mitään voi päätellä. Intel ei koskaan ole ollut halukas laskemaan hintoja. Ei edes silloin kun AMD:lla on parempi vaihtoehto jokaiseen hintaluokkaan.

Tekemistä on sillä ettei nykyisiä prosessoreita ole tehty korkeita kellotaajuuksia varten. Tästähän on hyvä vertailukohta: Intel valmisti 65nm prosessilla sekä Core 2 Duo:a että Pentium 4:a. Core 2 Duo:n (65nm siis) maksimikellotus nestetypellä (tai heliumilla, ihan sama) näyttäisi olevan 5906,5 MHz kun taas Celeron D:lla ennätys on 8543,7 MHz. Eli arkkitehtuurin vaihto vaikutti 2,65 GHz verran kun valmistustekniikka pidettiin samana :kahvi: Ja kun laitettiin selvästi tiiviimpään nippuun (AMD 32nm SOI), FX-8370 kellotettiin The Stiltin toimesta vielä korkeammalle, 8722,8 MHz:n :cigar:

Joten sillä tiiviimmässä nipussa olemisella ei ole merkittävässä määrin tekemistä asian kanssa. Prosessorin arkkitehtuurilla sen sijaan on.

Ja mitä se PCIe 4.0 tuo sellaista mitä ei jo nyt olisi näin tavan kotikäyttäjälle?

Vega 20 tulee olemaan PCIe 4.0 kortti aika suurella todennäköisyydellä koska linux kerneliin se on jo sellaisenan lisätty, joten olettaisin kyllä että Rome ja Zen 2 tulee olemaan myös PCIe 4.0 tuella.

Mutta aika vähän kotikäytössä tuosta on hyötyä kun ei edes 3.0 x16 väylästä saada kuin puolet tukittua. (Tämä näkyi jossain näyttis testissä jossa pcie 3.0 8x ja 16x välillä ei ollut juurikaan mitään eroa)

Nopeampia SSD levyjä.

Siinäpä se, tuo Vega 20:n PCIe 4.0 tuki viittaa vahvasti Zen2:sta löytyvän saman. Mutta virallinen tieto, se puuttuu :hammer: Zenin kanssa AMD jakoi hyvin auliisti tietoa, nyt on ihan eri meininki.
 

Uusimmat viestit

Statistiikka

Viestiketjuista
295 893
Viestejä
5 055 251
Jäsenet
80 998
Uusin jäsen
Houzei

Hinta.fi

Back
Ylös Bottom