Virallinen: AMD vs Intel keskustelu- ja väittelyketju

  • Keskustelun aloittaja Keskustelun aloittaja Sampsa
  • Aloitettu Aloitettu
Ne "5nm" ja "3nm" on puhtaita markkinointinimiä. Niillä ei ole mitään tekemistä minkään sen valmistusprosessin fyysisten ominaisuuksien tai suorituskyvyn kanssa. Markkinointi voi aina keksiä uusia numeroita, eikä se ole kovin vaikeaa.

Niin olenko minä väittänyt jossain että noi luvut olisi todellisia? Intelin 7nm tiedetään sen verran että ovat sanoneet ettei yhtä agressiivista shrinkkiä lähetä hakemaan kuin 10nm kanssa on vuosi tolkulla nyt yritetty. Jotain sentään opittu.

Pointti on se että Intelillä ollut etumatka valmistusprosessissa on nyt kurottu umpeen muiden toimesta.

Ja se on ihan sinua lainatakseni "EVVK" jos Intel on julkaissut jonkun 2-core tuhnun 10nm. Vastaavasti TSMC on samplannut Rome ja 7nm Vegaa jo jonkin aikaa jota pidän huomattavasti suurempana saavutuksena kuin noita 2-core tuhnuja.
Toi 7nm Vega esim on hiukan toista kokoluokkaa kuin joku 2-core tuhnu, eli TSMC on varsin pitkällä tuon prosessinsa kanssa ainakin omasta mielestäni kun tuon kokoluokan piiriä samplataan ja myyntiin olisi AMD:n mukaan tulossa vielä vuoden lopulla.
 
Niin olenko minä väittänyt jossain että noi luvut olisi todellisia? Intelin 7nm tiedetään sen verran että ovat sanoneet ettei yhtä agressiivista shrinkkiä lähetä hakemaan kuin 10nm kanssa on vuosi tolkulla nyt yritetty. Jotain sentään opittu.

Pointti on se että Intelillä ollut etumatka valmistusprosessissa on nyt kurottu umpeen muiden toimesta.

Ja se on ihan sinua lainatakseni "EVVK" jos Intel on julkaissut jonkun 2-core tuhnun 10nm. Vastaavasti TSMC on samplannut Rome ja 7nm Vegaa jo jonkin aikaa jota pidän huomattavasti suurempana saavutuksena kuin noita 2-core tuhnuja.
Toi 7nm Vega esim on hiukan toista kokoluokkaa kuin joku 2-core tuhnu, eli TSMC on varsin pitkällä tuon prosessinsa kanssa ainakin omasta mielestäni kun tuon kokoluokan piiriä samplataan ja myyntiin olisi AMD:n mukaan tulossa vielä vuoden lopulla.

"Samplaaminen" on aivan eri juttu kuin myynnissä olevan tuotteen valmistaminen.

Tuotetta voidaan välillä samplata vaikka pari vuotta, kunnes se saadaan oikeasti toimimaan , ja riittävillä saannoilla ja suorituskyvyllä myyntikuntoon.

Tyypillisesti ensimmäiset samplet tulee melkein vuosi ennen tuotteen julkaisua, mutta bugien tai muiden ongelmien takia voi joskus mennä selvästi kauemminkin.

Että jospa kuitenkin puhuttaisiin siitä TSMCn "7nm" prosessin ylivoimaisuudesta ja toimivuudesta intelin "10nm" prosessiin nähden vasta kun ne sillä tehdyt tuotteet on oikeasti markkinoilla.
 
Että jospa kuitenkin puhuttaisiin siitä TSMCn "7nm" prosessin ylivoimaisuudesta ja toimivuudesta intelin "10nm" prosessiin nähden vasta kun ne sillä tehdyt tuotteet on oikeasti markkinoilla.

Sopii minulle jos sinulle sopii se että mitään 2-core tuhnuja ei myöskään oteta laskuihin.
 
"Samplaaminen" on aivan eri juttu kuin myynnissä olevan tuotteen valmistaminen.

Tuotetta voidaan välillä samplata vaikka pari vuotta, kunnes se saadaan oikeasti toimimaan , ja riittävillä saannoilla ja suorituskyvyllä myyntikuntoon.

Tyypillisesti ensimmäiset samplet tulee melkein vuosi ennen tuotteen julkaisua, mutta bugien tai muiden ongelmien takia voi joskus mennä selvästi kauemminkin.

Että jospa kuitenkin puhuttaisiin siitä TSMCn "7nm" prosessin ylivoimaisuudesta ja toimivuudesta intelin "10nm" prosessiin nähden vasta kun ne sillä tehdyt tuotteet on oikeasti markkinoilla.

Tämä lienee jo nähty, mutta laitanpa silti:
TSMC Kicks Off Volume Production of 7nm Chips
Siitä ehkä kiinnostavin kappale:
“So far, we have already favored out more than 18 customer products with good yield [and] performance,” said C. C. Wei, a Co-CEO and President of TSMC, during a conference call with financial analysts. “More than 50 products tape-outs has been planned by end of this year from applications across mobile, server CPU, network processor, gaming, GPU, PGA, cryptocurrency, automotive and AI. Our 7nm is already in volume production.”
(Tuo C.C Wei:n kommentti 7nm:n palvelin-CPU:ista oli mielenkiintoinen. Liekö paljoa muita vaihtoehtoja kuin EPYC?)

Huomattavaa on, että TSMC tekee nyt noita kiviä hyvin laajalle segmentille. Myös minun mielestäni jonkun verran hiusten halkomista vetää joku Core i3-8121U perusteeksi Intelin 10nm kyvykkyydestä. Kyseesä on ihan mopotuote: dual-core, 2,2GHz, max turbo 3,1GHz, eikä iGPU:ta. Tuotteen ominaisuuksissa ei ole mitään perustetta 10nm-prosessin käytölle. Akkukestoksikin luvataan näköjään vain 5h. Tuo näyttää enemmänkin heikolta yritykseltä pelastaa edes osa kasvoista sen vuosia jatkuneen 10nm-lupailun jälkeen (se "10nm tuotteita jo myynnissä"-argumentti). Saannot on tosiaan myös vielä mitä sattuu kun muuta 10nm-tavaraa ei ole tarjolla. Veikkaisin että TSMC olisi hyvin voinut myös julkaista jonkun vastaavan höpönlöpön tuotteen aikaa sitten kun kerta yllä mainittu määrä oikeasti high-end massamarkkinatuotteita (esim. se 855) on nyt tulossa heillä tuotantoon (tai jo on).

Itse en kyllä ihan noin vahvasti liputtaisi Intelin prosessikyvykkyydestä nykytietämyksen valossa. Mutta tosiaan katsotaan sitten kun näkyy kummankin tuotteita markkinoilla. Intelin tämän hetken tarjontaa ei ole ainakaan vaikea pestä ja ajatushan tässä varmaan oli että kummalla on parempi 7/10nm prosessi ja nimenomaan kenellä se on high-end-massatuotantoon toimintakypsä aiemmin. Intel voi tuoda paremman prosessin ensi vuonna, mutta TSMC lupailee sinne jo EUVL:ää eli hedän termeillään 7FF+.

Ja niistä 3nm/5nm-markkinointitermeistä, niin ei se IBM:kään nyt ihan n00b ole. Vaikka matkaa varmasti on, niin tämä nyt vain tuli jostain muualta kuin Inteliltä:
IBM unveils world’s first 5nm chip
Ja tuossa on jo melko iso muutos verrattuna nykyiseen FinFetiin. Varmaan tuostakin kiekosta voisi ottaa muutaman piirin ja myydä ne "ensimmäisinä" 5nm-piireinä markkinoille.
 
Viimeksi muokattu:
@Threadripper :lle annettu varoitus jatkuvasta maalitolppien siirtelystä ja vänkäämisestä
Antaisitteko myös Mr @hkultala :lle varoituksen henkilökohtaisuuksiiin menemisestä? Viestit ovat tietosisällöllisesti mielenkiintoisia, mutta välillä turhan kärkkäitä. Jos ja kun asioista väitellään, niin henkilökohtaisuuksiin meneminen ei edistä väittelyä millään lailla. Mielestäni säännöt tulee olla näiltä osin samat kaikille, vaikka jonkun tietotaito jollain alueella voikin olla ensiluokkaista. Jos ei pysty asiallisesti vastaamaan liian tonttuun viestiin, niin sitten jättää vastaamatta. Trolli tarvitsee sen vastapuolen elääkseen.
 
Viimeksi muokattu:
(Tuo C.C Wei:n kommentti 7nm:n palvelin-CPU:ista oli mielenkiintoinen. Liekö paljoa muita vaihtoehtoja kuin EPYC?)

Romea on samplattu tietyille partnereille jo jonkin aikaa validointiin ja tuo artikkeli on keväältä eli eiköhän sillä Romea tarkoitettu.

Ja tosiaan TSMC ilmoitti keväällä 7nm aloitetun volume production kun taas Intel lupailee 10nm vlolume production käynnistymistä loppuvuodesta 2019. Että jokainen voi tehdä tuosta omat johtopäätöksensä kumpi on edellä.
 
Romea on samplattu tietyille partnereille jo jonkin aikaa validointiin ja tuo artikkeli on keväältä eli eiköhän sillä Romea tarkoitettu.

Ja tosiaan TSMC ilmoitti keväällä 7nm aloitetun volume production kun taas Intel lupailee 10nm vlolume production käynnistymistä loppuvuodesta 2019. Että jokainen voi tehdä tuosta omat johtopäätöksensä kumpi on edellä.
Joo, eiköhän tuo ole selvä juttu. Huvittaa vain tässäkin asiassa tuo hiusten halkominen. Muutama viesti taaksepäin vastaus TR:lle:

Niinkuin oikeasti. Minä en keksi asioita päästäsi kuten sinä, tai jos keksin, sanon hyvin selvästi että kyse on spekulaatiosta, enkä ole asiasta varma.

Ja jos spekulaationi osoittautuu vääräksi, sitten totean spekuloineeni väärin, enkä ala puolustamaan virheellistä spekulaatiotani mitä naurettavimmalla vänkäämisellä.
Vähän tuntuisi nyt pata-kattilaa-meiningiltä. Noh, popparit käteen, onhan tämä kovatasoista ja hinta-laatusuhteeltaan erinomaista viihdettä. :)
 
Sadas sivu jätkät (+se imaginäärinen mimmi joka tätä myös seuraa)! :D ;)

1O7y5fw.jpg
 
Viimeksi muokattu:
...
Zen-projekti jatkui suoraan zen2-projektina. zen2-projekti jatkuu suoraan zen3-projektina. zen3-projekti jatkuu suoraan zen4- tai zen5-projektina (ei ole varmaa tietoa, onko zen4sta olemassa, koska itämainen kuolema-sana)
...
Tuohon liityen kysymys onko kellään tietoa onko AMD:lla yksi tiimi kehittämässä Zenejä vai kaksi ts tapahtuuko kehitys sarjassa vai osittain rinnan.

GPU puolellahan AMD:llä on ollut kaksi ryhmää niin että yksi ryhmä kehittäää jokatoisen sukupolven ja täten ryhmät toimii rinkannakin vuorotahdilla.

Niin no vain hidas tuplaydinprosessori johon tarvii siitähuolimatta vielä erillisen GPU:n kun se prosessori ei sisällä toimivaa iGPU:ta ei mielestäni nykyaikana ole erityisen järkevä tuote.

Ne "5nm" ja "3nm" on puhtaita markkinointinimiä. Niillä ei ole mitään tekemistä minkään sen valmistusprosessin fyysisten ominaisuuksien tai suorituskyvyn kanssa. Markkinointi voi aina keksiä uusia numeroita, eikä se ole kovin vaikeaa.
...
Olenko ymmärtänyt oikein että nykyisellä valmistustekniikalla ja materiaaleilla ei edes teoriassa voi päässä 4,5-4nm pienempään mittakaavaan
(ja tietenkin on erittäin epätodennäköistä että käytännössä päästäisiin siihen teoreetiseen maksimiin millään edes etäisesti kaupallisesti järkevillä kustannuksilla).
 
Viimeksi muokattu:
...

Kun sitä valmistusprosessia kehitetään, sitä pitää joka tapauksessa testata jollain. Ja parhaat testikappaleet jossa varmasti monimutkaisimmat ongelmat paljastuu on ihan oikeat prosessorit.

Ja kun sieltä saadaan ihan toimiva prosessoreita ulos, miksi ne heitettäisiin roskiin sen sijasta, että ne myydään asiakkaille?

Intelin toimintatapa on, että uusi valmistusprosessi kehitetään yhdessä tehtaassa (ja sen kehittämisen aikana sillä tehdään koekappaleita ja sitä viilataan jne), ja siinä vaiheessa, kun prosessi toimii riittävän hyvin (siitä saadaan ulos parempia tuotteita tai halvemmalla kuin vanhasta), se prosessi kloonataan aivan samanlaisena muihin tehtaisiin. Jopa tehtaan sisäilman ilmankosteus vakioidaan eri tehtaiden välillä.

Nyt tilanne on se, että "10nm" prosessilla saadaan toimivia piirejä ulos, mutta niiden saanto on vielä niin huono, ja/tai niiden suorituskyky on niin huono, että tätä prosessia ei vielä kannata kloonata muihin tehtaisiin, kun "14nm" prosessilla saadaan tuotettua parempia piirejä ja/tai halvemmalla.

Tämä yksi "tuotekehitystehdas" kuitenkin tuottaa koko ajan piirejä ulos samalla kun valmistustekniikan parametreja viilataan.
Miten todennäköistä on muuten että Intel pystyisi saamaan tuon 10nm prosessinsa kuntoon "vain" sitä valmistusta hiomalla ts kuinka mahdollista on se että koko 10nm prosessi on jotenkin perustavanlaatuisesti pielessä niin että sitä ei saada toimimaan ennen kuin se ja sille suuniteltavat prosessorit suunitellaan kokonaan uusiksi.

Meinaan kun ne puheet siitä milläperusteilla Intel suunnittelee seuraavaa 7nm prosessia annoit vähän ymmärtää että tuossa 10nm suunittelussa olisi jotain jo lähtökohtaisesti pielessä.

Ts ongelma ei olisi varsinaisesti sen 10nm tehtaan valmistuslaitteissa vaan siinä mitä ja miten niillä yritetään valmistaa.

Ts onko mahdolista että Intel päätyy käytännössä hyppäämään 10nm massatuotannon yli ja siirtyisi suoraan 7nm massatuotantoon (tämä ei tarkoita etteikö 10nm:llä valmistettaisi merkittävää märää Intel tuotteita).
 
Viimeksi muokattu:
Ts onko mahdolista että Intel päätyy käytännössä hyppäämään 10nm massatuotannon yli ja siirtyisi suoraan 7nm massatuotantoon (tämä ei tarkoita etteikö 10nm:llä valmistettaisi merkittävää märää Intel tuotteita).

Itse olen omassa mielessäni vähän veikkaillut että näin tulee käymään ja 10nm valmistetaan vain jotain tuhnuja kun sitä ei saada toimimaan ilman että se tehtäisiin käytännössä kokonaan uusiksi. On sitä sen verran nyt jo lykätty ja tunetettu että alkaa näyttää siltä että ei siitä toimivaa tule koskaan.
 
Miten todennäköistä on muuten että Intel pystyisi saamaan tuon 10nm prosessinsa kuntoon "vain" sitä valmistusta hiomalla ts kuinka mahdollista on se että koko 10nm prosessi on jotenkin perustavanlaatuisesti pielessä niin että sitä ei saada toimimaan ennen kuin se ja sille suuniteltavat prosssorit suunitellaan kokonaan uusiksi.

Meinaan kun ne puheet siitä milläperusteilla Intel suunnittelee seuraavaa 7nm prosessia annoit vähän ymmärtää että tuossa 10nm suunittelussa olisi jotain jo lähtökohtaisesti pielessä.

Ts ongelma ei olisi varsinaisesti sen 10nm tehtaan valmistuslaitteissa vaan siinä mitä ja miten niillä yritetään valmistaa.

Ts onko mahdolista että Intel päätyy käytännössä hyppäämään 10nm massatuotannon yli ja siirtyisi suoraan 7nm massatuotantoon (tämä ei tarkoita etteikö 10nm:llä valmistettaisi merkittävää märää Intel tuotteita).

Mikäli ongelmat liittyy tuohon koboltin käyttöön alimpien kerrosten johdotuksissa, sitten tilanne on pikemminkin siten, että kun muut "5nm" prosesseissaan siirtyvät myös koboltin käyttöön, heillä on suurella riskillä edessään ne samat ongelmat, joiden kanssa intel nyt tappelee, kun taas intel on siinä vaiheessa ratkonut jo nämä ongelmat tapeltuaan niiden kanssa "10nm" prosessinsa kanssa.

Kupari vaatii ympärilleen suojakerroksen joka alkaa käydä niin kapeaksi, että itse johdolle ei meinaa jäädä matalimmilla (tiheämmillä) johdotuskerroksilla käytännössä juuri ollenkaan tilaa, siitä on käytännössä pakko siirtyä pois johdotuksien kaventuessa. Ja tällä hetkellä kaikilla suunta näyttäisi olevan kohti kobolttia, muilla vaan hiukan myöhemmin kuin Intelillä.

Intel "10nm" prosessissaan valitsi hyvin tiheän nollakerroksen(M0)-johdotuksen (johtoväli 36nm, muiden "7nm" prosessien M0-johtovälin ollessa 40nm), joten intelillä oli siten hiukan suurempi paine ottaa kobolti käyttöön aiemmin.

Ja jos taas koboltin käytössä on jotain perustavanlaatuisia ongelmia, ettei kyse ole vaan ongelmista sen käyttöönotossa vaan sitä ei vaan millään saada toimimaan riittävän hyvin, sitten kaikki piirivalmistajat ovat ongelmissa, kaikkien pitää löytää joku uusi korvaava aine kuparin tilalle alimpien tasojen johdoille, jos koboltista ei siihen olekaan, jotta valmistustekniikoiden kehitystä saadaan jatkettua.


Mutta sinänsä on nyt hyvä jälkiviisastella, että jos intel olisi vaikka valinnut M0-johtovälikseen vaikka jotain 42-44 nanometrin luokkaa, ja pysynyt kuparin käytössä, paljon ongelmia olisi varmaan vältetty, ja prosessi olisi voinut olla kunnollisessa massatuotannossa jo kauan sitten, transistoritiheys (ja optimaalinen suorituskyky prosessin toimiessa oikein) olisi vaan ollut jonkin verran huonompi, tuo 2.7x tiheyden parantamiseen tähtääminen (joka mahdollisesti vaati sen koboltin) oli liikaa. Toilsaalta sitten ne kobolttiongelmat olisi varmaan olleet edessä "7nm" prosessin kanssa.
 
Viimeksi muokattu:
Noniin, löysit maailmasta YHDEN www-siten jonka palvelimilla tuolle nopeutukselle olisi käyttöä. Ja sillä webbisitellä on ehkä joitain kymmeniä palvelinkoneita?

Näitä vastaavia sitejä on ehkä pari muutakin maailmassa ja voidaan päästä ehkä satoihin palvelinkoneisiin joissa tälle on tarvetta?

Ja näiden takia kymmeniin tai satoihin miljoniin prosessoreihin joita myydään kaikkialle muualle maailmaan pitäisi tehdä nopea totutus käskystä jota näiden palvelujen ehkä muutamat sadat palvelimet tarvii?

:facepalm:

On AMDlle aika paljon kannattavampaa antaa vaan intelin ottaa myynnit näistä kuin alkaa näkemään R&D-vaivaa (jonka voisi käyttää tärkeämpien optimointien tekemiseen) ja ehkä tekemään ytimistään hiukan isompia ihan vaan näiden takia.

Toki se nopeampi PEXT-käsky varmaan AMDlle joskus tulee. Mutta ei sen takia, että sitä shakkiin tarvitaan, vaan sen takia että sitä joskus tulevaisuudessa tullaan käyttämään johonkin muuhunkin, hyödyllisempään tarkoitukseen. Ja kun muut, enemmän "low hanging fruit"it saadaan ensin tehtyä, sitten voidaan keskittyä harvemmin käytettyjen käskyjen kuten PEXTin optimointiin.

Ja näköjään tuota PEXT-käskyä voisi käyttää esimerkiksi morton-koodien laskemiseen. Morton-koodeja taas voi käyttää moniin melko kehittyneisiin algoritmeihin, esimerkiksi lineaarialgebrassa ja säteenjäljityksessä (tosin molemmat pyritään CPUn sijasta laskemaan GPUlla)

"Toimii kaikilla prosessoreilla riittävän nopeasti" vaihtui "evvk koska ei ole markkinoita".

Maalitolpat :rolleyes:

Fanipojuille lisää vänkäämisen aihetta

Best (Non-Gaming) Performance CPUs

Mukava nähdä Tom's Hardwaren pystyvän tekemään jutun jossa suositellaan pelkkää AMD:ta ja Inteliä vain sivulauseissa. Olen pitkään pitänyt tuollaista artikkelia mahdottomana. Heti kun pelaaminen jätetään pois, Intel ei näytä kelpaavan missään kategoriassa. Toivotaan Zen2:n menevän ohi pelessäkin niin Inteliä ei enää tarvita :hungry:
 
"Toimii kaikilla prosessoreilla riittävän nopeasti" vaihtui "evvk koska ei ole markkinoita".

Maalitolpat :rolleyes:
Tässä tapauksessahan kyseessä on täysin sama asia:
Ryzen toimii (hitaasti) Intel toimii (nopeasti), käskyä ei käytetä juuri yhtään missään (yhdellä shakkiohjelmalla ei ole mitään merkitystä)-> Toimii kaikilla riittävän nopeasti, ELI ominaisuudella ei ole markkinoita (tällähetkellä).

Sekä Intelin, että AMD:n tulisi kehittää nyt prossun sisäisten palikoiden välistä kommunikointinopeutta ja välimuistisysteemiä. Ne ovat tällähetkellä se asia, joilla tehdään se voittajasiru. Jollain ei missään käytetyllä hömppälisäkäskyllä ei ole mitään merkitystä. Samoin muistiohjainta kannattaa kehittää, perustuen ihan siihen, miten molemmat hyötyvät selkeästi muistin kellottamisesta.
 
Tässä tapauksessahan kyseessä on täysin sama asia:
Ryzen toimii (hitaasti) Intel toimii (nopeasti), käskyä ei käytetä juuri yhtään missään (yhdellä shakkiohjelmalla ei ole mitään merkitystä)-> Toimii kaikilla riittävän nopeasti, ELI ominaisuudella ei ole markkinoita (tällähetkellä).

Sekä Intelin, että AMD:n tulisi kehittää nyt prossun sisäisten palikoiden välistä kommunikointinopeutta ja välimuistisysteemiä. Ne ovat tällähetkellä se asia, joilla tehdään se voittajasiru. Jollain ei missään käytetyllä hömppälisäkäskyllä ei ole mitään merkitystä. Samoin muistiohjainta kannattaa kehittää, perustuen ihan siihen, miten molemmat hyötyvät selkeästi muistin kellottamisesta.

Höpö höpö. Ensin nopeudella ei ole väliä "koska kaikki prosessorit ovat yhtä nopeita" ja kun käy ilmi ettei se nopeus olekaan ihan yksi ja sama, siirrytään kertomaan kuinka nopeus evvk koska pienet markkinat. Täysin eri asioita.

Välimuistien reilu parannus prosessorin sisällä on haastavaa ellei keksitä uutta tekniikkaa. Superiso ulkoinen välimuisti (2 gigaa HBM2:ta esim) auttaisi lähinnä näytönohjaimia. En usko tuolla puolella tapahtuvan paljoa lähiaikoina.

Muistiohjaimen kehitys näyttää olevan suuri ongelma vain tietyissä ohjelmissa jotka yleensä ovat ikivanhoja. Fallout 4 ehkä paras esimerkki. En usko DDR4:n kehitykseen enää paljoa panostettavan muutenkaan koska DDR5 tulee noin parin vuoden päästä ja siellä missä rahaa tehdään (serverit) on jämähdetty 2666 MHz:n. Menevätköhän ylöspäin koskaan.
 
Höpö höpö. Ensin nopeudella ei ole väliä "koska kaikki prosessorit ovat yhtä nopeita" ja kun käy ilmi ettei se nopeus olekaan ihan yksi ja sama, siirrytään kertomaan kuinka nopeus evvk koska pienet markkinat. Täysin eri asioita.

Välimuistien reilu parannus prosessorin sisällä on haastavaa ellei keksitä uutta tekniikkaa. Superiso ulkoinen välimuisti (2 gigaa HBM2:ta esim) auttaisi lähinnä näytönohjaimia. En usko tuolla puolella tapahtuvan paljoa lähiaikoina.

Muistiohjaimen kehitys näyttää olevan suuri ongelma vain tietyissä ohjelmissa jotka yleensä ovat ikivanhoja. Fallout 4 ehkä paras esimerkki. En usko DDR4:n kehitykseen enää paljoa panostettavan muutenkaan koska DDR5 tulee noin parin vuoden päästä ja siellä missä rahaa tehdään (serverit) on jämähdetty 2666 MHz:n. Menevätköhän ylöspäin koskaan.

Täysin nimenomaan ja pelkästään samoja asioita. Nyt puhutaan vain yhdestä ja vain yhdestä jonninjoutavasta käskystä, jota ei käytännössä käytetä yhtään missään ja joka molemmalla prossulla toimii, ryzenillä vain hitaammin, kun AMD sangen fiksusti ei ole panostanut ominaisuuteen, jolla ei ole nyt käyttöä, eikä (toistaiseksi) markkinoita.

Prossun sisäistä liikennettä on kehitetty lähiaikoina eri tahoilla, eivätkä läheskään kaikki tutkimusten tulokset ole edistyneet edes vielä valmiisiin ratkaisuihin. Kyllä se kehitys on sillä puolella huomattavasti helpompaa, kuin ydinten viilaaminen, kun niitä on optimoitu jatkuvasti. Tuon kommunikaatiosysteemin vaatimukset ovat kuitenkin muuttuneet ihan tässä "lähiaikoina", kun kasvavat ydinmäärät tekevät ihan uusia vaatimuksia.

Jos muistiohjain on hidas, niin se on hidas, softasta huolimatta. Kaikki ohjelmistot käyttävät muistia, kokoajan enemmän sitä törsäten (lisäksi threadien määrä kasvaa kokoajan), joten muistiohjaimen nopeutus on erittäin tärkeää. Sitten jos prossussa on vieä integroitu GPU, niin nykysysteemit ovat täysin polvillaan. Ei noissa konsoleissa ole ihan huvikseen se muistisysteemi sellainen, kun on. Muistipuolella näen myös kiinnostavana kehityshaarana haihtumattoman keskusmuistin, joka on kokoajan kehitteillä. Tämä muuttaisi kiintolevyn roolia selkeästi.

Yksi kohta jossa kaivataan sekä raudan että softapuolen tekijöiden yhteistyötä on tietysti se, miten käyttikset käsittävät prossun rakenteen ja optimoivat säikeiden käytön s.e. cachet tulevat hyödynnettyä mahdollisimman hyvin ja tietoa tarvitsee hakea hitaita reittejä myöten mahdollisimman harvoin.

X86 prossuissa kannattaisi myös harkita siirtymistä heterogenous prossuihin. Turha kaikkien ydinten on osata kaikkea. Osa ytimistä voisi olla huomattavasti karsittuja versioita, joissa olisi panostettu sensijaan raskaaseen laskentaan. Tämä tietysti vaatisi sitten paljon yhteistyötä ohjelmistojen kehittäjien puolelta ja yhteisymmärrystä AMD-Intel akselilla. Se ei toimi, jos molemmat luovat oman systeeminsä.
 
Ryzen2 3700x lyö tiskiin 6Ghz kellotaajuuden, 12-ydintä ja 24-threadia. 5.7Ghz all-core. Clock-to-clock suorituskyky on parantunut 20% vrt 2700X. Ryzen2:saa CCX:ssä on kuusi ydintä, ja inf-fabricin latenssit tiputettu puoleen. AMD on saanu muistiohjaimen viritettyä joten tullaan näkemään tuki 4600Mhz DDR4 muisteille jopa cl12 päälatensseilla.

Aaah että, Intel konkassa 2021 mennessä. AMD:n voittokulkua ei voi estää!

Kuulin nämä faktana lähteiltäni AMD:n työpajalla!
 
X86 prossuissa kannattaisi myös harkita siirtymistä heterogenous prossuihin.

Ohan meillä jo opencl ja prossuja "yksinkertaisimmilla" ytimillä jotka on erikoistuneet erittäin rinnakkaistuvaan laskentaan
 
Ohan meillä jo opencl ja prossuja "yksinkertaisimmilla" ytimillä jotka on erikoistuneet erittäin rinnakkaistuvaan laskentaan
X86 prossuja Inteliltä ja AMD:ltä, jotka ovat tuonkin asian suhteen täysin yhteensopivia? En tiennytkään moisesta.
 
Täysin nimenomaan ja pelkästään samoja asioita. Nyt puhutaan vain yhdestä ja vain yhdestä jonninjoutavasta käskystä, jota ei käytännössä käytetä yhtään missään ja joka molemmalla prossulla toimii, ryzenillä vain hitaammin, kun AMD sangen fiksusti ei ole panostanut ominaisuuteen, jolla ei ole nyt käyttöä, eikä (toistaiseksi) markkinoita.

Prosessorin nopeus ja markkinaosuus sama asia, "OK".

Prossun sisäistä liikennettä on kehitetty lähiaikoina eri tahoilla, eivätkä läheskään kaikki tutkimusten tulokset ole edistyneet edes vielä valmiisiin ratkaisuihin. Kyllä se kehitys on sillä puolella huomattavasti helpompaa, kuin ydinten viilaaminen, kun niitä on optimoitu jatkuvasti. Tuon kommunikaatiosysteemin vaatimukset ovat kuitenkin muuttuneet ihan tässä "lähiaikoina", kun kasvavat ydinmäärät tekevät ihan uusia vaatimuksia.

Jos muistiohjain on hidas, niin se on hidas, softasta huolimatta. Kaikki ohjelmistot käyttävät muistia, kokoajan enemmän sitä törsäten (lisäksi threadien määrä kasvaa kokoajan), joten muistiohjaimen nopeutus on erittäin tärkeää. Sitten jos prossussa on vieä integroitu GPU, niin nykysysteemit ovat täysin polvillaan. Ei noissa konsoleissa ole ihan huvikseen se muistisysteemi sellainen, kun on. Muistipuolella näen myös kiinnostavana kehityshaarana haihtumattoman keskusmuistin, joka on kokoajan kehitteillä. Tämä muuttaisi kiintolevyn roolia selkeästi.

Yksi kohta jossa kaivataan sekä raudan että softapuolen tekijöiden yhteistyötä on tietysti se, miten käyttikset käsittävät prossun rakenteen ja optimoivat säikeiden käytön s.e. cachet tulevat hyödynnettyä mahdollisimman hyvin ja tietoa tarvitsee hakea hitaita reittejä myöten mahdollisimman harvoin.

X86 prossuissa kannattaisi myös harkita siirtymistä heterogenous prossuihin. Turha kaikkien ydinten on osata kaikkea. Osa ytimistä voisi olla huomattavasti karsittuja versioita, joissa olisi panostettu sensijaan raskaaseen laskentaan. Tämä tietysti vaatisi sitten paljon yhteistyötä ohjelmistojen kehittäjien puolelta ja yhteisymmärrystä AMD-Intel akselilla. Se ei toimi, jos molemmat luovat oman systeeminsä.

Puhutko nyt ytimien välisestä liikenteestä vai yhden prosessoriytimen osien välisestä liikenteestä? Ensimmäisestä arvelen. Siinä onkin varmasti kehittämisen varaa. Infinity Fabric on enemmän helppo kuin nopea ratkaisu ja Intelin ring bus tukehtuu suurilla määrillä. Mesh yrittää ottaa molemmista hyvät puolet muttei sekään ole mikään täydellinen.

Muistiohjaimen nopeuden merkitys vähenee sitä mukaa kun prosessorille laitetaan enemmän kakkua. Muistilatenssien pienentämisessä tulee jossakin vaiheessa raja vastaan eikä kanavien lisääminen auta loputtomiin. Integroitu GPU muuttaa tietenkin tilannetta kuten myös muisti joka ei kadota tietoja sammutettaessa.

PC puolen vahvuus on juuri siinä ettei ohjelmistojen tarvitse tukea n+1 erilaista prosessoria tai olla optimoituja tarkalleen tietylle raudalle vaan pitkälle pääsee kun tukee yhtä x86 tai x86-64 yhteensopivaa CPU:ta. Nykyprosessoreista saisi paljon enemmän irti kunnollisella optimoinnilla, josta päästään siihen kuka viitsii optimoida kun prosessoreita on satoja erilaisia. AMD antoi ymmärtää heterogenous prosessorien suurimmaksi ongelmaksi ohjelmistopuolen ja siksipä yrittävätkin saada aikaan prosessorin joka jakaa kuormaa automaattisesti näytönohjaimelle tarvittaessa. Ts ei tarvita erillistä ohjelmistotukea. Se on kova juttu jos/kun saavat tehtyä. Hiljaista on ollut vaikka siitä puhuivat vuosia sitten.
 
Ryzen2 3700x lyö tiskiin 6Ghz kellotaajuuden, 12-ydintä ja 24-threadia. 5.7Ghz all-core. Clock-to-clock suorituskyky on parantunut 20% vrt 2700X. Ryzen2:saa CCX:ssä on kuusi ydintä, ja inf-fabricin latenssit tiputettu puoleen. AMD on saanu muistiohjaimen viritettyä joten tullaan näkemään tuki 4600Mhz DDR4 muisteille jopa cl12 päälatensseilla.

Aaah että, Intel konkassa 2021 mennessä. AMD:n voittokulkua ei voi estää!

Kuulin nämä faktana lähteiltäni AMD:n työpajalla!

Unohdit, että Ryzen4 on oikeastaan sama kivi, kun prosessi on niin hyvä, niin tekivät sekin samaan kiveen ja keskittyivät suunnittelemaan seuraavaa jumalkiveä. Ainakin engineer sampleista on saanut lyijykynällä aktivoitua toiset 12 corea. Ei vaikuttanut all-core kelloihin, koska modi tiputti käyttöjännitettä ja ollaan yhä 95W TPD:n sisällä.
 
X86 prossuja Inteliltä ja AMD:ltä, jotka ovat tuonkin asian suhteen täysin yhteensopivia? En tiennytkään moisesta.

X86 prossuja kyllä, mutta nämä mainitsemani ytimet ei pyöritä x86-käyttistä itsessään ja miksi tarvitsisikaan, kun sen tekevät ytimet on jo järestään molemmilla merkeillä.
 
Prosessorin nopeus ja markkinaosuus sama asia, "OK".



Puhutko nyt ytimien välisestä liikenteestä vai yhden prosessoriytimen osien välisestä liikenteestä? Ensimmäisestä arvelen. Siinä onkin varmasti kehittämisen varaa. Infinity Fabric on enemmän helppo kuin nopea ratkaisu ja Intelin ring bus tukehtuu suurilla määrillä. Mesh yrittää ottaa molemmista hyvät puolet muttei sekään ole mikään täydellinen.

Muistiohjaimen nopeuden merkitys vähenee sitä mukaa kun prosessorille laitetaan enemmän kakkua. Muistilatenssien pienentämisessä tulee jossakin vaiheessa raja vastaan eikä kanavien lisääminen auta loputtomiin. Integroitu GPU muuttaa tietenkin tilannetta kuten myös muisti joka ei kadota tietoja sammutettaessa.

PC puolen vahvuus on juuri siinä ettei ohjelmistojen tarvitse tukea n+1 erilaista prosessoria tai olla optimoituja tarkalleen tietylle raudalle vaan pitkälle pääsee kun tukee yhtä x86 tai x86-64 yhteensopivaa CPU:ta. Nykyprosessoreista saisi paljon enemmän irti kunnollisella optimoinnilla, josta päästään siihen kuka viitsii optimoida kun prosessoreita on satoja erilaisia. AMD antoi ymmärtää heterogenous prosessorien suurimmaksi ongelmaksi ohjelmistopuolen ja siksipä yrittävätkin saada aikaan prosessorin joka jakaa kuormaa automaattisesti näytönohjaimelle tarvittaessa. Ts ei tarvita erillistä ohjelmistotukea. Se on kova juttu jos/kun saavat tehtyä. Hiljaista on ollut vaikka siitä puhuivat vuosia sitten.

Yhden käskyn (jota ei käytetä missään (eli sille ei ole markkinoita)) nopeus on täysin eriasia, kuin prosessorin yleinen nopeus.
Mitä sekoilet tuon markkinaosuuden kanssa, sitä en ymmärrä ollenkaan. Yhden käskyn nopeudella (jota ei käytetä juuri missään) ja prossun (kokonaisuuden) markkinaosuudella ei ole juuri mitään tekemistä keskenään. Juuri kukaan ei jätä ryzenia ostamatta, koska tuo käsky on siinä hidas. Sensijaan, jos yleisen hieromisen sijasta olisi käytetty resurssit tuon käskyn saamiseksi vähintään kilpailijan tasolle ja ryzen olisikin esim 2% yleisesti hitaampi, niin huomattavasti useampi ottaisi kilpailijan tuotteen..

Luonnollisesti puhun Ydin-ydin, ydin-muistiohjain, ydin-IO palikoiden välisestä liikenteestä. Sehän molemmilla valmistajilla on hidastunut, kun ydinten määrä on kasvanut ja ne on liitetty toisiinsa nykysysteemeillä.. Noiden liittämisestä oli jokuaika sitten liikkeellä tutkimuspapereita, joissa oli katsottu uusia, suorituskykyisempiä vaihtoehtoja. En nyt jaksa käydä etsimään.

Kakun suhteellinen osuus ei juuri kasva, koska kakkua raiskaavien threadien määrä kasvaa ja cachetettavan muistin määrä kasvaa..

PC puolella on tehty käskykantalaajennuksia. Nyt pitäisi tehdä käskykantalaajennuksen sijaan vain prossulaajennus, joka tosin tulisi olla AMD:llä ja Intelillä samalla tavalla yhteensopiva, kuin normi X86 puolikin.
 
Prosessorin nopeus ja markkinaosuus sama asia, "OK".
Muistiohjaimen nopeuden merkitys vähenee sitä mukaa kun prosessorille laitetaan enemmän kakkua. Muistilatenssien pienentämisessä tulee jossakin vaiheessa raja vastaan eikä kanavien lisääminen auta loputtomiin. Integroitu GPU muuttaa tietenkin tilannetta kuten myös muisti joka ei kadota tietoja sammutettaessa.

Kakku syö vain transistoreita ihan kiitettävästi, ynnä sillä on paha tapa hidastua kasvaessaan.
How L1 and L2 CPU Caches Work, and Why They're an Essential Part of Modern Chips - ExtremeTech

"It might seem logical, then, to devote huge amounts of on-die resources to cache — but it turns out there’s a diminishing marginal return to doing so. Larger caches are both slower and more expensive. At six transistors per bit of SRAM (6T), cache is also expensive (in terms of die size, and therefore dollar cost). "
 
Prosessorin nopeus ja markkinaosuus sama asia, "OK".
Puhutko nyt ytimien välisestä liikenteestä vai yhden prosessoriytimen osien välisestä liikenteestä? Ensimmäisestä arvelen. Siinä onkin varmasti kehittämisen varaa. Infinity Fabric on enemmän helppo kuin nopea ratkaisu ja Intelin ring bus tukehtuu suurilla määrillä.

:facepalm:

Jälleen puhdasta mutupaskaa ymmärtämättä yhtään mistä puhut.

Mesh yrittää ottaa molemmista hyvät puolet muttei sekään ole mikään täydellinen.

Mesh ja ring bus ovat väylätopologioita, tieteellisiä geneerisiä termejä eikä mitään tiettyjä intelin toteutuksia kuvaavia nimiä.

Pelkkä termi "Indinity fabric" taas on AMDn markkinointinimi omalle väylälleen, joka on jollain tasolla ilmeisesti crossbar-pohjainen, mutta josta voidaan muodostaa useampitasoinen hierarkia erilaisilla topologioilla.
Se on täysin eri tason asia kuin nuo kaksi muuta käyttämääsi termiä.

Yksinkertainen crossbar nimenomaan skaalautuu hyvin huonosti suurelle määrälle portteja, koska sen monimutkaisuus menee suoraan toiseen potenssiin kytkettävien asioiden määrään nähden. Jos yritetään tehdä crossbaria, jossa on paljon portteja siitä tulee iso, virtasyöppö eikä siitä voi tehdä kovin nopeaa.

Jotta yksittäiset crossbarit infinity fabricissa AMDn piireillä pysyy pieninä, siinä on sitten monitasoinen hierarkia. Eli sen sijaan, että jokainen ydin on kytketty siihen crossbariin omalla portillaan, neljä ydintä on laitettu samaan ryppääseen CCXksi (ja CCXn sisällä on paikallinen pieni crossbar) ja näillä on yhteinen portti siihen koko piirin crossbariin. Tämä hierarkinen monitasoinen ratkaisu sitten kivasti lisää viiveitä heti kun mennään sen oman CCn L3-välimusitin ulkopuolellle, ja se myös negatoi huomattavan osan sitä crossbarin tyypillisetä etua/pointtia - että mitkä kaksi tahansa porttia voivat kommunikoida täydellä nopeudella yhtä aikaa. Kun useampi ydin on saman portin takana, niiden pitää jakaa sen portin kaista keskenään.

Muistiohjaimen nopeuden merkitys vähenee sitä mukaa kun prosessorille laitetaan enemmän kakkua.
Muistilatenssien pienentämisessä tulee jossakin vaiheessa raja vastaan eikä kanavien lisääminen auta loputtomiin.

Kanavien lisäämisen vaikutus viiveeseen on käytännössä olematon. Sillä saadaan kaistaa lisää.

Ja ajattelet asiaa väärinpäin. Muistiviive ei ole "voitettava taistelu joka voidaan korjata" vaan "hävitty pitkitystaistely", suhteessa ytimen nopeuteen muistiviive käy jatkuvasti hitaammaksi.

Vaikka muistiväylän ulkoiset kellotaajuudet ja datansiirtonopeudet kasvavat jatkuvasti, itse muistin sisäinen kellotaajuus ei ole juurikaan kasvanut, eikä muistien viiveet pienentyneet. Käytännössä joka kerta, kun uusi muistityyppi otetaan käyttöön, muistin sisäinen kellotaajuus (samalla ulkoisella kellotaajuudella) puolitetaan.

Ja niitä suurempia välimuisteja tarvitaan nimenomaan sen takia, kun se muistiviive on käynyt niin pahaksi. Jotta kärsittäisiin mahdollisimman vähän siitä pahasta muistiviiveestä.

90-luvun puolivälissä jollain 120 MHz peruspenalla muistiviive oli n. 10 kellojaksoa, nyt se on yli 100 kellojaksoa, ja nykyaikainen prosessori tekee yli tuplasti enemmän työtä kellojaksossa.

PC puolen vahvuus on juuri siinä ettei ohjelmistojen tarvitse tukea n+1 erilaista prosessoria tai olla optimoituja tarkalleen tietylle raudalle vaan pitkälle pääsee kun tukee yhtä x86 tai x86-64 yhteensopivaa CPU:ta. Nykyprosessoreista saisi paljon enemmän irti kunnollisella optimoinnilla, josta päästään siihen kuka viitsii optimoida kun prosessoreita on satoja erilaisia.


AMD antoi ymmärtää heterogenous prosessorien suurimmaksi ongelmaksi ohjelmistopuolen ja siksipä yrittävätkin saada aikaan prosessorin joka jakaa kuormaa automaattisesti näytönohjaimelle tarvittaessa. Ts ei tarvita erillistä ohjelmistotukea.

:facepalm:

Nyt olet kyllä jälleen aivan totaalisen pihalla. Näytönohjain ajaa aivan eri käskykantaa eikä AMD ole koskaan missään ilmaissut mitään intressiä tehdä x86sta ajavaa näyttistä.

Intelillä sen sijaan tällaisen suuntaista on ollut tekeillä, Larrabee ja sen seuralaiset Knights-linja, mutta niissäkin tarvii vähintään käyttiksen sekduloida säikeet eri ytimille.

Se on kova juttu jos/kun saavat tehtyä. Hiljaista on ollut vaikka siitä puhuivat vuosia sitten.

Eivät ole koskaan puhuneet mitään tuollaista. Olet ymmärtänyt täysin väärin, mitä HSAlla tarkoittetaan.

HSAssa on ollut kyse vain
1) välimuistikoherenttiudesta näyttiksen ja CPUn välillä, mahdollistaa saman muistin käytön molemmille
2) yhteisestä tavukoodista CPUlle ja GPUlle.

Käyttiksen/ajoympäristön/ajurien pitää edelleen kääntää se tavukoodi sille prosessorille, millä se ajetaan, ja skeduloida koodi pyörimään siellä missä se sitä haluaa ajaa. Täysin softan hallinnassa oleva systeemi.
 
Viimeksi muokattu:
:facepalm:

Jälleen puhdasta mutupaskaa ymmärtämättä yhtään mistä puhut.

Mesh ja ring bus ovat väylätopologioita, tieteellisiä geneerisiä termejä eikä mitään tiettyjä intelin toteutuksia kuvaavia nimiä.

Pelkkä termi "Indinity fabric" taas on AMDn markkinointinimi omalle väylälleen, joka on jollain tasolla ilmeisesti crossbar-pohjainen, mutta josta voidaan muodostaa useampitasoinen hierarkia erilaisilla topologioilla.
Se on täysin eri tason asia kuin nuo kaksi muuta käyttämääsi termiä.

Yksinkertainen crossbar nimenomaan skaalautuu hyvin huonosti suurelle määrälle portteja, koska sen monimutkaisuus menee suoraan toiseen potenssiin kytkettävien asioiden määrään nähden. Jos yritetään tehdä crossbaria, jossa on paljon portteja siitä tulee iso, virtasyöppö eikä siitä voi tehdä kovin nopeaa.

Jotta yksittäiset crossbarit infinity fabricissa AMDn piireillä pysyy pieninä, siinä on sitten monitasoinen hierarkia. Eli sen sijaan, että jokainen ydin on kytketty siihen crossbariin omalla portillaan, neljä ydintä on laitettu samaan ryppääseen CCXksi (ja CCXn sisällä on paikallinen pieni crossbar) ja näillä on yhteinen portti siihen koko piirin crossbariin. Tämä hierarkinen monitasoinen ratkaisu sitten kivasti lisää viiveitä heti kun mennään sen oman CCn L3-välimusitin ulkopuolellle, ja se myös negatoi huomattavan osan sitä crossbarin tyypillisetä etua/pointtia - että mitkä kaksi tahansa porttia voivat kommunikoida täydellä nopeudella yhtä aikaa. Kun useampi ydin on saman portin takana, niiden pitää jakaa sen portin kaista keskenään.

Niinhän ne ovat ja kun puhutaan ring busista tai meshista, kaikki ymmärtävät mitä sillä tarkoitetaan. Ring busissa on ainakin 4 väylää jotka hoitavat liikennettä ja Intel puhuu Scalable On-Die Interconnectista, ring bus kuulostaa paremmalta vaikka oikaiseekin. Olennaista on viiveiden kasvu kun ytimiä lisätään jonka takia Intel lisäsi enemmän ringejä ja lopulta halusi keksiä toisen ratkaisun.

Kuten sanoin, enemmän helppo kuin nopea. Pohjimmiltaan Infinity Fabric ja siihen liittyvät tekniikat tekevät ytimien lisäämisen prosessoriin todella helpoksi. Turpiin tulee ytimien välisessä kommunikaatiossa joka sisältää myös L3 välimuistin kun nekin ovat CCX:ssa kiinni. Ei sovi kaikkeen mutta rahaa tuolla saa tehtyä.

Kanavien lisäämisen vaikutus viiveeseen on käytännössä olematon. Sillä saadaan kaistaa lisää.

Ja ajattelet asiaa väärinpäin. Muistiviive ei ole "voitettava taistelu joka voidaan korjata" vaan "hävitty pitkitystaistely", suhteessa ytimen nopeuteen muistiviive käy jatkuvasti hitaammaksi.

Tietysti muttei se kaistojen lisäyskään ole kovin pätevä kehityskohde loputtomiin.

Siksi sanoinkin ettei se kehitys auta koska täydellinenkin muistiohjain on toivottoman hidas loppupeleissä.

Vaikka muistiväylän ulkoiset kellotaajuudet ja datansiirtonopeudet kasvavat jatkuvasti, itse muistin sisäinen kellotaajuus ei ole juurikaan kasvanut, eikä muistien viiveet pienentyneet. Käytännössä joka kerta, kun uusi muistityyppi otetaan käyttöön, muistin sisäinen kellotaajuus (samalla ulkoisella kellotaajuudella) puolitetaan.

Ja niitä suurempia välimuisteja tarvitaan nimenomaan sen takia, kun se muistiviive on käynyt niin pahaksi. Jotta kärsittäisiin mahdollisimman vähän siitä pahasta muistiviiveestä.

90-luvun puolivälissä jollain 120 MHz peruspenalla muistiviive oli n. 10 kellojaksoa, nyt se on yli 100 kellojaksoa, ja nykyaikainen prosessori tekee yli tuplasti enemmän työtä kellojaksossa.

Siltähän se muistien kehitys vaikuttaa. Lisää kelloja, enemmän latenssia. Sivutuoteena saadaan virrankulutusta alas josta hyötyvät palvelimet ja puhelimet
lähinnä. Uusi muistitekniikka olisi kova, kunhan ei ole RAMBUS tyylinen ripoff.


Eipä yllättänyt. 4 muistikanavaa on ollut melko turha Intelin 8-10 ytimisissä työpöytäprosessoreissa vs 3 kanavaa, joten 16-ytimiselle voisi odottaakin 4 kanavan riittävän.
 
Siltähän se muistien kehitys vaikuttaa. Lisää kelloja, enemmän latenssia. Sivutuoteena saadaan virrankulutusta alas josta hyötyvät palvelimet ja puhelimet
lähinnä. Uusi muistitekniikka olisi kova, kunhan ei ole RAMBUS tyylinen ripoff.

Mitähän nyt olet tarkoittaviin sanalla "muistitekniikka"? Muistiväylää vai muistisolun toteutusperiaatetta? Nämä ovat kaksi täysin eri asiaa.

Keskusmuistin solut on kymmeniä vuosia tehty aivan samalla DRAM-periaatteella. Ja "RAMBUS"illa tarkoittanet RDRAMia, sekin oli sisäisesti aivan normaalia DRAMia.

(ja Rambus(firma) on RDRAMin jälkeen kehittänyt monia muitakin muistiväyliä ja muistiohjaimia. Esimerkiksi PS3ssa oli Rambusin kehittämä XDR DRAM-muistiväylä, ja ilmeisesti Zeninkin DDR4-muistiohjaimet on Rambusin kehittämiä, AMDn Rambusilta lisensoimia.)

Sen sijaan sitä väylää, mikä siltä DRAM-muistipiiriltä lähtee ulos, on uudistettu muutaman vuoden välein.
Ja sitä valmistusprosessia, millä sitä DRAMia on tehty, on parannettu parin vuoden välein, melko lailla Mooren lain tahdissa.

Tosin nyt ollaan vihdoin kohta saamassa DIMMejä joissa on DRAMin sijasta aivan erilaisella periaatteella toimivaa xpoint-muistia.
 
Viimeksi muokattu:
Tässä tapauksessahan kyseessä on täysin sama asia:
Ryzen toimii (hitaasti) Intel toimii (nopeasti), käskyä ei käytetä juuri yhtään missään (yhdellä shakkiohjelmalla ei ole mitään merkitystä)-> Toimii kaikilla riittävän nopeasti, ELI ominaisuudella ei ole markkinoita (tällähetkellä).

Sekä Intelin, että AMD:n tulisi kehittää nyt prossun sisäisten palikoiden välistä kommunikointinopeutta ja välimuistisysteemiä. Ne ovat tällähetkellä se asia, joilla tehdään se voittajasiru. Jollain ei missään käytetyllä hömppälisäkäskyllä ei ole mitään merkitystä. Samoin muistiohjainta kannattaa kehittää, perustuen ihan siihen, miten molemmat hyötyvät selkeästi muistin kellottamisesta.
Joo, @hkultala voinee vetäistä jonkun näppiarvion kuinka ison osan ajasta nykyprossat odottavat dataa suoritukseen vs. aivan oikea laskenta-aika. Tämä on mielenkiintoinen alue, sillä ymmärtääkseni tuo prosessorin sisäinen odotusaika ei normi-monitoriohjelmissa näy vaan prossu voi käydä sen 100% tehokkaasti tai vähemmän tehokkaasti. Lähinnä IO-wait ja jotain käyttistason prosessinvaihtoaikoja voinee valvoa jollain tasolla.

Kun noiden IBM:n isojen koneiden kanssa on tullut myös pelailtua, niin siellä oli joskus suurempiakin tehostuksia uuden sukupolven tullessa käyttöön. Toisin sanoen uudessa koneessa kaikki oli periaatteessa mitoitettu ja laskettu vanhan koneen mitoituksille, mutta silti throughput oli selkeästi suurempi kuin vanhassa. Tätä nopeuskasvua oli hyvin vaikea jäljittää mihinkään, vaan syy oli laskentayksiköiden välisten latenssien pienenemisissä ja tehostetussa välimuistirakenteessa.

Ja niin kuin olen varmaan jo asiasta täällä meuhkannut, niin noissa isoissa IBM-koneissa pelkästään niitä prossuvälimuisteja voi olla useampia gigatavuja. Tämä näkyy sitten parhaiten skaalautuvuudessa. Kun samassa koneessa pyörii useita satoja/tuhansia virtuaalikoneita omine erillisine kuormineen, niin välimuistiarkkitehtuuri täytyy olla hyvin mietittynä. Yksi haaste perus-x86/VMware/HyperX...-virtualisoinnissa on sen kakun leviäminen horisontaalisesti niin laajalle. Yhdelle virtuaalikoneelle ei voida antaa mahdottoman paljon säikeitä tehokkuuden kärsimättä. Jotain tieteellisempää mallinnustakin on tehty kuinka horisontaalisuuden lisääntyessä softahypervisorit, vaikka hyvää työtä tekevätkin, eivät vain pysty tasaamaan niitä kuormia kovin tehokkaasti. Toisin sanoen se täytekuorma, jonka pitäisi istua tuotannon piikkikuormien sekaan tuppaa usein lämähtämään juuri sen piikkikuorman päälle, minkä takia joudutaan pitämään suhteellisen isoja kapasiteettireservejä. Toki virtualisointi on oikea tie, mutta silti isoimmissakin virtualisoiduissa palvelinfarmeissa pyöritään jossain max 60% utilisaatioluvuissa koska reservejä joudutaan varaamaan niin useaan nurkkaan. Tuo käyttämätön kapasiteetti vie kuitenkin ne samat rauta, infra-, softa- ja ylläpitokulut. Niin kauan kuin näitä farmeja rakennetaan samalla pizzalaatikkomentaliteetilla, niin tämä haaste säilyy koska laatikoiden välillä ei ole mitään välimuistiarkkitehtuuria rakennettuna. Tietty säikeiden määrä/palvelin kasvaa jatkuvasti, mikä helpottaa tilannetta, mutta tuo tietenkin omat haasteensa palvelimen omille väylille niin sisälle kuin ulos laatikosta.

Ja vielä...tätä dilemmaa on vaikea mitata geneerisesti millään nykyvälineellä. Palvelin voi suoriutua hyvinkin nopeasti yksittäisestä yhden säikeen kuormasta, hajautetusta tieteellisen laskennan kuormasta, hajautetusta tietokantakuormasta jne, mutta kun sille turautetaan sata erilaista kuormaa ajavaa virtuaalikonetta erilaisilla datalähteillä, niin pullonkauloja voi löytyä yllättävistäkin paikoista.
 
Mikäli ongelmat liittyy tuohon koboltin käyttöön alimpien kerrosten johdotuksissa, sitten tilanne on pikemminkin siten, että kun muut "5nm" prosesseissaan siirtyvät myös koboltin käyttöön, heillä on suurella riskillä edessään ne samat ongelmat, joiden kanssa intel nyt tappelee, kun taas intel on siinä vaiheessa ratkonut jo nämä ongelmat tapeltuaan niiden kanssa "10nm" prosessinsa kanssa.

Kupari vaatii ympärilleen suojakerroksen joka alkaa käydä niin kapeaksi, että itse johdolle ei meinaa jäädä matalimmilla (tiheämmillä) johdotuskerroksilla käytännössä juuri ollenkaan tilaa, siitä on käytännössä pakko siirtyä pois johdotuksien kaventuessa. Ja tällä hetkellä kaikilla suunta näyttäisi olevan kohti kobolttia, muilla vaan hiukan myöhemmin kuin Intelillä.

Intel "10nm" prosessissaan valitsi hyvin tiheän nollakerroksen(M0)-johdotuksen (johtoväli 36nm, muiden "7nm" prosessien M0-johtovälin ollessa 40nm), joten intelillä oli siten hiukan suurempi paine ottaa kobolti käyttöön aiemmin.

Ja jos taas koboltin käytössä on jotain perustavanlaatuisia ongelmia, ettei kyse ole vaan ongelmista sen käyttöönotossa vaan sitä ei vaan millään saada toimimaan riittävän hyvin, sitten kaikki piirivalmistajat ovat ongelmissa, kaikkien pitää löytää joku uusi korvaava aine kuparin tilalle alimpien tasojen johdoille, jos koboltista ei siihen olekaan, jotta valmistustekniikoiden kehitystä saadaan jatkettua.


Mutta sinänsä on nyt hyvä jälkiviisastella, että jos intel olisi vaikka valinnut M0-johtovälikseen vaikka jotain 42-44 nanometrin luokkaa, ja pysynyt kuparin käytössä, paljon ongelmia olisi varmaan vältetty, ja prosessi olisi voinut olla kunnollisessa massatuotannossa jo kauan sitten, transistoritiheys (ja optimaalinen suorituskyky prosessin toimiessa oikein) olisi vaan ollut jonkin verran huonompi, tuo 2.7x tiheyden parantamiseen tähtääminen (joka mahdollisesti vaati sen koboltin) oli liikaa. Toilsaalta sitten ne kobolttiongelmat olisi varmaan olleet edessä "7nm" prosessin kanssa.
Eli Intel saataa loppujenlopuksi olla iso voittaja verratuna AMD:hen kun Intel kompuroi tuon Koboltin kanssa nyt tällähetkellä kun AMD ei vielä ole saanut takaisin mitään merkittävänsuurta markkinaosuutta ja AMD joutuu kompuroimaan Koboltin kanssa siinävaiheessa kunn se on ehtinyt saada sen yli 20% markkinaosuuden ja sen pitäisi pystyä takaamaan luotettavat ja kilpailukykyiset seuraavansukupolven prosessorit niille isoille asiakkaiilleen (esim. palvelinpuolella) ts AMD kompuroi pahimpaan mahdolliseen aikaan Koboltinkanssa kun se mennettää uskottavuutensa luotetttavana pitkäaikaisena kumppanina asiakkaidensa silmissä juuri silloin kun se luotettavuus pitäisi pysyvästi todistaa.
 
Eli Intel saataa loppujenlopuksi olla iso voittaja verratuna AMD:hen kun Intel kompuroi tuon Koboltin kanssa nyt tällähetkellä kun AMD ei vielä ole saanut takaisin mitään merkittävänsuurta markkinaosuutta ja AMD joutuu kompuroimaan Koboltin kanssa siinävaiheessa kunn se on ehtinyt saada sen yli 20% markkinaosuuden ja sen pitäisi pystyä takaamaan luotettavat ja kilpailukykyiset seuraavansukupolven prosessorit niille isoille asiakkaiilleen (esim. palvelinpuolella) ts AMD kompuroi pahimpaan mahdolliseen aikaan Koboltinkanssa kun se mennettää uskottavuutensa luotetttavana pitkäaikaisena kumppanina asiakkaidensa silmissä juuri silloin kun se luotettavuus pitäisi pysyvästi todistaa.

Tuo on mahdollista, mutta on myös mahdollista, että Intelin prosessi ei tule ikinä toimimaan riittävän hyvin ja joutuvat alottamaan uudestaan..
Toisaalta Intelin kehitysbudjetit lienevät tuollakin puolella kohtuu isot, joten voi siellä olla hautumassa myös varavaihtoehto..
 
Tuo on mahdollista, mutta on myös mahdollista, että Intelin prosessi ei tule ikinä toimimaan riittävän hyvin ja joutuvat alottamaan uudestaan..
Toisaalta Intelin kehitysbudjetit lienevät tuollakin puolella kohtuu isot, joten voi siellä olla hautumassa myös varavaihtoehto..
Intel voi ajaa tehdasta 10% saannoilla vuosia AMD ei voi eli Intel kestää valmistuksen kompurointeja mutta AMD ei kestä.
 
Intel voi ajaa tehdasta 10% saannoilla vuosia AMD ei voi eli Intel kestää valmistuksen kompurointeja mutta AMD ei kestä.
Jos saannot on senverran kehnot, jotta pikkuprossustakin on GPU disabloitu, niin ei liene järkevää missään mielessä päästää ko valmistustekniikkaa koetehdasta pidemmälle.. Lopputulos riippuu siitä, onko tuo korjattavissa vai ei. Sen näyttää aika. Mitään tietoja ei ole liikkeellä, joista vois päätellä suuntaan tai toiseen, edes semipitävästi.
 
Intel voi ajaa tehdasta 10% saannoilla vuosia AMD ei voi eli Intel kestää valmistuksen kompurointeja mutta AMD ei kestä.

AMD:n ongelmahan toi kopoltti ei ole vaan GloFo:n ja kumppaneiden. AMD voi mennä "7nm" prosessilla vuosia eteenpäin johon on myös parannuksia tulossa kuten EUV joka ei ole GloFo:n prosessissa vielä ja taisi TSMC:lle tulla EUV peliin vasta 7FF+ prosessissa.

Ja nää "7nm" prosessit kyllä pistää niin paljon painetta Intelin suuntaan että en jaksa uskoa että Intel alkaa leikkiä 10nm kanssa vuosia jos sitä ei saada kohta korjattua, vähintään joku backup plan täytyy olla koska Intelin 14nm++ vaikka loistava onkin, niin ei sillä enää pitkään voida mennä koska kilpailijat on tullu jo lähes rinnalle ja kohta laittaavat vielä pykälän isompaa ja katoavat horisonttiin.
 
AMD:n ongelmahan toi kopoltti ei ole vaan GloFo:n ja kumppaneiden. ...
Kyllä se on AMD ongelma jos GloFo ja kumpanit vaatii AMD:ta ostamaan niitä Koboltia käyttäviä kiekkoja (valmiiden prosessorien sijasta) ilman takuuta siitä että niillä kiekoilla olisi jokin minimimäärä toimiavia prosessoreja.

Toinen vaihtoehtohan voisi olla se että se fab tarjoaa AMD:n käytöön vain vanhempaa valmistustekniikan joka ei ole enäää kilpailukykyinen Inteliin nähden eli AMD joutuu valtsemaan kilpailukyvyttömän tuotanon ja suuren riskin tuotannon väliltä.

Eli se että AMD on fables ei tarkoita sitä eteikö AMD joutuisi maksumieheksi valmistuksen kompuroidessa, koska ne suuren serveripuolen asiakkaat vaatii jatkuvasti kustannustehokaampia ja tehokkaampia prosessoreja kuin vanhat mallit on ja AMD on tyydytettävä ne vaatimukset tai se menettää luotettavuuden niiden asiakkaiden silmissä, eli AMD:n on pakko käyttää uusimpia käytettävissä olevia valmistustekniikoita riipumatta niiden taloudellisista riskeistä.
 
Viimeksi muokattu:
Kyllä se on AMD ongelma jos GloFo ja kumpanit vaatii AMD:ta ostamaan niitä Koboltia käyttäviä kiekkoja (valmiiden prosessorien sijasta) ilman takuuta siitä että niillä kiekoilla olisi jokin minimimäärä toimiavia prosessoreja.

Toinen vaihtoehtohan voisi olla se että se fab tarjoaa AMD:n käytöön vain vanhempaa valmistustekniikan joka ei ole enäää kilpailukykyinen Inteliin nähden eli AMD joutuu valtsemaan kilpailukyvyttömän tuotanon ja suuren riskin tuotannon väliltä.

Eli se että AMD on fables ei tarkoita sitä eteikö AMD joutuisi maksumieheksi valmistuksen kompuroidessa, koska ne suuren serveripuolen asiakkaat vaatii jatkuvasti kustannustehokaampia ja tehokkaampia prosessoreja kuin vanhat mallit on ja AMD on tyydytettävä ne vaatimukset tai se menettää luotettavuuden niiden asiakkaiden silmissä, eli AMD:n on pakko käyttää uusimpia käytettävissä olevia valmistustekniikoita riipumatta niiden taloudellisista riskeistä.
Ja taas muistetaan että samoja tehtaita käyttävät myös lähes kaikki muut isot valmistajat. Jos TSMC/GloFo kädettävät oman kehityksensä, niin se ei ole pelkästään AMD:n ongelma vaan koko IT-markkinoiden päänsärky. Sen takia en oikein jaksa uskoa että nämä jätit vain istuskelisivat peukaloita pyörittelemässä että jaah, kobolttia pitäisi katsella. Mediahuomiota sai IBM/Samsung/GloFo:n julkistus 5nm-prosessista (IBM unveils world’s first 5nm chip), jossa FinFetin korvaisi GAAFET, joka voitaisiin ehkä venyttää 3nm:n asti. Siitä eteenpäin ei tällä hetkellä ilmeisesti kenellään ole tietoa millä edetä. Optisia prossuja, kvanttitietokoneita ja sen sellaista, mutta ovat vielä aika alkuvaiheessa. Joka tapauksessa jos tuo GAAFET lunastaa lupauksensa, niin tällä vauhdilla kymmenen vuotta on mennyt nopsaan.

Intel voi ajaa tehdasta 10% saannoilla vuosia AMD ei voi eli Intel kestää valmistuksen kompurointeja mutta AMD ei kestä.
Ööh, eikös se ole juurikin toisin päin? Eikä noi isot sopimusvalmistajat mitään rikkinäisiä prosesseja aja. Tällä hetkellä näyttää enemmänkin siltä että kehitys menee jotensakin Intel vs. muu maailma ja oman veikkauksen heittäisin kyllä sen muun maailman puolelle. Ja Intel on tosiaan ainoa iso piirivalmistaja, jolla on enää omat tehtaat. Jotain pientä muuta siellä myös valmistetaan, mutta lähes pääosin kuitenkin omia piirejä. Niitä on siis paree ajaa hyvillä saannoilla, koska ei ole muutakaan tuotantolinjoja täyttämään. Ymmärrän pointtisi että jos valmistajan prosessi on huono, niin AMD kärsii siitä huomattavasti, mutta puhtaasti tehtaiden näkökulmasta Intelin on pystyttävä ajamaan niitä hyvillä hyötysuhteilla, koska kulut ovat kovat ja se vaikuttaa suoraan heidän tulokseen. Ainoa etu Intelillä on heidän messevät kassavaransa joiden turvin voivat kikkailla jonkun aikaa.
 
Ja taas muistetaan että samoja tehtaita käyttävät myös lähes kaikki muut isot valmistajat. Jos TSMC/GloFo kädettävät oman kehityksensä, niin se ei ole pelkästään AMD:n ongelma vaan koko IT-markkinoiden päänsärky. Sen takia en oikein jaksa uskoa että nämä jätit vain istuskelisivat peukaloita pyörittelemässä että jaah, kobolttia pitäisi katsella. ...
Nyt ei ollut puhe kaikesta elektronikateollisuudesta ketjuha on "Virallinen: AMD vs Intel keskustelu- ja väittelyketju" eli puhe on nimenomana vain siitä miten valmstustekniikan kehityksen sudenkuopat vaikuttaa Intel:in ja AMD:n väliseen tilanteeseen.

Mitä tulee paukaloidenpyörittämiseen ja istuskeluun niin ei se Intelkään varmaankaan ole vain peukaloitapyöritelly ja istuskellut mutta siitähuolimatta tämä Kobolti ongelma voi olla syy siihen että Intelin 10nm on jo yli 2 vuotta myöhässä alkuperäisestä aikataulustaan.

Eli ei se että kuinkamonta asiakasta TSMC:llä ja GloFo:lla on merkkaa mitään jos hommat alkaa pykiä (kummatkin ryssi esimerkisi 20nm tuotannon täysin vaikka oli asiakkaita jonossa joille sen piti tulla käytöön).


... Ööh, eikös se ole juurikin toisin päin? ...
Älyhoi Intelillä on miljardikassa käyttämätöntä rahaa joten ne voi ajaa tehdasta vuosia hillitömillä tappioolla ilman että se merkittävästi vaikuttaisi yrityksen talouden kestävyyteen myös se merkitseen että ne on Intelin omat tehtaat joten kukaan muu ei inise vaikka niissä valmistettaisiin pelkää sutta ja sekundaa, AMD:n tlanne on aivan toinen sillä ei ole valtavaa kassaa josta maksaisi suden ja sekundan valmistuksen vuositolkulla ja koska AMD käyttää sopimusvalmistajia ne ei valmista sitä sutta ja sekundaa ilman että saavat niistä valmistamistaan kiekoista saman hinnan kuin saisi toimivistakin keikoista.


Merkittävä ero on se että kaikki muut paitsi Intel käytää niitä TSMC:tä ja GloFo:a niin että esim. Nvidia GPU:ta ja AMD GPU:t on samassa veneessä kumpikaan ei saa etua siitä jos TSMC:n jaTai GloFon valmistus pykii mutta Intel CPU:t ja AMD CPU:t on aivan erilaisessa kilpailutilanteessa koska niiden valmsitus on täysin eripohjalla siksi kun Intel käytää niitä omia tehtaitaan.
 
Viimeksi muokattu:
Nyt ei ollut puhe kaikesta elektronikateollisuudesta ketjuha on "Virallinen: AMD vs Intel keskustelu- ja väittelyketju" eli puhe on nimenomana vain siitä miten valmstustekniikan kehityksen sudenkuopat vaikuttaa Intel:in ja AMD:n väliseen tilanteeseen.

Mitä tulee paukaloidenpyörittämiseen ja istuskeluun niin ei se Intelkään varmaankaan ole vain peukaloitapyöritelly ja istuskellut mutta siitöhuolimatta tämä Kobolti ongelma voi olla syy siihen että Intelin 10nm on jo yli 2 vuotta myöhässä alkuperäisestä aikataulustaan.

Eli ei se että kuinkamonta asiakasta TSMC:llä ja GloFo:lla on merkkaa mitään jos hommat alkaa pykiä (kummatkin ryssi esimerkisi 20nm tuotannon täysin vaikka oli asiakkaita jonossa joille sen piti tulla käytöön).

Eiköhän se pointti ollut että muut varmasti ovat tutkimusta tuosta tehneet jo hyvän tovin.
 
Eipä yllättänyt. 4 muistikanavaa on ollut melko turha Intelin 8-10 ytimisissä työpöytäprosessoreissa vs 3 kanavaa, joten 16-ytimiselle voisi odottaakin 4 kanavan riittävän.
Ei se ydinten määrä tuossa Epyc: issä ole ratkaiseva, vaan kun se on "liimattu" 4- erillisestä prossusta, niin suorastaan vaatii sen 4- kanavaisen muistin vähintään tai muuten on liian isot viiveet (sama tilanne jos Epyc olisi 4- ytiminen, 1- ydin/ siru):
AMD-EPYC.jpg
 
Eiköhän se pointti ollut että muut varmasti ovat tutkimusta tuosta tehneet jo hyvän tovin.
Ei nyt todennäköisesti kumminkaan yhtäpitkään kuin Intel eikä Intelkään ole sitä vielä saanut toimimaan, ts juu varmaankin ovat tutkineet jo pisempän mutta ei se takaa mitään.
 
Mitähän nyt olet tarkoittaviin sanalla "muistitekniikka"? Muistiväylää vai muistisolun toteutusperiaatetta? Nämä ovat kaksi täysin eri asiaa.

Keskusmuistin solut on kymmeniä vuosia tehty aivan samalla DRAM-periaatteella. Ja "RAMBUS"illa tarkoittanet RDRAMia, sekin oli sisäisesti aivan normaalia DRAMia.

(ja Rambus(firma) on RDRAMin jälkeen kehittänyt monia muitakin muistiväyliä ja muistiohjaimia. Esimerkiksi PS3ssa oli Rambusin kehittämä XDR DRAM-muistiväylä, ja ilmeisesti Zeninkin DDR4-muistiohjaimet on Rambusin kehittämiä, AMDn Rambusilta lisensoimia.)

Sen sijaan sitä väylää, mikä siltä DRAM-muistipiiriltä lähtee ulos, on uudistettu muutaman vuoden välein.
Ja sitä valmistusprosessia, millä sitä DRAMia on tehty, on parannettu parin vuoden välein, melko lailla Mooren lain tahdissa.

Tosin nyt ollaan vihdoin kohta saamassa DIMMejä joissa on DRAMin sijasta aivan erilaisella periaatteella toimivaa xpoint-muistia.

Muistin Rambusin pöllineen muilta tekniikkaa. Ei kuitenkaan, kehittivät omaa ja patentoivat avointa tietoa josta alkoivat pyytää rojalteja. Tuo näköjään jatkuu edelleen, jotkut firmat maksavat vielä vuosia Rambusille lisenssimaksuja. Sitten uutta oikeustappelua, jösses. Rambus olisi voinut olla kovakin tekijä ilman noita oikeudenkäyntejä. Harva haluaa tehdä laajaa yhteistyötä tuollaisen yrityksen kanssa.

Hemmetti, tuossahan on yksi tekijä joka nostaa muistien hintoja. Maksetaan Rambus:llle rojalteja tai käydään oikeutta joka sekin maksaa :mad:

AMD saa varmasti siimaa Rambusilta tuon yhteistyön ansiosta.

Tarkoitin molempia. Jedec on saanut hyvin standardoitua itse lisättävien muistien markkinat. Markkinoilla voisi olla useampi DRAM tekniikka joista jokainen vaatisi omat liitännät, tuloksena sekava viidakko. Huonona puolena kukaan ei ole viitsinyt lähteä kisaamaan suoraan Jedecin standardeja vastaan pitkään aikaa ja Jedec voi vetää varman päälle. Uudet DDR:t ovat yleensä alussa hitaita tai kalliita verrattuna edelliseen. Selvästi parempaa saa isolla rahalla josta hyötyy vain muiden osien ollessa huipputasoa, muuten kannattaa panostaa muuhun kuin huippumuisteihin. DDR5 ei herätä mitään mielenkiintoa koska selvästi DDR4-3200:a nopeampi DDR5 maksanee omaisuuden kauan julkaisusta. Sama ongelma mistä PCI sig sanoi. Kun pitäisi tyydyttää ratkaisulla yli sataa firmaa, on pakko tehdä kompromisseja. Kaipa kokonaisuus jää kuitenkin plussalle näin. Onneksi löytyy firmoja jotka kehittävät jotain erilaista vaikka eivät suoraan kisaisi Jedecin juttujen kanssa.

Ei se ydinten määrä tuossa Epyc: issä ole ratkaiseva, vaan kun se on "liimattu" 4- erillisestä prossusta, niin suorastaan vaatii sen 4- kanavaisen muistin vähintään tai muuten on liian isot viiveet (sama tilanne jos Epyc olisi 4- ytiminen, 1- ydin/ siru):
AMD-EPYC.jpg


Yksi kampa per prosessori on no brainer. Erikoista kyllä, Epyc toimii yhdellä kammalla. Pointtini liittyi kaikkien kanavien täyttämiseen pakolla. Ettei kannata laittaa 8 pikkukampaa vain koska 8 muistikanavaa, 4 isompaa kampaa toimii varmemmin pienellä nopeuserolla. Kuten kuluttajatuotteissa. 3*1GB "koska 3 muistikanavaa" vai 2*2GB? Tai 4*2GB "koska 4 muistikanavaa" vai 2*4GB? Tuollaiseen voi johtaa kun on "pakko" saada kaikki kanavat täyteen.

Nyt ei ollut puhe kaikesta elektronikateollisuudesta ketjuha on "Virallinen: AMD vs Intel keskustelu- ja väittelyketju" eli puhe on nimenomana vain siitä miten valmstustekniikan kehityksen sudenkuopat vaikuttaa Intel:in ja AMD:n väliseen tilanteeseen.

Mitä tulee paukaloidenpyörittämiseen ja istuskeluun niin ei se Intelkään varmaankaan ole vain peukaloitapyöritelly ja istuskellut mutta siitähuolimatta tämä Kobolti ongelma voi olla syy siihen että Intelin 10nm on jo yli 2 vuotta myöhässä alkuperäisestä aikataulustaan.

Eli ei se että kuinkamonta asiakasta TSMC:llä ja GloFo:lla on merkkaa mitään jos hommat alkaa pykiä (kummatkin ryssi esimerkisi 20nm tuotannon täysin vaikka oli asiakkaita jonossa joille sen piti tulla käytöön).

Älyhoi Intelillä on miljardikassa käyttämätöntä rahaa joten ne voi ajaa tehdasta vuosia hillitömillä tappioolla ilman että se merkittävästi vaikuttaisi yrityksen talouden kestävyyteen myös se merkitseen että ne on Intelin omat tehtaat joten kukaan muu ei inise vaikka niissä valmistettaisiin pelkää sutta ja sekundaa, AMD:n tlanne on aivan toinen sillä ei ole valtavaa kassaa josta maksaisi suden ja sekundan valmistuksen vuositolkulla ja koska AMD käyttää sopimusvalmistajia ne ei valmista sitä sutta ja sekundaa ilman että saavat niistä valmistamistaan kiekoista saman hinnan kuin saisi toimivistakin keikoista.

Merkittävä ero on se että kaikki muut paitsi Intel käytää niitä TSMC:tä ja GloFo:a niin että esim. Nvidia GPU:ta ja AMD GPU:t on samassa veneessä kumpikaan ei saa etua siitä jos TSMC:n jaTai GloFon valmistus pykii mutta Intel CPU:t ja AMD CPU:t on aivan erilaisessa kilpailutilanteessa koska niiden valmsitus on täysin eripohjalla siksi kun Intel käytää niitä omia tehtaitaan.

Toinen näkökulma. Intelin tehtaiden ongelmat koskettavat lähinnä Inteliä joten Intelin on turha kysellä apua asiakkailta. (Semiaccurate kertoi Intelin 10nm ongelmien kaataneen "isohkon yrityksen", maksumuurin takana joten ei tässä vaiheessa enempää.)

TSMC:lla on rikkaita asiakkaita (Apple paras esimerkki) jotka tarvittaessa kaatavat rahaa tai tarjoavat tietotaitoa jos valmistus on kusemassa. Jollain Applella olisi varaa laittaa pystyyn oma tehdas
tekemään piirejä, joku muutama miljardi ongelmien poistoon ei tunnu missään. Valmistuksen keskittyminen harvojen tarkoittaa myös mahdollisten ongelmien koskettavan niin montaa tahoa ettei siihen ole varaa. Ne ongelmat ratkaistaan rahalla jos mahdollista. Intelin ongelmat johtuvat kuulemma siitäkin ettei Intel halunnut käyttää muiden apua vaan kuvitteli osaavansa itse.
 
Konsolipuolen kinausta AMD:lta uusi semi-custom Zen + Vega -järjestelmäpiiri Kiinan markkinoille
Siihen liityen vanhoja huhuja Huhu: AMD valmistelee tehokasta MCM-piiriä Zen-prosessorilla ja GCN-grafiikkapiirillä | MuroBBS

Mutta kuka valmistaa AMDn Infinity Fabric kalvot ja miten ne on kerrostettu ? Tässä ketjussa vihjaillaan , että niitä olis laskostettu L3 kakkujen päälle , huumoria ?
Tuolla vanhalla MCM:llä ei ole mitään tekemistä tämän semicustomin kanssa
 
Nyt ei ollut puhe kaikesta elektronikateollisuudesta ketjuha on "Virallinen: AMD vs Intel keskustelu- ja väittelyketju" eli puhe on nimenomana vain siitä miten valmstustekniikan kehityksen sudenkuopat vaikuttaa Intel:in ja AMD:n väliseen tilanteeseen.

Mitä tulee paukaloidenpyörittämiseen ja istuskeluun niin ei se Intelkään varmaankaan ole vain peukaloitapyöritelly ja istuskellut mutta siitähuolimatta tämä Kobolti ongelma voi olla syy siihen että Intelin 10nm on jo yli 2 vuotta myöhässä alkuperäisestä aikataulustaan.

Eli ei se että kuinkamonta asiakasta TSMC:llä ja GloFo:lla on merkkaa mitään jos hommat alkaa pykiä (kummatkin ryssi esimerkisi 20nm tuotannon täysin vaikka oli asiakkaita jonossa joille sen piti tulla käytöön).

Älyhoi Intelillä on miljardikassa käyttämätöntä rahaa joten ne voi ajaa tehdasta vuosia hillitömillä tappioolla ilman että se merkittävästi vaikuttaisi yrityksen talouden kestävyyteen myös se merkitseen että ne on Intelin omat tehtaat joten kukaan muu ei inise vaikka niissä valmistettaisiin pelkää sutta ja sekundaa, AMD:n tlanne on aivan toinen sillä ei ole valtavaa kassaa josta maksaisi suden ja sekundan valmistuksen vuositolkulla ja koska AMD käyttää sopimusvalmistajia ne ei valmista sitä sutta ja sekundaa ilman että saavat niistä valmistamistaan kiekoista saman hinnan kuin saisi toimivistakin keikoista.

Merkittävä ero on se että kaikki muut paitsi Intel käytää niitä TSMC:tä ja GloFo:a niin että esim. Nvidia GPU:ta ja AMD GPU:t on samassa veneessä kumpikaan ei saa etua siitä jos TSMC:n jaTai GloFon valmistus pykii mutta Intel CPU:t ja AMD CPU:t on aivan erilaisessa kilpailutilanteessa koska niiden valmsitus on täysin eripohjalla siksi kun Intel käytää niitä omia tehtaitaan.
Näyttäisi tämän viestin jälkeen tulleen monia viestejä, jotka aukaisevat tuota omaa näkemystäni asiasta. Yömyöhään en jaksanut pidempään aiheesta kirjoitella, niin taisi jäädä perustelut hieman vajavaisiksi. Tärkeimpänä se, että Intel on tosiaan yksin tehtaidensa kanssa. AMD:lla on mahdollisuus vaihtaa yskivä GloFo TSMC:ään tai vaikka Samsungiin (kiitos @JiiPee korjauksesta). Intelillä on isot kassavarat, mutta eivät nekään loputtomiin riitä jos tulee perustavanlaatuisia ongelmia tuotannon kanssa. Ja koska muut valmistajat ovat tavallaan samassa veneessä, niin siellä on vähintään yhtä iso rahamassa takana tukemassa myös kehityspuolta tarvittaessa. Toisekseen eikös AMD nimenomaan ole nyt ulkoistanut sen valmistusteknisen riskin tehtaille? Veikkaisin että sopimuksissa on kyllä klausuulit sille ettei koko tehtaan mahdollisesti surkeasta prosessista johtuva kustannustaakka kaadu AMD niskaan, vaan valmistajalle on sälytetty oma riskitaakkansa kannettavaksi. Tämä on nyt vain spekulointia, mutta epäilen että AMD maksaa pääosin vain valmistetuista kivistä tietyn summan. Jos saanto on huono, niin AMD kärsii lähinnä toimitusongelmista ja tehdas taas kantaa roskiin menneet materiaali/valmistuskustannukset. Toki valmistaja ennemmin tai myöhemmin joutuu siirtämään sisäiset kustannukset ulkoisiin hintoihin tai sitten valmistaja käyttää prosessia johonkin heikompikatteisten täyteprossujen valmistamiseen ja voi ajaa tehdasta edes joillain saantoprosenteilla. Tällöin tietysti AMD ja kumppanit voivat katsella josko se kilpaileva piirinvalmistaja olisi onnistunut paremmin ja teettää kivensä siellä.

Koboltin käyttö on varmaan yksi vahva valinta tulevaisuuden materiaaliksi, mutta mitä nyt aihetta selannut, niin näyttäisi noita muitakin olevan (kts. edellinen viestini). En väitä enempää ettei menee liikaa mutuksi, mutta pointtina se että kyllä sitä kehitystä tapahtuu kaiken aikaa, eikä näytä tällä hetkellä siltä että tuo koboltti olisi se jarruttava tekijä ainakaan 5nm ja ehkä 3nm asti. Sen jälkeinen horisontti näyttäisi olevan suhteellisen epäselvää joka paikassa. Muutenkin vauhti näyttäisi hidastuvan nyt huomattavasti siihen mitä se on ollut tähän asti. "Sähkönkarkailut" alkavat olla ongelmana atomitasolla liikuttaessa ja todennäköistä on että laskentatehoa pyritään enenevissä määrin kasvattamaan rinnakkaisuutta lisäämällä. Tämä tuo taas kehityspainetta sovellusohjelmoinnille, jossa lukitusten/semaforien määrä kasvaa, joka taas huonosti hoidettuna vain hidastaa sovellusta entisestään. Funktionaaliset ohjelmointikielet esim. Clojure kasvattavat tästä syystä varmaan suosiotaan, mutta ovat haasteellisia opetella tavalliseen olio-ohjelmointiin tottuneelle.
 

Statistiikka

Viestiketjuista
262 489
Viestejä
4 553 997
Jäsenet
74 993
Uusin jäsen
hollow

Hinta.fi

Back
Ylös Bottom