Virallinen: AMD vs Intel keskustelu- ja väittelyketju

  • Keskustelun aloittaja Keskustelun aloittaja Sampsa
  • Aloitettu Aloitettu
Eli siis yrität perustella intelin kehityksen puutetta sillä, että nykypelejä pystyy pelaamaan kahdeksan vuotta vanhalla todella paljon ylikellotetulla prosssorilla?
Niitä nykypelejä pystyy pelaamaan sillä sen takia, että AMDllä oli vielä 3 vuotta sitten markkinoilla vain prosessoreita joissa oli aivan onneton yhden säikeen suorituskyky, joten pelikehittäjien piti mitoittaa pelien raskaus näiden mukaan.
Se, että peli pyörii 8 vuotta vanhalla ylikellotetulla intelin prosessorilla hyvin ei kerro yhtään siitä kuinka paljon sitä nopeampia Intelin uudet prosessorit ovat.
Se kertoo korkeintaan siitä, että ihmisillä on käytössään prosessoreita jotka eivät ole sitä paljoa nopeampia.
Ja ylikellotetun vertaaminen ei-ylikellotettuun on muutenkin aina hyvin kyseenalaista.
Ei teknologisessa mielessä. Kellottelun rajoittaminen ja yleensäkin Xeonien ajaminen kuluttajalankuissa estettiin myöhemmin, mutta tuskinpa siihen mitään teknistä syytä oli kun tuossa X58:ssa niitä pystyi hyvin kuitenkin ajamaan. Aikaisemmin tuossa lankussa oli i7 920 eli 4/8-prossu, joka julkaistiin 2008. Seuraava yli 4/8-prossu tuli kuluttajasegmenttiin, joka nyt kuitenkin keskustelun kohteena, melkein kymmenen vuoden odottelun jälkeen ja silloinkin kiirehdittynä AMD:n takia. Hieman vielä viilaamalla uskoisin että tuo Xeon olisi ihan käyttökelpoinen vielä 4,5GHz taajuudella ja mitä nyt kahdeksan vuoden jälkeen kilkutellaan kellottamalla jotain 5GHz rajaa jos hyvä tuuri käy... Ja ennen kun alkaa mesoaminen taas kuinka onkin nyt leivottu isompi L3-kakku sisään ja on AVX-512, niin on tuossa silti edelleen se kahdeksan vuotta tai siihen 920:een 11v. Otetaan se kymmenen vuotta ja heitetään se vaikka välille 95-05, niin kyllä tämä aika flegmaattiselta näyttää. Pyrähdyksiä tuntuisi tapahtuvan aina vain kun on jotain aitoa kilpailua olemassa.

Tuosta pelinkehittäjien ja AMD:n yhden säikeen suhteesta en lähtisi vetämään ihan noin vahvoja johtopäätöksiä. Jos näin olisi, niin eikös pelien pitäisi silloin olla paljon tasaisemmin skaalattuja ytimien välille kuin se että ajetaan täysiä yhdellä säikeellä ja sitten ripotellaan jotain mitä nyt jaksetaan/ehditään muualle? AMD:n markkinaosuus on ollut muutenkin niin surkea kuluneina vuosina, että kyllä tahdin on vahvasti Intel määrännyt. Jännästi nyt kun ytimiä on tullut kilpailun takia joka segmenttiin lisää, niin pelit ja moottorit ovat seuranneet yllättävän nopeasti perässä. Mitäpä jos se 6/12 olisi tullut kuluttajasegmenttiin jo 2012 ja 4/8 edullisempaan kategoriaan? Olisi varmasti melko erilainen maailma tällä hetkellä eikä ollenkaan huonossa mielessä.

Ei, vaan hyvin suuri asia: Intel on parantanut sitä, mitä on hyvin vaikea parantaa: yhden säikeen suorituskyky. Vaikka oli siinä jo alunperinkin edellä.

Ytimien lisääminen on helppoa, mutta kun se ei juuri auta niissä kuluttajien käyttämissä softissa. Ja sitäkin intel on tehnyt.

Tässä palataan aina siihen, että kun ymmärrys puuttuu niin on helppo tuijotella numeroita, että "isomman numeron on pakko olla parempi" ja tuo ydinmäärä on juuri tuollainen typerä luku jota ihmiset tuijottaa, eikä ymmärrä niitä oikeasti merkityksellisiä asioita.

Se, että piirille lätkäistään hiukan suurempi määrä ytimiä vaatii hyvin vähän tuotekehitystä verrattuna siihen, että siihen että niitä ytimiä kehitetänään paremmiksi.

AMDllä mentiin samalla (jo julkaisunsa yhteydessä huonolla) Piledriver-ytimellä 5 vuotta AMDn tehokkaimmissa prossuissa, toki halvemmissa prossuissa tuli hiukan parannettuja Steamrollereita ja Excavatoreita, mutta ne pyörivät niin paljon pienemmällä kellolla että niistä ei saatu Piledriveria enempää suorituskykyä irti.
No kun niiden ytimien lisääminen on niin helppoa, niin miksei niitä sitten julkaistu aikaisemmin? Nyt kun saatiin kilpailija tekemään sitä lähes samalla IPC:llä, niin se olikin Intelinkin mielestä yhtäkkiä hyvä idea. Ihan samalla laillahan olisivat voineet sitten tehdä yhdestä ytimestä tehokkaamman ja silti tuuppaa ne pari ydintä lisää sirulle. Aivan varmasti ohjelmistoteollisuus seuraa perässä ja käyttää sen mitä on saatavilla. Alan yleiselle kehitykselle Intelin monopoli on aiheuttanut enemmän vain hallaa. Toki ydinmäärä ei yksistään kerro mitään, Sparcit siitä hyvä esimerkki, mutta pointtina onkin ollut koko ajan se että kokonaislaskentatehoa olisi markkinoilla paljon enemmän jos noita ytimiä olisi saatu aikaisemmin lisää, ohjelmistot osaisivat hyödyntää niitä paremmin ja loppukäyttäjä saisi enemmän.


Väitteesi siitä että "ytimiä ei ole tuotu yhtään lisää yli kymmeneen vuoteen" on yksinkertaisesti täysin virheellinen ja täyttä paskapuhetta.

Intelin ydinmäärä on kasvanut huomattavasti viimeisessä 10 vuodessa, ja yli 10 vuotta se on missään markkinasegmentissä jättänyt kasvamatta vain silloin, kun pysyttiin yhdessä ytimessä, mutta silloin ei edes puhuttu missään "ytimistä".

Kuluttajapuolella se on viimeisessä kymmenessä vuodessa kasvanut neljästä kahdeksaan, kaksinkertainen parannus.

Palvelin/HEDT-puolella se on kasvanut paljon enemmän, kuudesta 48aan eli 8-kertaisesti.

Tai, jos tarkoitat että ydinmäärä ei kasvanut ennen Coffee Lakea kymmeneen vuoteen, niin tämäkään ei pidä paikkaansa. Palvelin-/HEDT-puolella tällä välillä tuli jatkuvasti ydinmäärän kasvua, ja kuluttajapuolella neljällä ytimellä mentiin 9 vuotta, ei kymmentä, mutta:

Lisäksi "ydinmäärä" on suoraan merkityksetön puolitekninen asia. Loppukäyttäjälle voi olla väliä hyvin rinnakkaistuvan koodin suorituskyvylle mutta se on eri asia kun ytimien määrä.

Ja se "hyvin rinnakkaistuvan koodin suorituskyky" on kasvanut vielä selvästi enemmän kuin ydinmäärä, koska ollaan saatu kuluttajapuolelle AVX ja palvelin-/HEDT-puolelle lisäksi myös AVX-512.

Ja myös silloin 2008-1017 kun kuluttajaprosessorien "ydinmäärä" ei kasvanut 9 vuoteen, niin natiivisti ajossa olevien säikeiden määrä tuplaantui(koska SMT) ja hyvin rinnakkaistuvan koodin suorituskyky kuluttajaprosessoreissakin moninkertaistui (yhdistelmävaikutus SMTtä, ydinkohtaista IPC-parannusta sekä käskykantaparannuksia(mm. AVX)).
Koska nyt puhutaan kuluttajasegmentistä, niin voidaan korjata se kymmenen vuotta yhdeksään; asia ei siitä pahemmin muutu vaikka kuinka toteaisi kaiken olevan paskapuhetta. Se että ytimiä/säikeitä on ollut sen max. 4/8 on ollut ihan yhtä selkeä jarru kuin se että low-end on samaan aikaan tarponut tasaisesti kahdessa. Ei tuohon ole ollut mikään muu syy kuin "milking" ja sillä selvä. Tietenkin tämä ohjaa myös ohjelmistoteollisuutta koska rinnakkaisuuteen satsaamisessa on ollut hyvin vähän järkeä kun kuitenkin suurin osa jynssää jossain puolessa välissä eli 2-4 säikeessä. Edelleen tuo AVX on tietyissä tilanteissa hyvä, mutta kun nyt puhutaan niistä kuluttajasoftista niin hyvin vähän mitään merkittävää AVX-256/512-käyttöä sieltä edelleen löytyy. Ei nosteta sitä sen takia jalustalle. Liekö syy myös sille miksi AMD ei Zenissä siihen liikaa ole panostanut? Ja kun nyt lähdetään semantiikkaan, niin ei sitten sotketa monisäikeistymistä (multithreading) ja datan rinnakkaiskäsittelyä (data parallelism) keskenään...ehkä tuo "hyvin rinnakkaistuvan koodin suorituskyky" kattaa molemmat.

Tuo minun i7 920, julkaistu 2008 oli neljä ydintä + SMT eli kyllä ne kahdeksan säiettä oli siellä jo vuonna 2008. Ja tosiaan ne kaksi lisäydintä tupsahtivat markkinoille yhdeksän vuoden jälkeen kun AMD oli ensin julkaissut Zen-prossut. Ja hupsista palttiarallaa vuoden päästä siitä olikin Intelin aika tuoda taas kaksi ydintä lisää. Ei nyt oikein tarina pysy kasassa.

Palvelinpuoli on eri asia ja siellä on nyt sentään ollut jotain kilpailua vaikka heikkoa tosin. Samoin virtualisointi on selkeä säikeiden syöjä ja katteet toki myös eri tasoa kuin kuluttajaluokassa. Intelin on ollut todennäköisesti myös helpompi pitää kuluttajaprossut omana max. 4/8-kategoriassa ja siten saanut tilaa HEDT-puolelle ja siitä taas palvelinpuolelle. Nythän Intelillä meni koko pakka sekaisin kun AMD toi HEDT-ydinmäärät jo kuluttajaluokkaan ja HEDT-puoli alkoi jo hätistellä palveliprossuja.

AMD on vasta nyt tuomassa zen2een 256-bittisen SIMD-datapolun, ei ole kovin realistista odottaa, että AMD olisi heti leventämässä datapolkuaan 512 bittiin, kun AMDn strategia on, että hyvin rinnakkaistuva datariippuvainen koodi lasketaan GPUlla eikä CPUlla. Joten jos zen3een tulee AVX-512, se tullee vain 256-bittisellä datapolulla
No sen näkee sitten. Samoin Intelin nyt lähtiessä kovemmin mukaan GPU-kilpailuun, on mielenkiintoista nähdä miten Intel tulee painottamaan näiden kahden SIMD-laskentaa.
 
Tuosta pelinkehittäjien ja AMD:n yhden säikeen suhteesta en lähtisi vetämään ihan noin vahvoja johtopäätöksiä. Jos näin olisi, niin eikös pelien pitäisi silloin olla paljon tasaisemmin skaalattuja ytimien välille kuin se että ajetaan täysiä yhdellä säikeellä ja sitten ripotellaan jotain mitä nyt jaksetaan/ehditään muualle? AMD:n markkinaosuus on ollut muutenkin niin surkea kuluneina vuosina, että kyllä tahdin on vahvasti Intel määrännyt. Jännästi nyt kun ytimiä on tullut kilpailun takia joka segmenttiin lisää, niin pelit ja moottorit ovat seuranneet yllättävän nopeasti perässä. Mitäpä jos se 6/12 olisi tullut kuluttajasegmenttiin jo 2012 ja 4/8 edullisempaan kategoriaan? Olisi varmasti melko erilainen maailma tällä hetkellä eikä ollenkaan huonossa mielessä.
Huomauttaisin, että pelinkehittäjälle tuo Intelin tapa kasvattaa yhden ytimen suorituskykyä on ollut ehdottomasti helpompi ja halvempi tapa, kuin aggressiivinen säikeistäminen, mikä on lopulta vaikeaa ja käy kalliiksi ohjelmistotalolle. Peleissä tuo "säikeistäminen" johtaa aina siihen, että jokin isäntäsäie on isompi, kuin muut ja tämä näkyy paremman IPC:n omaavalle prosessorille selvänä etuna. Vaikka kuinka täällä öyhötetään siitä miten pelit skaalautuvat isommille ydinmäärille niin teknisesti totuus voi kuitenkin olla hyvinkin toinen. Käytännössä tuollaista nykyaikaista peliä on erittäin vaikeaa saada jaettua useammalle ytimelle tasaisesti.
 
No kun niiden ytimien lisääminen on niin helppoa, niin miksei niitä sitten julkaistu aikaisemmin?

Voisitko edes yrittää käyttää aivojasi? Vastaus tähän kysymykseen (sen osalta kun kysymykseen on jotain vastaamista) ei ole vaikea.

Ensinnäkin, niitä useampiytimisiä piirejä julkaistiin, joten kysymys "miksei niitä julkaistu on typerä kysymys koska se sisältää typerän paikkaansapitämättömän oletuksen.

Niitä julkaistiin LGA2011-alustalle, ei kuluttajasegmenttiin.

Toisekseen, niitä ei julkaistu kuluttaja-alustoille koska useampiytimisen piirin valmistaminen maksaa enemmän. Samalla rahalla myydystä vähempiytimisestä piiristä jää enemmän katetta käteen.

Ja sitten kun sitä ydinmäärää alettiin kasvattaa, tuli vastaan tämän toinen puoli: valmistuskapasiteetti. Tekemällä pienempiä piirejä saatiin valmistettua ja voitiin myydä selvästi enemmän piirejä jolloin niistä saatiin selvästi suuremmat tulot.


Intel on firma jonka tarkoitus on tehdä voittoa, ei tehdä moar cores-piirejä vain sen takia että typerät ihmiset voisivat ihastella suurempiaä "ydinlukemia".
 
Viimeksi muokattu:
Jostain syystä tätä Intelin uutista ei oltu lisätty io-techille uutiseksi (ehkä), mutta lisätään nyt tänne sitten :

Puolijohdejätti paljasti lähitulevaisuuden suunnitelmiaan osavuosikatsauksen yhteydessä. Aiemmat lupaukset 10 nanometrin prosessiin perustuvien tuotteiden julkaisusta kuluvalle vuodelle pitävät pintansa. Uutta on kuitenkin varsin nopealla aikataululla siirtyminen 7 nanometrin valmistustekniikkaan. Julkaisuja luvataan vuodelle 2021.
Intel valotti tulevaisuuden suunnitelmiaan osavuosikatsauksen jälkeen pidetyssä sijoittajapuhelussa. Aiemmat lupaukset 10 nanometrin Ice Lake -koodinimellisten tuotteiden julkaisusta pitävät pintansa. Puolijohdejätti lupailee useiden 10 nanometrin tuotteiden julkaisuja kuluvalle vuodelle sekä ensi vuodelle.

Hienoisen yllätyksen tarjoili tarkennetut suunnitelmat seitsemän nanometrin valmistustekniikkaan siirtymisestä. Esitellyn tiekartan mukaan seitsemän nanometrin tuotanto saadaan käyntiin vuonna 2021 ja samana vuonna nähdään myös ensimmäisten kyseisen valmistustekniikan tuotteet. Diat paljastavat 7 nm:n kärkituotteeksi datakeskuksiin suunnatun Xe-arkkitehtuuriin perustuvan GPGPU:n.

Oletettavasti tarkennuksia kuluvan vuoden julkaisuihin kuullaan Intelin lehdistötilaisuudessa Computex-messujen yhteydessä.


Lähde: Intel siirtyy 7 nanometrin valmistustekniikkaan jo vuonna 2021 | Muropaketti.com

Jos kerta Intelin 10nm vastaa kooltaan AMD:n "7nm" niin tämä Intelin 7nm mikä tulee "kohta" niin on selvästi AMD:n "7nm" pienempi.

Erinomaisia uutisia siis.

Vieläpä jos Intel samalla ottaa tehoharppauksia lisää uusilla tuotteillaan niin tuo nykyinenen ero (+22%) parhailla peliprossuilla Intelin eduksi voi kasvaa entistä enemmän tulevaisuudessa Intelin eduksi.
 
Jostain syystä tätä Intelin uutista ei oltu lisätty io-techille uutiseksi, mutta lisätään nyt tänne sitten:



Jos kerta Intelin 10nm vastaa kooltaan AMD:n "7nm" niin tämä Intelin 7nm mikä tulee "kohta" niin on selvästi AMD:n "7nm" pienempi.

Erinomaisia uutisia siis.

Vieläpä jos Intel samalla ottaa tehoharppauksia lisää uusilla tuotteillaan niin tuo nykyinenen ero (+22%) parhailla peliprossuilla Intelin eduksi voi kasvaa entistä enemmän tulevaisuudessa Intelin eduksi.
pieni perstuntuma on, että tuo on jo uutisoitu.
 
Viimeksi muokattu:
Jostain syystä tätä Intelin uutista ei oltu lisätty io-techille uutiseksi (ehkä), mutta lisätään nyt tänne sitten :



Jos kerta Intelin 10nm vastaa kooltaan AMD:n "7nm" niin tämä Intelin 7nm mikä tulee "kohta" niin on selvästi AMD:n "7nm" pienempi.

Erinomaisia uutisia siis.

Vieläpä jos Intel samalla ottaa tehoharppauksia lisää uusilla tuotteillaan niin tuo nykyinenen ero (+22%) parhailla peliprossuilla Intelin eduksi voi kasvaa entistä enemmän tulevaisuudessa Intelin eduksi.

TSMC will be mass producing 5nm chips next year, 5nm+ in the works

AMD ei itse tee noita, vaan TSMC. Lisäksi TSMC:lta on jo tulossa ensi vuonna noita Intelin 7nm vastaavia, joten etumatka pysyy melkoseina verrattuna Inteliin.
 
TSMC will be mass producing 5nm chips next year, 5nm+ in the works

AMD ei itse tee noita, vaan TSMC. Lisäksi TSMC:lta on jo tulossa ensi vuonna noita Intelin 7nm vastaavia, joten etumatka pysyy melkoseina verrattuna Inteliin.

Jep AMD erotti oman piirivalmistuksensa GlobalFoundries firmalle ja keskittyi sitten itse piirien suunnitteluun. Tosin AMD veti piuhat poikki GlobalFoundries kanssa ilmeisesti sen takia, että valmistusprosessi on TSMC parempi. AMD on niin paljon pienempi firma kuin Intel, että sen on melkeimpä pakko tehdä tälläisiä peli liikkeitä pärjätäkseen toisaalta myös NVIDIA valmistaa piirinsä TSMC:llä. Joten TSMC on ilmeisti tällähetkellä yksi maailman parhaimpia puolijohdevalmistajia SAMSUNGIN lisäksi.
 
Jep AMD erotti oman piirivalmistuksensa GlobalFoundries firmalle ja keskittyi sitten itse piirien suunnitteluun. Tosin AMD veti piuhat poikki GlobalFoundries kanssa ilmeisesti sen takia, että valmistusprosessi on TSMC parempi. AMD on niin paljon pienempi firma kuin Intel, että sen on melkeimpä pakko tehdä tälläisiä peli liikkeitä pärjätäkseen toisaalta myös NVIDIA valmistaa piirinsä TSMC:llä. Joten TSMC on ilmeisti tällähetkellä yksi maailman parhaimpia puolijohdevalmistajia SAMSUNGIN lisäksi.
Glofon piti kyllä tuottaa zen2 piirejä 7nm-prosessillaan, mutta glofo päätti syystä tai toisesta laittaa prosessin kehityksen jäihin niin ei ole huonompaa tai parempaa prosessia glofolla. Glofo tuottaa edelleen 14/12-prosessillaan mm. AMD:n APUja, Zen2 prosessoreihin IO-lastut ja zeppelin lastuja desktop/serveri segmenttiin.
 
Glofon piti kyllä tuottaa zen2 piirejä 7nm-prosessillaan, mutta glofo päätti syystä tai toisesta laittaa prosessin kehityksen jäihin niin ei ole huonompaa tai parempaa prosessia glofolla. Glofo tuottaa edelleen 14/12-prosessillaan mm. AMD:n APUja, Zen2 prosessoreihin IO-lastut ja zeppelin lastuja desktop/serveri segmenttiin.

Uusien prosessien kehitys maksaa omaisuuden ja yhä harvempi on valmis niistä maksamaan. GF katsoi ettei sen kapasiteetti riitä tekemään tulevista prosesseista (7nm:n jälkeiset) voitollisia ja kapasiteetin kasvattamisessa olisi omat riskinsä koska asiakkaita ei välttämättä olisi riittävästi. Totesivat paremmaksi vaihtoehdoksi vetää piuhat seinästä tässä vaiheessa ja keskittyä toisenlaisten (halvempien) prosessien kehittämiseen.
 
Uusien prosessien kehitys maksaa omaisuuden ja yhä harvempi on valmis niistä maksamaan. GF katsoi ettei sen kapasiteetti riitä tekemään tulevista prosesseista (7nm:n jälkeiset) voitollisia ja kapasiteetin kasvattamisessa olisi omat riskinsä koska asiakkaita ei välttämättä olisi riittävästi. Totesivat paremmaksi vaihtoehdoksi vetää piuhat seinästä tässä vaiheessa ja keskittyä toisenlaisten (halvempien) prosessien kehittämiseen.

Tuohon vaikutti varmaan sekin, että GF ydinliiketoimintaa on piirienvalmistus kun taas Samsung on moniala firma, jonka yksi osa valmistaa piirejä, jolloin Samsung voi ottaa suurempia riskejä, koska Samsung saa voittoja niin monestä lähteestä sen jokaisen osan ei tarvitse tuottaa maksimi tasolla heti. Kun taas GF prosessien pitää onnistua heti. TSMC taas on suurempi määrä asiakkaita, jolloin he voivat ottaa suurempia riskejä kuin GF prosessikehityksessään.

Ilmeisesti GF sitten laski 1+1 ja tuli siihen johtopäätökseen, että maailmaan ei mahdu 7nm miljardeja maksavia tehtaita voitollisesti enempää kuin Itelin, TSMC ja Samsungin tehtaat. GF on myös markkinoilla siinä asemassa, että heille käy huonoiten jos 7nm valmistukseen ei riitä asiakkaita kun muiden alan firmojen kestävyys on monista syistä johtuen parempi vaikka piirivalmistus yskisi.
 
Noniin laitetaas sitten bensaa kiukaalle lisää. Zen 3:sta huhuja jotta valmistetaan 7nm+, olisi SMT4, DDR4 ja DDR5 tuki.
Lisäksi Jimbo spekuloi että supercompuuttereihin tulee custom piiri jossa 80-corea, eli 15 chiplettiä.
1xIO chiplet
10xCPU chiplet
4xGPU chiplet
Ja tämä kaikki terästettynä 3D stäkätyllä HMB muistolla IO:n päälle.
 
Noniin laitetaas sitten bensaa kiukaalle lisää. Zen 3:sta huhuja jotta valmistetaan 7nm+, olisi SMT4, DDR4 ja DDR5 tuki.
Lisäksi Jimbo spekuloi että supercompuuttereihin tulee custom piiri jossa 80-corea, eli 15 chiplettiä.
1xIO chiplet
10xCPU chiplet
4xGPU chiplet
Ja tämä kaikki terästettynä 3D stäkätyllä HMB muistolla IO:n päälle.
Ja mihinkähän sockettiin tuon pitäisi mahtua? Ainakaan nykyiseen palvelinsockettiin se ei mahdu noilla chiplet määrillä
 
BitDefender researchers discover terrifying security vulnerability in Intel CPUs
Researchers from Romanian security firm BitDefender have uncovered a troubling security vulnerability in Intel processors that could allow an attacker to access privileged kernel-mode information typically considered “off limits” for most applications.

An exploit for the vulnerability, which is called microarchitectural data sampling (MDS), has been proven to work on Intel’s Ivy Bridge, Haswell, Skylake, and Kaby Lake processors.
BitDefender researchers discover terrifying security vulnerability in Intel CPUs

Jahas taas uutta haavoittuvuutta näyttäisi pukkaavan.
 
Windows 10 päivitystäkin pukkasi, saa nähdä paljonko putoaa i9 suorituskyky suojaukset päällä, varmaan saa disabloida heti kaikki kuten Spectret ja Meltdownitkin.
 
Tätä lukiessa tulee mieleen että onneksi viimeinenkin Intelin pöytäkone saadaan myytyä tästä taloudesta ja lähtee tänään eteenpäin ostajalle. Ei sillä, pitkään 2600K jaksoi kakkoskoneessa / paremmalla puoliskolla olla käytössä. Uusia AMD:n prosessoreita odotellessa hän saa tyytyä sitten läppäriin...

Ei sillä, ennen vuotta 2017 aiempi AMD:n prosessori koneessa olikin 3700+ DDR1 aikaan. Eli sillä mennään mikä aina kulloinkin on parempi hinta/laatusuhteessa sekä omaa vähemmän jopa kymmeniä prosenttejä tehoja (sekä tässä tapauksessa ehkä säikeistyksen poistoa) vaativia bugejä.
 
AMD ei ole ollut yhtään varsinaista AM4 kellotusemoa
Nyt Biostar on vuotanut BIOSTAR leaks its own X570 RACING GT8 motherboard - VideoCardz.com
Jossa lisävirta ja ropeli piirille > lienee hyvin energiaa käyttävä malli
Varsinkin kun X470 on jo 12-phase syötöllä varustettu
Mutta Intel on tässäkin edellä esim tässä Z390 AORUS XTREME WATERFORCE (rev. 1.0) | Motherboard - GIGABYTE Global
virta ja lämpöongelmat on ratkaistu kuluttajahinnalla
Vaikka EK,lla on AM4 emoille ns fullcover blockeja , niin tuollaista joka kattaisi myös southbridgen ei vielä löydy
 
Ei tuulettimien lisääminen tee emolevystä yhtään sen enempää kellotusemolevyä kuin ilman.
Se on myynti humpuukia, säästämistä komponenteissa tai huonoa suunnittelua.
Tuo tuuletin on vieläpä laitettu piirisarjalle. Ei liity kellotukseen niin mitenkään.
 
Intel tekee parhaansa helpotakseen prossuostajien ostopäätöksiä:

Intel ZombieLoad flaw forces OS patches with up to 40% performance hits

Tuo tuotaa olla huuhaata, väärin laskettu penalty SMTn poiskytkemisestä tai rajoittamisesta tilanteessa jossa SMTstä saadaan paras hyöty

Intel taitaa mainostetaa, että SMT parhaimmillaan antaa 40% lisäsuorituskyvyn, eli 1.4-kertaisen suorituskyvyn.

Se, että tämä poistuu (tai vähenee) ei kuitenkaan tarkoita hidastumista 40%lla, vaan maksimissaan 1/1.4 = ~0.71 eli 29% hidastumista.

Prosenttilasku tuntuu menevän yllättävän monelle ihmiselle yli ;)

Ja tosiaan tämä tilanteessa jossa SMTstä saatiin paras mahdollinen hyöty.

Käytännössä hyöty SMTstä on usein selvästi pienempi, jolloin haitta sen poiskytkemisestäkin jää selvästi pienemmäksi.
 
Tuo tuotaa olla huuhaata, väärin laskettu penalty SMTn poiskytkemisestä tai rajoittamisesta tilanteessa jossa SMTstä saadaan paras hyöty

Intel taitaa mainostetaa, että SMT parhaimmillaan antaa 40% lisäsuorituskyvyn, eli 1.4-kertaisen suorituskyvyn.

Se, että tämä poistuu (tai vähenee) ei kuitenkaan tarkoita hidastumista 40%lla, vaan maksimissaan 1/1.4 = ~0.71 eli 29% hidastumista.

Prosenttilasku tuntuu menevän yllättävän monelle ihmiselle yli ;)

Ja tosiaan tämä tilanteessa jossa SMTstä saatiin paras mahdollinen hyöty.

Käytännössä hyöty SMTstä on usein selvästi pienempi, jolloin haitta sen poiskytkemisestäkin jää selvästi pienemmäksi.

No tuntuu se olevan sinullekin hankalaa se prosenttilaskeminen. SMT off on se 1 eli 100%, SMT on vastaavasti on se 1.4 eli 140% parhaimmassa tapauksessa, joten kun ajetaan SMT off niin kyllä se perf hitti parhaassa tai pahimmassa tapauksessa on se 40%.
 
No tuntuu se olevan sinullekin hankalaa se prosenttilaskeminen. SMT off on se 1 eli 100%, SMT on vastaavasti on se 1.4 eli 140% parhaimmassa tapauksessa, joten kun ajetaan SMT off niin kyllä se perf hitti parhaassa tai pahimmassa tapauksessa on se 40%.
Annetaan semmonen vinkki että jos suurennat jotain lukua 40% ja sitten pienennät tätä suurennettua lukua 40% niin vastaus ei ole alkuperäinen luku.
 
OT: Juu ei ehkä kannata prosenttilaskuissa tulla pätemään, jos ei perusteet ole kunnossa.

Tuo Venturebeatin peloteltu 29%a(/40%):han oli silloin, mikäli HT kytketään kokonaan pois päältä. Ei siis OS patchien vaikutuksesta.
 
No tuntuu se olevan sinullekin hankalaa se prosenttilaskeminen. SMT off on se 1 eli 100%, SMT on vastaavasti on se 1.4 eli 140% parhaimmassa tapauksessa, joten kun ajetaan SMT off niin kyllä se perf hitti parhaassa tai pahimmassa tapauksessa on se 40%.

:facepalm:

Tämä viesti kertookin kaiken siitä, millaisella asiantuntemuksella ja osaamisella täällä postaillaan.

Prosenttilasku pitäisi kuulua kyllä peruskoulun opetussuunnitelmaan..
 
Lisäksi AM4 alustalle on myös hyviäkin lankkuja, kuten VII hero: Asus ROG CROSSHAIR VII HERO, ATX-emolevy - 309,00€

Toisakseen tuo gigabyten rompe ei ole mitenkään erikoinen kellotusemo. Jos parasta Z390 emoa kellotusmielessä katsotaan niin Dark vie voiton kaikista.

Tämä lienee parasta rahalle , MSI B450 Gaming Pro Carbon AC AMD B450 So.AM4 Dual Channel DDR4 ATX Retail
Muttei tuo ylimääräinen virtapinni vielä tee yhtään mitään

Tuossa GiBy romppeessa on markkinoiden ainoa H2O jäähy joka peittää myös BIOS sirun
> kumpaa noissa X570 emoissa jäähdytetään ropelilla ; siltapiiriä vai jotain muuta ?

EVGAn Dark on tarkoitettu avopenkkeihin LN leikkijöille , se on hankala asentaa 50€ normikoppaan

% laskun lisäksi sivustolla kaivattaisiin myös lukutaitoa
 
Tämä lienee parasta rahalle , MSI B450 Gaming Pro Carbon AC AMD B450 So.AM4 Dual Channel DDR4 ATX Retail
Muttei tuo ylimääräinen virtapinni vielä tee yhtään mitään
Aiemmassa viestissäsi puhut hyvästä kellotuslankusta ja sitten jostain budjettisarjan lankusta?
Tuossa GiBy romppeessa on markkinoiden ainoa H2O jäähy joka peittää myös BIOS sirun
> kumpaa noissa X570 emoissa jäähdytetään ropelilla ; siltapiiriä vai jotain muuta ?

öö. Tuossa jäähdytetään VRM, prossu ja piirisarja yhdellä blokilla. En itse näe mitään syytä miksi piirisarjaa tarvitsisi nykyisin jäähdyttää vedellä saatikka jotain "bios siruja".:rofl:
Toisakseen moneen highend -lankkuun on saatavilla erillisiä VRM blokkeja/monoblockeja.
EVGAn Dark on tarkoitettu avopenkkeihin LN leikkijöille , se on hankala asentaa 50€ normikoppaan

% laskun lisäksi sivustolla kaivattaisiin myös lukutaitoa
Puhuttiin kellotuksesta ja Dark on tähänmennessä Apexin kanssa parhaita emoja ko. hommaan. Noihinkin saa näppärästi vesivermeitä erikseen.
 
Ot. Eikös x299 darkiss tuo ropelli puhalla m.2 levyillekin...
Kyllä. Samalla jäähdytyselementillä jäähdytetään 2x M.2 ja piirisarja ja tuossa yhteydessä tuo aktiivituuletin on jo jollain tapaa perusteltu.
 
Offtopic
:facepalm:

Prosenttilasku pitäisi kuulua kyllä peruskoulun opetussuunnitelmaan..
Aistin ironian, mutta todetaan nyt varmuuden vuoksi kuitenkin, että kuuluuhan se. Peruskoulun matikan kymmenestä kurssista yksi on pelkkää prosenttilaskentaa.

Tämän kaltaiset laskut on osattava kasin arvosanaan, mutta läpi voi toki päästä vaikka olisi toimittajan tasolla.
 
:facepalm:

Tämä viesti kertookin kaiken siitä, millaisella asiantuntemuksella ja osaamisella täällä postaillaan.

Prosenttilasku pitäisi kuulua kyllä peruskoulun opetussuunnitelmaan..

ilman SMT:tä teho on 100% ja SMT:n kanssa saadaan maksimissaan 40% hyöty eli päästään 140% verrattuna SMT off.
Eli vähän kuin alvin vähennys. Se "SMT on" = alvi.
 
ilman SMT:tä teho on 100% ja SMT:n kanssa saadaan maksimissaan 40% hyöty eli päästään 140% verrattuna SMT off.
Eli vähän kuin alvin vähennys. Se "SMT on" = alvi.

:facepalm:

Ei, vaan sinä et osaa peruskoulun opetussuunnitelmaan kuuluvaa prosenttilaskua ja Dunning-Krueger loistaa taas niin ettei voi edes myöntää virhettäsi, vaan jaksat vängätä vaikka olet pihalla kuin lumiukko.

Prosenttilaskussa baseline on aina se alkuperäinen tila johonkin sitä muutosta verrataan. Ja tässä se alkuperinen tila oli se että SMT on päällä ja toimii.


Jos suorituskyky ilman SMTtä on 100 yksikköä, ja SMTn kanssa 140 yksikköä, niin hidastus SMTn poiskytkeminen lasketaan siten, että hidastunut nopeus(100) jaetaan alkuperäisellä nopeudella (140). Saadaan kertoimeksi n. 0.71 eli uusi teho on on n. 71% alkuperäisestä. Tällöin pudotus on 100%-71% = 29% prosenttia.
 
Viimeksi muokattu:
:facepalm:

Ei, vaan sinä et osaa peruskoulun opetussuunnitelmaan kuuluvaa prosenttilaskua ja Dunning-Krueger loistaa taas niin ettei voi edes myöntää virhettäsi, vaan jaksat vängätä vaikka olet pihalla kuin lumiukko.

Prosenttilaskussa baseline on aina se alkuperäinen tila johonkin sitä muutosta verrataan. Ja tässä se alkuperinen tila oli se että SMT on päällä ja toimii.


Jos suorituskyky ilman SMTtä on 100 yksikköä, ja SMTn kanssa 140 yksikköä, niin hidastus SMTn poiskytkeminen lasketaan siten, että hidastunut nopeus(100) jaetaan alkuperäisellä nopeudella (140). Saadaan kertoimeksi n. 0.71 eli uusi teho on on n. 71% alkuperäisestä. Tällöin pudotus on 100%-71% = 29% prosenttia.

Nyt ollaan samaa mieltä siitä että jos baseline on se "SMT on" niin homma menee noin. Mutta jos sinä höpötät että "SMT on" antaa parhaassa tapauksessa 40% hyödyn niin silloin se baseline on se "SMT off"
 
Menee melkoiseksi hiusten halkomiseksi tämä keskustelu. Pitäisikö perustaa erikseen prosenttilaskuthreadi?
Jos nyt linkitetään itse asiaan takaisin, niin nuo prosentit on muutenkin ihan hatusta vedettyjä. Prosenttikeskustelun pohjana käytetty linkki toteaa vain "During testing this month, Apple says that it found “as much as a 40 percent reduction in performance with tests that include multithreaded workloads and public benchmarks”. Voi olla eri mieltä, mutta ilman tarkempaa tietoa testeistä ja metodeista on paha lähteä jeesustelemaan enempää. Esimerkiksi core-määrät tietyissä kuormissa todennäköisesti muuttavat jo prosentteja.
Sinänsä huvittavaa tässä on se, että Intel tosiaan mainostanut SMT/HT-teknologian tuovan parhaimmillaan kymmenien prosenttien tehoedun, mutta nyt sitten kun otetaan se tietoturvasyistä pois käytöstä, niin se pudottaakin suorituskykyä max. 8-9% Tarvitsisisko heille järjestää myös prosenttilaskennan perusteet-kursseja...
 
Nyt ollaan samaa mieltä siitä että jos baseline on se "SMT on" niin homma menee noin. Mutta jos sinä höpötät että "SMT on" antaa parhaassa tapauksessa 40% hyödyn niin silloin se baseline on se "SMT off"

Pointti tässä koko hommassa vaan oli se, että jos SMT on laitetaan päälle, suorituskyky nousee 40% ja kun SMT otetaan pois niin suorituskyky laskee ~28,57% (eikä 40%). Ihan perus yläaste matematiikkaa. Eri asia sitten on se että onko tuo 40% nousu oikein.


Sinänsä huvittavaa tässä on se, että Intel tosiaan mainostanut SMT/HT-teknologian tuovan parhaimmillaan kymmenien prosenttien tehoedun, mutta nyt sitten kun otetaan se tietoturvasyistä pois käytöstä, niin se pudottaakin suorituskykyä max. 8-9% Tarvitsisisko heille järjestää myös prosenttilaskennan perusteet-kursseja...

Käsitin että tuo 8-9% pudotus tarkoittaa että nuo tietoturvapäivitykset pudottaa tuon verran suorituskykyä, kun HT on poissa päältä.
 
Viimeksi muokattu:
ilman SMT:tä teho on 100% ja SMT:n kanssa saadaan maksimissaan 40% hyöty eli päästään 140% verrattuna SMT off.
Eli vähän kuin alvin vähennys. Se "SMT on" = alvi.

(140-100)/100 = 0,400 --> 40 %
(100-140)140 = 0,286 --> -28,6 %

Mutta asiaan: kun näistä asioista ei ymmärrä, niin tarkoittaako tämä nyt sitä, että esim. 9900k:n suoritusteho heikkenee tuon 29 % jatkossa? Alkaa olemaan tuo 500 € vähän kipurajoilla eritoten, kun AMD:n julkaisu taitaa olla ihan kohta. Missä tätä SMT:tä tarvitaan eniten (kuvien/videoiden renderöinti?)?
 
Mutta asiaan: kun näistä asioista ei ymmärrä, niin tarkoittaako tämä nyt sitä, että esim. 9900k:n suoritusteho heikkenee tuon 29 % jatkossa? Alkaa olemaan tuo 500 € vähän kipurajoilla eritoten, kun AMD:n julkaisu taitaa olla ihan kohta. Missä tätä SMT:tä tarvitaan eniten (kuvien/videoiden renderöinti?)?

Ei tarkoita käytännössä. Tuo on se "worst-case" eniten SMTstä hyötyvillä softilla jos painetaan paniikkinappulaa ja vaan kytketään se SMT pois päältä.

Esim pelit hyötyvät SMTstä paljon vähemmän (useimmat pelit käytännössä ei yhtään), ja käsittääkseni tuohon on tulossa käyttis-workaround, joka rajoittaa sitä, mitä säikeitä saa skeduloida saman ytimen virtuaaliytimille.

Tämä rajoittaminen laskee suorituskykyä selvästi vähemmän kuin SMTn kokonaan poistaminen;

Ja nimenoman noita tilanteita joissa ajetaan yhtä raskasta softaa jossa monta säiettä(kuten sitä kuvankäsittelyä/videorenderöintiä), se rajoittaminen ei käytännössä haittaa, ne saman softan eri säikeet saadaan edelleen skeduloida saman fyysien ytimen virtuaaliprosessoreille, se haittaa vain tilanteita, joissa meillä on monta erillistä prosessia tai virtuaalkonetta jotka tekevät ihan eri asioita esimerkiksi eri käyttäjille (palvelimet).
 
Viimeksi muokattu:
Ja tuskin loppukäyttäjän kannattaa edes HT:ta pois ottaa, Intelillä oli ihan hyvät ohjeet kenen sitä kannattaa missäkin tilanteissa harkita.

Mahdollisesti nuo fiksitkin voi disabloida hyvällä omalla tunnolla, kun vaatii kuitenkin tuntemattomien softien ajamista (tai nettisivulla esim. JS, jotka voi tietty disabloida).
 
Kyllähän tuossa enemmän imagotappiota on Intelin puolella ollut viimeaikoina. Ei oikein selitykset auta jos kilpailijalle ei osu oikein mikään sama tietoturva-aukko mitä omille prosessoreille tippuu tasaisin väliajoin. AMD:llä kyllä tuhannen taalan paikka ottaa markkinoita hieman takaisin tämän kaiken keskellä jos Zen2 onnistuu odotusten mukaisesti.
 
4c 8t isosti parempi kuin 4c 4t: Assassins creedit, Kingdom come deliverance, kait muitakin.

Jatkon kannalta HT uskottavuus on kärsinyt kolauksen, eikä niitä voi enää ihan yhtä ennakkoluulottomasti kuin ennen ostaa kummaltakaan valmistajalta. Ei tiedä milloin löytyy joku uusi vika joka paikataan laastarilla.

Voi halutessaan ostaa ylimitoitetun määrän ytimiä, sopii tähän hetkeen ja ei ole kovin kallista, ja tarvittaessa tulevina vuosina kytkeä biosista HT:n pois - ja menettää silloin ehkä neljänneksen suorituskyvystä.

Kysymys kuuluu miten HT pois kytkeminen sopii AMD:n tulevaan chiplet-malliin ja nykyisiin 2600/2700 malleihin. Kiinnostaa tietää tekeekö prosun säikeiden väheneminen enemmän viiveitä tiedon liikutteluun suoritettavan ohjelman säikeiden välillä, koska pitää useammin liikuttaa tietoa fyysisten ytimien, CCX:ien, chiplettien välillä peleissä. Koska Ryzenin muistiohjaimen viiveet ei ole muutenkaan parhaat mahdolliset juuri peleissä.
 
Viimeksi muokattu:
Käsitin että tuo 8-9% pudotus tarkoittaa että nuo tietoturvapäivitykset pudottaa tuon verran suorituskykyä, kun HT on poissa päältä.
No yritin sitä sanoa että ensin on mainostettu HT:tä isoilla prosenteilla kuinka paljon se voi tuoda tehoetua ja kun sitten tulee tietoturvasyistä mahdollinen pakko poistaa se käytöstä niin sen tehoetu olikin enää vain 8-9%. Markkinointiahan tuo vain on, mutta silti huvittavaa.
 
Palautetaan väittely takaisin prosenttitaikureille
QxIK5KZwaKoVp0yz.jpg

Yksi chiplet

O8bTJO1bP4b3wUZc.jpg

2 chiplettiä
Kysymyshän kuuluu montako prosenttia tarvitaan enemmän kapasiteettiä IF kalvolla ?
 
Palautetaan väittely takaisin prosenttitaikureille
QxIK5KZwaKoVp0yz.jpg

Yksi chiplet

O8bTJO1bP4b3wUZc.jpg

2 chiplettiä
Kysymyshän kuuluu montako prosenttia tarvitaan enemmän kapasiteettiä IF kalvolla ?

Ei se ole mikään kalvo.

Kahden chipletin systeemeissä pullonkaulan ei pitäisi olla chiplettien välisessä kaistanleveydessä vaan ennemmin viiveissä, mm. kun tarkastetaan että löytyykö haluttu data toisen chipletin L2- tai L3-välimuisteista.
 
Sori offtopic:

Mutta mistä ihmeestä @El eks saat käännettyä fabric -> kalvo.


Paras suomennos lienee tässä tapauksessa verkko jos on pakko kääntää.
 

Statistiikka

Viestiketjuista
259 452
Viestejä
4 512 654
Jäsenet
74 372
Uusin jäsen
Akeboy78

Hinta.fi

Back
Ylös Bottom