Intelin toimitusjohtaja haluaa siirtää huomion testituloksista teknologian tuomiin hyötyihin

Kaotik

Banhammer
Ylläpidon jäsen
Liittynyt
14.10.2016
Viestejä
22 630
intel-bob-swan-home-20200603.jpg


Kaotik kirjoitti uutisen/artikkelin:
Vaikka Computex-messut siirrettiin koronapandemian vuoksi syyskuulle, on messujen tiimoilta myös pienimuotoisempaa ohjelmaa verkossa näin kesäkuun alkuun. Messujen julkaisemassa avajaisvideossa omat terveisensä pääsi lähettämään Intelin toimitusjohtaja Bob Swan.

Intelin toimitusjohtajan puhe oli omiaan nostamaan useampiakin kulmakarvoja etenkin teknologiamediassa, jonka merkittävimpiä tehtäviä on tuotteiden testaus. Swanin mukaan alan pitäisi nimittäin siirtää huomionsa pois testituloksista ja keskittyä sen sijaan luodun teknologian vaikutuksiin ja hyötyihin globaalilla skaalalla.

Hän kertoo koronapandemian alleviivanneen tiettyyn käyttöön suunnattujen laitteiden tärkeyttä markkinoilla. Niiden tarpeiden täyttäminen vaatii Swanin mukaan asiakkaiden lähellä pysymistä, jotta yhtiö voi ennakoida tarpeet ja optimoida tuotteensa niiden mukaisiksi ajoissa.

[embed]

Voit lukea lainauksen Swanin puheesta alta tai katsoa koko puheen ylle upotetusta videosta.
We should see this moment as an opportunity to shift our focus as an industry from benchmarks to the benefits and impacts of the technology we create. The pandemic has underscored the need for technology to be purpose-built so it can meet these evolving business and consumer needs.

And this requires a customer-obsessed mindset to stay close, anticipate those needs, and develop solutions. In this mindset, the goal is to ensure we are optimising for a stronger impact that will support and accelerate positive business and societal benefits around the globe.

Täysin uudesta teemasta ei Swanin puheessa ei kuitenkaan ole kyse. Intel on muun muassa painottanut viime aikoina oikeiden käyttöskenaarioiden merkitystä yksittäisten testiohjelmien sijasta sen prosessoreiden jäätyä pahasti alakynteen monien testiohjelmien mittaamilla osa-alueilla AMD:n Ryzen-prosessoreita vastaan. Kerro kommenteissa, mitä mieltä olet Bob Swanin ajatuksista kuluttajan näkökulmasta katsottuna?

Linkki alkuperäiseen juttuun
[/embed]
 
Aika perus paskanjauhantaahan tuo, koska jos tilanne olisi toinen, niin hehkuttaisivat miten ne pärjäävät niin upeasti testisoftissa. Olisi aika järkkyä yrittää tehdä raudan suhteen valintoja, jos ei olisi kunnon testidataa saatavilla. Inteliltä vähän sellainen "väärin testattu" kommentti kaikille testaajille. :poop:
 
Onhan tuo ihan totta. Intel on itse tainnut keskittyä sähkökiukaisiin viime aikoina. Luku 14 ja perässä 20 plussaa on myös estetiikan kuumimpia trendejä markkinointimateriaaleissa.
 
Bob Swan sanoi:
We should see this moment as an opportunity to shift our focus as an industry from benchmarks to the benefits and impacts of the technology we create. The pandemic has underscored the need for technology to be purpose-built so it can meet these evolving business and consumer needs.
And this requires a customer-obsessed mindset to stay close, anticipate those needs, and develop solutions. In this mindset, the goal is to ensure we are optimising for a stronger impact that will support and accelerate positive business and societal benefits around the globe.

Niin, mitäs jos optimoisivat teknologiansa niin että tuotteet pärjää vertailussa kilpailijoita vastaan. Sitähän kaikki asiakkaat haluaa. Swanin höpinä kuulostaa siltä että kun ostat Intelin prossun niin se jotenkin tekee maailmasta paremman paikan.

Tuo kommentti kuulostaa myös aika huvittavalta sen jälkeen kun Intel myi kuluttajille 10 vuoden ajan korkeintaan neliytimisiä prosessoreja, mutta kun kilpailijalta tuli 8-ytimiset kuluttajamallit niin Intelkin alkoi nostaa kuluttajaprossujen ydinmääriä kauhealla kiireellä. Väittääkö Swan että kuluttajat halusi 10 vuoden ajan sitä samaa tavaraa uudelleen pakattuna ja korkeammilla kelloilla, ja kuluttajien tarpeet muuttuivat juuri silloin kun Intel julkaisi ensimmäiset 6- ja 8-ytimiset prosessorit? Aikamoista BS:ää.
Kun ei pärjätä kilpailijalle niin sitten keksitään tällaisia naurettavia selityksiä ja koitetaan ohjata fokus suorituskyvystä johonkin maailmanparantamiseen.

Customer-obsessed mindset särähtää myös aikalailla korvaan kun miettii Intelin touhuja tässä vuosien varrella. Ovat asiakkaiden sijaan kyllä keskittyneet paljon enemmän siihen että mahdollisimman vähällä rahastetaan mahdollisimman paljon, ja että kilpailijat savustetaan ulos markkinoilta tai ainakin lykitään kapuloita rattaisiin millä keinolla hyvänsä. Ei sillä että esim. AMD olisi jokin hyväntekeväisyyslaitos, mutta ne nyt ei sentään suolla ulos noin naurettavaa lätinää.
 
Luonnollisesti kiinnostaa sellaiset testit joista selviää nopeus siinä käytössä mihin prosessoria käytän.
Esim en pelaa Cinebenchiä joten sen tulokset ei kiinnosta.

Kannattajat toki yleensä pureutuu usein tiettyyn testiin/testeihin mikäli se on juuri se oma suosikki merkki joka siinä hyvin pärjää, vaikka sitä ei ikinä itse käyttäisikkään.
Tätä on tapahtunut aina, kuten esim gpu puolella Ashes of singularity jne jne..

Cinebench tuntuu olevan sellainen jota moni käyttää? Tulokset ainakin tuntuu olevan erittäin tärkeitä monelle jostain kumman syystä :think:

Mutta kattavat testit on yleensä sellaiset joista selviää prosessorin soveltuvuus omiin tarpeisiin, joten tottakai niitä testejä pitää katsoa eikä maksaa silmät kiinni sitä mitä Inteli pyytää.
 
Luonnollisesti kiinnostaa sellaiset testit joista selviää nopeus siinä käytössä mihin prosessoria käytän.
Esim en pelaa Cinebenchiä joten sen tulokset ei kiinnosta.

Kannattajat toki yleensä pureutuu usein tiettyyn testiin/testeihin mikäli se on juuri se oma suosikki merkki joka siinä hyvin pärjää, vaikka sitä ei ikinä itse käyttäisikkään.
Tätä on tapahtunut aina, kuten esim gpu puolella Ashes of singularity jne jne..

Cinebench tuntuu olevan sellainen jota moni käyttää? Tulokset ainakin tuntuu olevan erittäin tärkeitä monelle jostain kumman syystä :think:

Mutta kattavat testit on yleensä sellaiset joista selviää prosessorin soveltuvuus omiin tarpeisiin, joten tottakai niitä testejä pitää katsoa eikä maksaa silmät kiinni sitä mitä Inteli pyytää.
Cinebench on ihan oikeasti käytettyyn ohjelmaan (Cinema4D) perustuva testi, mikä tekee siitä heti ainakin kaikkia synteettisiä testejä mielenkiintoisemman.
 
Voi intelli raukka, kyllä sillä koolla on väliä vaikka ne sanoo että ei ole.
 
Tämä on yksi CEO:n päätehtävistä. Mainostaa oman yhtiön tuotteita kuluttajille ja nyt ovat valinneet tämän lähestymistavan.
 
No joo, itse kyllä vielä tänäkin päivänä suosin inteliä ja tulen käyttämäänkin. Ainut mihin itse käytän tietokonetta on puhdas pelaaminen ja musiikin kuuntelu. Näihin en tarvitse 16 ydintä pyörittämään. Ja fakta on, kun vertaat intel ja amd keskenään, intel voittaa kun kyse on pelaamisesta ja multitasking ja muu renderöinti menee kyl vahvasti amd puolelle. Elkää lähtekö hypejunan kyytiin pelkästään testitulosten varjolla jos voittaa jossain videoiden ja muun härpäkkeen käsittelyssä, mikäli pelaat vaan tietokoneellasi ota intel i7-9700k ❤️
 
No joo, itse kyllä vielä tänäkin päivänä suosin inteliä ja tulen käyttämäänkin. Ainut mihin itse käytän tietokonetta on puhdas pelaaminen ja musiikin kuuntelu. Näihin en tarvitse 16 ydintä pyörittämään. Ja fakta on, kun vertaat intel ja amd keskenään, intel voittaa kun kyse on pelaamisesta ja multitasking ja muu renderöinti menee kyl vahvasti amd puolelle. Elkää lähtekö hypejunan kyytiin pelkästään testitulosten varjolla jos voittaa jossain videoiden ja muun härpäkkeen käsittelyssä, mikäli pelaat vaan tietokoneellasi ota intel i7-9700k ❤
9700K on väliinputoaja. Jos vain pelaa niin 10600K tai 3300X riippuen budjetista.
 
Intelin toimitusjohtajan puhe oli omiaan nostamaan useampiakin kulmakarvoja etenkin teknologiamediassa, jonka merkittävimpiä tehtäviä on tuotteiden testaus. Swanin mukaan alan pitäisi nimittäin siirtää huomionsa pois testituloksista ja keskittyä sen sijaan luodun teknologian vaikutuksiin ja hyötyihin globaalilla skaalalla.

Niin siis Swanin mukaan siellä tekijäpuolella pitäisi siirtää katse puhtaasti kovemman geneerisen suorituskyvyn haalimisesta tarkemmin kohdennettuihin ratkaisuihin, näin itse tuon kohtuullisen korkealentoisen kommentin tulkitsen. En oikein usko että Intelin CEO sisällyttää teknologiamediaa sanaan "industry", kuten tuossa yllä tunnutaan rinnastettavan.

Kuluttajan näkökulmasta nämä isojen johtajien suuren siveltimen heilautukset joilla maalataan tulevaisuuden visioita lienee aika merkityksettömiä, varsinkin sillon kun kohdeyleisönä on lähinnä toiset alan toimijat.
 
Nyt tulee kyllä melkoista propagandaa, joka on lähinnä paniikki-damage-controllia siihen ettei intel enää pärjää niissä benchmarkeissa, erityisesti kun tuntee Intelin historian.

Intel jos kuka on pyrkinyt täyttämään koko maailman samanlaisilla x86-ytimillä, joiden kilpailuvaltti on ollut nimenomaan yhteensopivuus(samanlaisuus) ja raaka teho (nimenomaan niissä benchmark-softissa, ja niissä on sitten joskus huijattukin).

Intel jos kuka on nimenomaan tehnyt myynyt aivan samoja piirejä kaikille eikä ole juuri customoinut piirejä asiakkaiden tarpeisiin.

AMD sen sijaan on tehnyt Sonylle, Microsoftille ja sille jollekin tuntemattomalle kiinalisfirmalle konsolipiirejä, sekä kiinalaisille oman version zen-ytimestä.

ARM myy ziljoonaa eri ydinmallia kaikille, että niitä voidaan laittaa customoituihin piireihin, ja auttaa sen lopullisen piirin suunnittelussa.


Jos maailman huomio olisi aiemmin ollut siinä, mitä Swan nyt toitottaa, Intel olisi pärjännyt paljon huonommin.
 
Viimeksi muokattu:
Eikös tuo ole samanlainen lausunto kuin joku epämääräinen digitalisaatio sitä ja tätä lausunto. Olisi heittänyt edes muutaman konkreettisen esimerkin. Kyllähän tuo varmaan sellaisiin uppoaa hyvin jotka eivät sen enempää näistä ymmärrä.
 
Ei se pelaajaa lohduta jos fps:t jää alas, vaikka kuinka maailma kokonaisuudessaan pelastuisi tekniikan hyödyillä.
 
Customer-obsessed mindset särähtää myös aikalailla korvaan kun miettii Intelin touhuja tässä vuosien varrella.

Customer obsessed mindset on luultavasti Salesforce-CRM:n konsepti vuodelta 2018. Voin olla väärässä mutta nopea googlaus johti sille sylttytehtaalle. Eli Intel ei ollut keksinyt pyörää uudestaan vielä takavuosina.

Customer obsession kuulostaa myynti- ja johtamiskonsulttien inspiraatiolta, jossa joku sinällään tärkeä ajatus otetaan suurennuslasin alle ja hetken päästä kaikki toistelevat mantraa vaikuttaakseen trendikkäiltä. Lean oli muutama vuosi sitten juttu, jonka kanssa porukalla briljeerattiin kunnes taksikuskit alkoi pitää siitä esitelmää matkalla. Arvostusta silti leanille ja kuskeille, molempia tarvitaan.

Jos maailman huomio olisi aiemmin ollut siinä, mitä Swan nyt toitottaa, Intel olisi pärjännyt paljon huonommin.

Bob Swan eroaa AMD:n ja nVidian toimareista siten, että hänellä on tutkinto kauppiksesta, kun kahdella muulla on puolijohteiden tekniikasta. Kommentoin kriittisesti sitä (1, 2) kun nimitys tuli.
Customer obsessed mindset on voinut olla osa myyntipuhetta, jolla Swan onnistui puhumaan itselleen paikan toimarina. Termi tuli muotiin
luultavasti 2018 ja Swan valittiin tehtävään tammikuussa 2019. Customer obsession oli hänen kirjeessään työntekijöille tehtävää alkaessa.

Jos tekniikka jollain liiketoiminnan osalla tökkii, parempi myynti on tapa tehdä lisää tulosta silloinkin. Keskinkertainen tuote ja hyvä myyjä on menestyksen resepti, luultavasti enemmän kuin hyvän tuotteen ja keskinkertaisen myyjän yhdistelmä. Siksi voi olla että Swan on oikeassa ja kriitikot (minä) väärässä. Kunhan vaan valmistusprosessi lähtisi joskus pelaamaan.
 
9700K on väliinputoaja. Jos vain pelaa niin 10600K tai 3300X riippuen budjetista.
9700K mahdollistaa tosin kovemmat FPS pelistä peliin.

3300X 4/8 en lähtisi kovin tosissani pelaajalle suosittelemaan varsinkin jos Budjetti on 9700K luokkaa, pieneen budjettiin 3300X toki Ok.

relative-performance-games-1280-720.png

Ja ennekuin joku pääsee sanomaan että "Tää on 720p/2080Ti ei kukaan käytä tuollaista"
Niin tämä kuvastaa hyvin myös sitä jos laskee peleistä esim.asetuksia jolloin Fps nousee ja vaatii prosessorilta enemmän suorituskykyä.
Tämä tulee silloin erityisesti tarpeeseen kun haluaa hyödyntää 144/240Hz näyttöään.

Eli 720p/2080Ti combo vain siksi että todelliset prosessorin rahkeet tulevat esille.
 
Vähemmän yllättävä kannanotto kun on kuitenkin "firman mies". Se kenen leipää syöt, sen lauluja laulat vai miten se meni.
 
Ei se pelaajaa lohduta jos fps:t jää alas, vaikka kuinka maailma kokonaisuudessaan pelastuisi tekniikan hyödyillä.

Kysymys on maailman pelastamisesta. Etlan (lainaaman lähteen) mukaan vuonna 2030 maailman energian kulutuksesta 21 % menee ICT-alan tarvitsemaan sähköön ja syynä siihen on mikäs muu kuin striimaus ja online-pelaaminen (80-90 %). Pelaajat siis tuhoavat planeetan. Olisi ihmeellistä, jos mitään tiedonsiirtoveroa ei olisi tulossa lähivuosina.

5G:n ongelma ei ole tarve kääriytyä alumiinifolioon, vaan se tukiasemien määrä joka kytketään sähkötöpseliin.
 
Bob Swan eroaa AMD:n ja nVidian toimareista siten, että hänellä on tutkinto kauppiksesta, kun kahdella muulla on puolijohteiden tekniikasta. Kommentoin kriittisesti sitä (1, 2) kun nimitys tuli.
Customer obsessed mindset on voinut olla osa myyntipuhetta, jolla Swan onnistui puhumaan itselleen paikan toimarina. Termi tuli muotiin
luultavasti 2018 ja Swan valittiin tehtävään tammikuussa 2019. Customer obsession oli hänen kirjeessään työntekijöille tehtävää alkaessa.

Jos tekniikka jollain liiketoiminnan osalla tökkii, parempi myynti on tapa tehdä lisää tulosta silloinkin. Keskinkertainen tuote ja hyvä myyjä on menestyksen resepti, luultavasti enemmän kuin hyvän tuotteen ja keskinkertaisen myyjän yhdistelmä. Siksi voi olla että Swan on oikeassa ja kriitikot (minä) väärässä. Kunhan vaan valmistusprosessi lähtisi joskus pelaamaan.

Tässä on kyse lyhyt aikaskaala vs pitkä aikaskaala.

Hyvä myyntimies osaa myydä hiukan huohkoja tuotteita, mutta mikään myyntitaito ei pelastaa siinä vaiheessa, jos tuotteet pääsee aivan kura-tasolle asti.

Ja myyntimiehen/pavunlaskijan alaisuudessa se R&D näivettyy ja alkaa kehittämään vääriä asioita (lyhyen tähtäimen optimointia), kun puuttuu visio siitä, mitä pitäisi oikeasti pitkällä aikaskaalalla tehdä). R&Dn näivttyminen käytännössä tarkoittaa joko
1) Resurssien liiallista ohjaamista nykyisten tuotteiden viilaamiseen seuraavan arkkitehtuurin kehittämisen sijaan (paras esimerkki tästä oli ehkä Apple Sculleyn aikana, mutta tähän syyllistyi myös hyvin pahasti Nokia suhteessaan Symbianiin)
2) Liiallista säästämistä ja nipottamista, joka haittaa tuotekehitystä ja saa nimenomaan osaavimmat ihmiset ärsyyntymään ja lähtemään firmasta (eniten ehkä ärsyttää se, että aiemmin käytössä olleita työsuhde-etuja poistetaan, ja byrokratiaa lisätään)
3) Tulevaisuuden tuotekehityksen ohjaamista liian korkealentoisiin (huuhaa-)projekteihin, kun johtoportaalta puuttuu ymmärrys siitä, mitkä tulevaisuuden ideat on järkeviä ja mitkä huuhaata, ja mitkä on järkevä (yrittää) tuotteistaa massamarkkinoille vasta 10 vuoden eikä kolmen vuoden päästä. Mennään buzzwordien mukana.

Tekniikasta ymmärtävä johtoporras osaa laittaa R&Dn kehittämään oikeita asioita, että 2-6 vuoden päästä on markkinoilla oikeita, hyviä ja kilpailukykyisiä tuotteita, joilla silloin tehdään hyvää katetta.

Ja jos firmalla on oikein hyvä kassatilanne(kuten intelillä on), firman kannalta siinä lyhyen tähtäimen optimoinnissa pitkän tähtäimen kustannuksella ei pitäii iolla mitään järkeä (ellei sitten luovuteta peliä ja todeta, että ei me kuitenkaan osata kehittää mitään millä pärjätä tulevaisuudessa, rahastetaan nyt sillä mitä voidaan ja romahdetaan sitten)

Johdon kannalta siihen lyhyen tähtäimen optimointiin toki motivoi väärin rakennetut bonusjärjestelmät, joissa bonukset maksetaan firman sen hetkisen eikä tulevan tuloksen suhteen; Järkevässä bonusjärjestelmässä bonukset tulisivat sen pari vuotta myöhässä.
 
Ja myyntimiehen/pavunlaskijan alaisuudessa se R&D näivettyy ja alkaa kehittämään vääriä asioita (lyhyen tähtäimen optimointia), kun puuttuu visio siitä, mitä pitäisi oikeasti pitkällä aikaskaalalla tehdä)

Näin on. Toisessa ketjussa johon viittasin kirjoittelinkin, että jos johtajalta itseltään puuttuu visio, niin 100 000 alaista ei pysty sitä hänelle tekemään.

Johdon kannalta siihen lyhyen tähtäimen optimointiin toki motivoi väärin rakennetut bonusjärjestelmät, joissa bonukset maksetaan firman sen hetkisen eikä tulevan tuloksen suhteen; Järkevässä bonusjärjestelmässä bonukset tulisivat sen pari vuotta myöhässä.

Catch voi olla siinä, kuinka pitkään muut yhtiön hallituksessa olevat osakkeenomistajat itse tahtovat omistaa osakkeita. Jokainen toimija optimoi tekemänsä valinnat omalta osaltaan.
PK-yrityksen omistajayrittäjä katsoo asioita hyvin pitkällä tähtäimellä, kun firma tuntuu omalta. Intelillä oli ehkä semmoista ajatusmaailmaa 70-luvulla ja ehkä vielä jonkun tradition muodossa 80-luvulla.

Nykyiset megayhtiön hallituksen haikalat voisi tavoitella mahdollisimman suurta osakkeen arvoa vaikka 3-5 vuoden päähän, jolloin takaraivossa ajatus on itse tai omalla porukalla nostaa kytkintä silloin. Henkilökohtainen kiintymys firmaan puuttuu. Voi olla, että osakkeita omistaa henkilöiden sijasta yhtiöt ja päätöksiä tehdään aika paljonkin vuosineljänneksen verran taaksepäin katsomalla ja toteutumien Excel-sheetin pohjalta.

Vertailun vuoksi, nVidian ja AMD:n toimarit vaikuttaa henkilökohtaisesti sitoutuneilta omaan yhtiöön. Intelin toimarin voisi kuvitella jatkavan vaikka jossain öljy-yhtiön hallituksessa parin vuoden päästä, jos Intelin tulos on kehittynyt melko hyvin parin vuoden ajan.

Hallituksen jäsenten hurjan kalliit osakkeisiin pohjautuvat sitoutusohjelmat tietty koittaa siirtää tähtäintä eteenpäin. En ole lueskellut kirjallisuutta aiheesta.
 
Kysymys on maailman pelastamisesta. Etlan (lainaaman lähteen) mukaan vuonna 2030 maailman energian kulutuksesta 21 % menee ICT-alan tarvitsemaan sähköön ja syynä siihen on mikäs muu kuin striimaus ja online-pelaaminen (80-90 %). Pelaajat siis tuhoavat planeetan. Olisi ihmeellistä, jos mitään tiedonsiirtoveroa ei olisi tulossa lähivuosina.

Se "streamaus" on >80%sti youtuben ja netflixin (ja muiden suoratoistopalveluiden, mitä niitä nyt onkaan) katsomista, ei pelistreamien katsomista.

Ja suhteessa pahin tietotekniikka-alaa oleva "maailman tuhoaja" on leikkiraha, jonka mainaaminen ei tuota maailmalle mitään lisäarvoa, mutta johon vaan haaskataan huomattava määrä sitä sähköä.

ja (käytännössä) kaikki internet-palveluntarjoajat ja streamauspalvelimien pitäjät makselevat jo energiaveroja sähköstään.

Ei sen päälle tarvita mitään erillisiä bittiveroja.

Ja niin, tällä hetkellä ne intelin datakeskusprosessorit (jollaisilla esim. netflixiä ja youtubea pyöritetään) ovat nimenomaan energiatehokkuudessa pahasti AMDn EPYCejä jäljessä. Valitsemalla Intelin palvelinprosessorin ollaan tuhoamassa maailmaa, ei pelastamassa sitä.

Katsotaan sitten muuttuuko tilanne kun Icy Lake SP (parin kuukauden päästä?) tulee, mutta itse vähän pelkään että ei tarpeeksi; Icy Lake SP-piirin Sunny Cove-ytimet ovat niin isoja ytimiä, että niitä ei järkevän kokoiselle palvelinpiirille saa tarpeeksi, niistä saadaan kyllä kova IPC ja sen kautta yhden säikeen suorituskykyä ulos, mutta kun EPYC ajaa 1.7-kertaista(*) määrää säikeitä saman luokan (tai jopa halvemmilla) valmistuskustannuksilla ja saman luokan virrankulutuksella, niin siinä ei joku 20% IPC-ylivoima pelasta palvelinkäytössä jossa niitä säikeitä riittää ajettavaksi; Edelleen Icy Lake SPn tultuakin zen2-EPYC lienee energiatehokkaampi ja monen säikeen suorituskyvyltään parempi serveriprossu useampiin käyttötarkoituksiin.

Tosin streamauspalvelimilta ei vaadita maksimaalista CPU-tehoa vaan muistikaistaa ja IO-kaistaa, jolloin voidaankin päätyä vertailuun jossa on 8-muistikanavainen , 32-ytiminen (4-CCDinen) zen2-EPYC vs 28-ytiminen cascade lake-SP/24-ytiminen icy lake-SP, joissa 6-kanavainen muisti ja vähemmän pcie-linjoja. Tällöin EPYC on halvempi ja mukavasti edellä suuremman muisti- ja IO-kaistansa ansiosta, virrankulutusero taas vähenee koska muisti ja IO kuluttaa virtaa riippumatta siitä, millaiset ytimet sitä käskyttää.

5G:n ongelma ei ole tarve kääriytyä alumiinifolioon, vaan se tukiasemien määrä joka kytketään sähkötöpseliin.

Ei, juuri päin vastoin tuon tukiaseman määrän suhteen:

Suurempi tukiasemamäärä vähentää kokonaisvirrankulutusta siirrettyyn datamäärään nähden.

Suurempi määrä tukiasemia tarkoittaa sitä, että päätelaite ja tukiasema ovat paljon lähempänä toisiaan.

Tarvittava lähetysteho skaalautuu toiseen potenssiin etäisyyteen nähden.

Se, että yhden ison tukiaseman sijaan on vaikka 16 pientä tukiasemaa, tarkoittaa sitä, että tukiasema on keskimäärin 4 kertaa lähempänä, ja voidaan käyttää 16 kertaa pienempää lähetystehoa.

Tukiaseman tekemän prosessoinnin virrankulutus, se sitten skaalautuu melko lineaarisesti siirrettyyn datamäärään nähden.

Toki uudet modulointitavat ja järeämmät virheenkorjausalgoritmit (joiden tarkoitus on lisätä verkon kapasiteettia) voivat lisätä sähkönkulutusta/bitti (mutta osa näistä voi myös vähentää sitä), mutta näillä ei ole paljoa tekemistä tukiasemien määrän kanssa.


Ja Intelin kontribuutiot tällä hetkellä markkinoilla olevan 5G-teknologian tasolle on maailmanlaajuisessa mittakaavassa olleet selvästi enemmän negatiivisia kuin positiivia. Tästä en ehkä sano enempää, koska tähän liittyy ei-julkista tietoa.

(*) 64 / 38 ydintä, molemmissa SMT2, käsittääkseni järeimmät Icy Lake SP:t tulevat olemaan 38-ytimisiä
 
Viimeksi muokattu:
Itse aiheeseen liittyen, aika selvää damage controlliahan tämä on. Ovathan he aikaisemminkin päättäneet, että jotkin tietyt testitulokset eivät enää merkaakaan mitään, kun kilpailija saa niissä paremmat tulokset. Sitä mukaa, kun kilpailija pärjää paremmin useammassa ja useammassa testissä, niin sitä enemmän testejä tuntuu putoavan listalle "mutta nämä nyt eivät ole tärkeitä, älkää katsoko näitä".

OT:
9700K mahdollistaa tosin kovemmat FPS pelistä peliin.

3300X 4/8 en lähtisi kovin tosissani pelaajalle suosittelemaan varsinkin jos Budjetti on 9700K luokkaa, pieneen budjettiin 3300X toki Ok.

relative-performance-games-1280-720.png

Ja ennekuin joku pääsee sanomaan että "Tää on 720p/2080Ti ei kukaan käytä tuollaista"
Niin tämä kuvastaa hyvin myös sitä jos laskee peleistä esim.asetuksia jolloin Fps nousee ja vaatii prosessorilta enemmän suorituskykyä.
Tämä tulee silloin erityisesti tarpeeseen kun haluaa hyödyntää 144/240Hz näyttöään.

Eli 720p/2080Ti combo vain siksi että todelliset prosessorin rahkeet tulevat esille.
Hetkinen, eikös tuossa lainaamassasi kuvaajassa tämä 10600k pärjää paremmin, kuin 9700k (Sillä on isompi palkki, sekä "Higher is Better", kävin lisäksi katsomassa pelikohtaisesti, ja lähes kaikissa tämä 10600k voitti 9700k:n fps:ssä, lukuunottamatta 1-2 peliä kymmenestä per resoluutio. Lainaamassasi viestissä kuitenkin mainittiin tämä 10600k.)? Vai oliko vastaus puhtaasti tuohon 3300X:n liittyvä, jossa tapauksessa näyttäisi olevan juuri, kuten sanoit.
 
Se "streamaus" on >80%sti youtuben ja netflixin katsomista, ei pelistreamien katsomista.

Pahoittelen että menee OT puolelle, aihe sinällään kiinnostaa mutta ei taida jaksaa siirtoa ja jatkoja sopivampaan ketjuun.

Eli joo, miten sitten 2030, jää nähtäväksi yleistyykö ehkä Stadiat ja vastaavat. Etlan lainaamia lähteitä en ole lukenut.

Ja todellisin turha tietotekniikkaan liittyvä "maailman tuhoaja" on leikkiraha, jonka mainaaminen ei tuota maailmalle mitään lisäarvoa, mutta johon vaan haskataan hirveästi sitä sähklöä.

Näin on ja samoilla linjoilla Warren Buffett. Ellei sitten nykyinen fiat-raha vaikka jossain karmeassa kriisin skenaariossa kokonaan epäonnistuisi.

Ei sen päälle tarvita mitään erillisiä bittiveroja.

Ei ole yhden totuuden asia vaan arvomaailmajuttua. ICT:n energian kasvu voi tulla muun energian kulutuksen päälle. En tiedä, onko niin mutta ihan mahdollista se varmaan on. En tiedä säästääkö internet CO2-päästönsä verran CO2-säästöjä toisaalla. Jos striimaus dominoi niin hyötykäyttö ja kaupankäynti ei kait vie netin nykyisestä tiedonsiirrosta kuin ehkä jonkun kymmenyksen verran ja loput on Salkkareita ja vastaavaa.
Jos näin on, niin 4k-videoiden katsominen kännykän ruudulta ei välttämättä tuota maailmalle sohvalla lojumista kummempaa lisäarvoa mutta voi olla CO2-ongelma jos jokainen sitä tekee.

Suurempi tukiasemamäärä vähentää kokonaisvirrankulutusta siirrettyyn datamäärään nähden.

Kysymys on siitä onko siirretyn datan määrä valtava kasvu mahdollista tuottaa kestävällä tavalla. Tällä hetkellä tietääkseni ei.
 
Real-World... Not Really. Sama Ryan Shroutin aloittama laulu jatkuu, jossa kyseenalaistetaan milloin mitäkin mikä sopii yhtiön kulloiseenkin markkinointistrategiaan. Intel's Swan song... let's hope not.
 
Eli joo, miten sitten 2030, jää nähtäväksi yleistyykö ehkä Stadiat ja vastaavat. Etlan lainaamia lähteitä en ole lukenut.

Nojuu, nuo "etäpelauspalvelut" on kyllä melkoista sähkönhukkaa (ja muutenkaan niissä ei ole paljoa järkeä)

Niissä joutuu vielä käyttämään huonompia videonpakkausmoodeja viiveen pitämiseksi pienenä, joten kuvan siirtämiseen joudutaan käytännössä käyttämään moninkertainen kaistanleveys normaaliin suoratoistopalveluun verrattuna.

Mutta, transistorit halpenee jatkuvasti (Mooren laki ei ole kuollut, vaan vain hidastunut) joten 2030 (melkein) kaikilla on taskussa kännykkä, jossa on niin tehokas 3d-kiihdytin (myös säteenjäljitykseen) että millekään etäpelauspalveluille ei ole mitään tarvetta suorituskyvyn takia.

Ei ole yhden totuuden asia vaan arvomaailmajuttua. ICT:n energian kasvu voi tulla muun energian kulutuksen päälle.

ICT-energian kasvulla voidaan myös korvata (ja samalla vähentää) energiankulutusta muualla; Kun Korona-aikana (melkein) kaikki tietotekniikkatyöläiset tekevät töitään kotoa etätöinä, ja työmatkat on muuttuneet etäpalavereiksi, työmatkoihin käytetty energiankulutus on romahtanut.

Korona on romahduttanut maailman CO2-päästöt, vaikka tietotekniikan energiankulutus on sen aikana lisääntynyt.

Nyt kun Korona-aikana on (pakosta) otettu käyttöön paljon uusia (matkustusta/liikkumista vähentäviä) tapoja tehdä asioita, osa näistä voi jäädä voimaan Koronan jälkeenkin kun huomataan, kuinka hyvin ne toimii ja kuinka paljon niillä säästetään.

Jos näin on, niin 4k-videoiden katsominen kännykän ruudulta ei välttämättä tuota maailmalle sohvalla lojumista kummempaa lisäarvoa mutta voi olla CO2-ongelma jos jokainen sitä tekee.

4k-videon katsominen kännykän ruudulta kertoo lähinnä siitä, että sen katsoja on "isompi luku aina parempi"-idiootti.

Mutta mikäli se video tulee langattomasti viiden metrin päässä olevan mikrotukiaseman kautta (ja tulee siihen ethernetiä ja valokuitua pitkin 300km päässä olevasta datakeskuksesta eikä toisella puolella maapalloa olevasta datakeskuksesta), eikä 5km päässä olevan 4G-tukiaseman kautta, sen siirto ei aiheuta merkittäviä CO2-päästöjä


Ja datansiirtoverosta:

Ja jos joku maa päättäisi ottaa käyttöön datansiirtoveron, jossa sen maan runkoverkoissa olevaa dataa verotettaisiin jollain verolla, niin se maa samalla varmistaisi sen, että siihen maahan ei sen veron voimassaollessa tulla rakentamaan yhtään uutta palvelinkeskusta, vaan ne palvelinkeskukset rakennettaisiin naapurimaihin, ja olemassaolevat datakeskuksetkin pikku hiljaa siirrettäisiin muualle. Eli se maa vaan menettäisi työpaikkoja ja verotuloja.

Eli tämä datansiirtovero käytännössä helposti vain lisäisi niitä kokonaispäästöjä, koska data pitäisi siirtää kauempaa kun datakeskukset keskittyisivät enemmän maihin, joissa datansiirtoveroa ei ole

Datansiirtovero voisi siis käytännössä toimia vain, mikäli se otettaisiin käyttöö esim. koko EUn tasolla.

Mutta siinä ei silti olisi mitään järkeä. Järkeä on verottaa niitä päästöjä suoraan.

Se, että verotetaan tiettyjä käyttötarkoituksia johtaa vaan siihen että systeemi toimii epätehokkaammin ja päästöt vaan lisääntyy: Hyvä esimerkki tästä on se, että tällä hetkellä autoilua verotetaan paljon ankarammin kuin lentoliikennettä, ja lentoliikenne, joka on todellisuudessa epäympäristöystävällisempi tapa liikkua kuin autoilu, tulee usein halvemmaksi (vain) tämän (keinotekoisen) veroedun takia.


Kysymys on siitä onko siirretyn datan määrä valtava kasvu mahdollista tuottaa kestävällä tavalla. Tällä hetkellä tietääkseni ei.

Kyllä voidaan, juuri sillä tavalla kuin sitä 5G:ssä ollaan tekemässä: rakentamalla pienempiä tukiasemia lähemmäs käyttäjiä, jolloin lähetystehojen myötä pienenee virrankulutus.

Ja teleoperaattoreilla kyllä osataan ottaa kustannuslaskelmissa huomioon tukiasemien sähkönkulutus => pyritään ostamaan sellaisia tukiasemia, joissa on mahdollisimman pieni virrankulutus => tukiasemavalmistajat pyrkivät kehittämään tukiasemia, joilla on pieni virrankulutus.

Se, että tukiasema on hyvin lähellä ja kaistaa jää paljon "ylimääräiseksi" voisi myös mahdollistaa sen, että käytetäänkin yksinkertaisempia modulointi- ja virheenkorjausalgoritmeja, joilloin siirrettyä bittiä kohden käytettyä prosessointimäärää ja sen kautta prosessoinnin virrankulutusta voitaisin vähentää. Sitä, tehdäänkö näin, en tiedä, vaikka minun varmaan pitäisi tietää. (toisaalta, jos tietäisin, en ehkä saisi sitä sanoa).
 
Viimeksi muokattu:
2030 (melkein) kaikilla on taskussa kännykkä, jossa on niin tehokas 3d-kiihdytin (myös säteenjäljitykseen) että millekään etäpelauspalveluille ei ole mitään tarvetta suorituskyvyn takia.

OT. Vuoden 2030 kännykkä ei välttämättä jaksa vuoden 2030 pöytäkoneen standardin mukaisia pelejä.

Mutta mikäli se video tulee langattomasti viiden metrin päässä olevan mikrotukiaseman kautta (ja tulee siihen ethernetiä ja valokuitua pitkin 300km päässä olevasta datakeskuksesta eikä toisella puolella maapalloa olevasta datakeskuksesta), eikä 5km päässä olevan 4G-tukiaseman kautta, sen siirto ei aiheuta merkittäviä CO2-päästöjä

Tulevaisuudesta en tiedä mutta ostin äskettäin kotiin mesh-wifin valokuidun jatkoksi.
Mesh maksoi muutaman satasen. Samoin muutama satku menee laitteen elinaikanaan kuluttamaan sähköön. Sähköä menee enemmän kuin ennen.

Datansiirtovero voisi siis käytännössä toimia vain, mikäli se otettaisiin käyttöö esim. koko EUn tasolla.

Niin itsekin ajattelin.

Se, että verotetaan tiettyjä käyttötarkoituksia johtaa vaan siihen että systeemi toimii epätehokkaammin ja päästöt vaan lisääntyy

Näin on. On vaikeaa vaikuttaa yhteen asiaan ilman että sillä olisi sivuvaikutuksia.

Kyllä voidaan, juuri sillä tavalla kuin sitä 5G:ssä ollaan tekemässä: rakentamassa pienempiä tukiasemia lähemmäs käyttäjiä, jolloin lähetystehojen myötä pienenee virrankulutus.

Kaipaisin lisää tutkimusta ja laskelmia siitä, onko ICT:n energian kulutuksen kasvu kestävällä pohjalla vai ei. Kokonaisuutta ei välttämättä ymmärrä muutamien tapausesimerkkien kautta.
 
Ja suhteessa pahin tietotekniikka-alaa oleva "maailman tuhoaja" on leikkiraha, jonka mainaaminen ei tuota maailmalle mitään lisäarvoa, mutta johon vaan haaskataan huomattava määrä sitä sähköä.
ICT-maailman sähkönkulutuksesta olen sataprosenttisen samaan mieltä että nuo ääliömäiset kryptovaluutta-sähkörohmuverkot pitäisi lopettaa. Nyt kun pitäisi jotain ilmastotalkoita pitää, niin on jotenkin käsittämätöntä ettei tähän ole otettu mitään kantaa.

Kyllä voidaan, juuri sillä tavalla kuin sitä 5G:ssä ollaan tekemässä: rakentamalla pienempiä tukiasemia lähemmäs käyttäjiä, jolloin lähetystehojen myötä pienenee virrankulutus.
Ja teleoperaattoreilla kyllä osataan ottaa kustannuslaskelmissa huomioon tukiasemien sähkönkulutus => pyritään ostamaan sellaisia tukiasemia, joissa on mahdollisimman pieni virrankulutus => tukiasemavalmistajat pyrkivät kehittämään tukiasemia, joilla on pieni virrankulutus.
Se, että tukiasema on hyvin lähellä ja kaistaa jää paljon "ylimääräiseksi" voisi myös mahdollistaa sen, että käytetäänkin yksinkertaisempia modulointi- ja virheenkorjausalgoritmeja, joilloin siirrettyä bittiä kohden käytettyä prosessointimäärää ja sen kautta prosessoinnin virrankulutusta voitaisin vähentää. Sitä, tehdäänkö näin, en tiedä, vaikka minun varmaan pitäisi tietää. (toisaalta, jos tietäisin, en ehkä saisi sitä sanoa).
Ilmeisesti nämä 5G-asemat syövät jo sen verran sähköä että tällaisille alkaa löytyä kysyntää:
 
ICT-maailman sähkönkulutuksesta olen sataprosenttisen samaan mieltä että nuo ääliömäiset kryptovaluutta-sähkörohmuverkot pitäisi lopettaa. Nyt kun pitäisi jotain ilmastotalkoita pitää, niin on jotenkin käsittämätöntä ettei tähän ole otettu mitään kantaa.


Ilmeisesti nämä 5G-asemat syövät jo sen verran sähköä että tällaisille alkaa löytyä kysyntää:
Missä tuolla niin sanotaan? Selvästihän siinä puhutaan kuinka tarkoitus on saada hukkalämpö hyötykäyttöön, eikä mitään mainintaa että itse tuote kaipaisi sitä nestejäähdytystä.
 
Missä tuolla niin sanotaan? Selvästihän siinä puhutaan kuinka tarkoitus on saada hukkalämpö hyötykäyttöön, eikä mitään mainintaa että itse tuote kaipaisi sitä nestejäähdytystä.
No sanavalinta väärä, mutta idea taisia tulla selväksi ilman lillukanvarsiin takertumistakin. Pointti oli että noista tulee sen verran lämpöä että on järkevää tehdäkin tällaista. En tiedä paljonko tuollainen tukiasema sähköä vie, mutta vesijäähyn rakentelun ja lämmön hyötykäyttöön ohjaamisen kustannukset ovat kuitenkin minimissäänkin sellaisia lukuja ettei niihin aleta minkään kymmenen watin säästön takia.
Täällä arvioidaan 5g-tukiasemien syövän noin tuplasti enemmän sähköä kuin 4g-asemat:
Ja näkyyhän tuo puhelimissakin kuinka akkujen koot ovat kasvaneet reippaasti nyt 5g-modeemien tullessa kuvaan mukaan.
 
No sanavalinta väärä, mutta idea taisia tulla selväksi ilman lillukanvarsiin takertumistakin. Pointti oli että noista tulee sen verran lämpöä että on järkevää tehdäkin tällaista. En tiedä paljonko tuollainen tukiasema sähköä vie, mutta vesijäähyn rakentelun ja lämmön hyötykäyttöön ohjaamisen kustannukset ovat kuitenkin minimissäänkin sellaisia lukuja ettei niihin aleta minkään kymmenen watin säästön takia.
Täällä arvioidaan 5g-tukiasemien syövän noin tuplasti enemmän sähköä kuin 4g-asemat:
Ja näkyyhän tuo puhelimissakin kuinka akkujen koot ovat kasvaneet reippaasti nyt 5g-modeemien tullessa kuvaan mukaan.

Jos tuosta jutusta lukee muutakin kuin otsikon niin sieltä selviää aika paljon asioita, mm. sen, että tuossa puhutaan kokonaisista mastoista ("site"), ei yksittäisistä soluista, ja sieltä löytyy ihan konkreettisia teholukemia. Ja että tuolla on kyse siitä, paljonko koko masto voi viedä sähköä.

Ja olennainen syy siihen lisääntymiseen on se, että mastossa jossa on 2G+3G+4G+5G on yksinkertaisesti enemmän rautaa (ja kaistaa) kuin mastossa jossa on vain 2G+3G+4G .

Se, että meillä on toiminnallisuus X ja sen lisäksi päälle lisätään toiminnallisuus Y poistamatta toiminnallisuutta X niin luonnollisesti sähkön maksimikulutus on suurempi.

Mutta, jos tarkastellaan energiatehokkuutta, niin silloin oleellista ei ole tukiaseman maksimisähkönkulutus, vaan se, paljonko sähköä kuluu per siirretty bitti.



Ja 5G-tukiasemia tosiaan on hyvin eri kokoa, hyvin eri virrankulutusluokissa.


Mutta valitettavasti en voi sanoa kaikkea, mitä tiedän tähän aiheeseen liittyen.
 
Niin, mitäs jos optimoisivat teknologiansa niin että tuotteet pärjää vertailussa kilpailijoita vastaan. Sitähän kaikki asiakkaat haluaa. Swanin höpinä kuulostaa siltä että kun ostat Intelin prossun niin se jotenkin tekee maailmasta paremman paikan.

Tuo kommentti kuulostaa myös aika huvittavalta sen jälkeen kun Intel myi kuluttajille 10 vuoden ajan korkeintaan neliytimisiä prosessoreja, mutta kun kilpailijalta tuli 8-ytimiset kuluttajamallit niin Intelkin alkoi nostaa kuluttajaprossujen ydinmääriä kauhealla kiireellä. Väittääkö Swan että kuluttajat halusi 10 vuoden ajan sitä samaa tavaraa uudelleen pakattuna ja korkeammilla kelloilla, ja kuluttajien tarpeet muuttuivat juuri silloin kun Intel julkaisi ensimmäiset 6- ja 8-ytimiset prosessorit? Aikamoista BS:ää.
Kun ei pärjätä kilpailijalle niin sitten keksitään tällaisia naurettavia selityksiä ja koitetaan ohjata fokus suorituskyvystä johonkin maailmanparantamiseen.

Customer-obsessed mindset särähtää myös aikalailla korvaan kun miettii Intelin touhuja tässä vuosien varrella. Ovat asiakkaiden sijaan kyllä keskittyneet paljon enemmän siihen että mahdollisimman vähällä rahastetaan mahdollisimman paljon, ja että kilpailijat savustetaan ulos markkinoilta tai ainakin lykitään kapuloita rattaisiin millä keinolla hyvänsä. Ei sillä että esim. AMD olisi jokin hyväntekeväisyyslaitos, mutta ne nyt ei sentään suolla ulos noin naurettavaa lätinää.

Jep noi Intelin toimistusjohtajan kommentit kuullostavat huvittavalta kun katsoo mitä Intel on tehnyt viimeiset 10v lypsääkseen kuluttajia. Intel rampautti tahallaan halvemmista Intelin prosessoreista hyperthredding pois käytöstä pakottaakseen ihmisiä, jotka haluavat hyvää monen ytimen suorituskykyä kalleimpiin prossu malleihin. AMD taas antaa oman vastaavan simultaneous multithreading lähes kaikkiin malleihin. Heti kun AMD alkoi tuoda äärimmäisen hyviä monen ytimensuorityskyvyn prossuja zen 2 myötä Intelilläkin palasi mystisesti hyperthredding kaikkiin malleihin takaisin, jopa halvimpaan i3 jossa sitä ei koskaan aikaisemmin ole ollut. Intel myös on myynyt samaa 14nm prosessiaan uudelleen ja uudelleen brandäämällä saman prosessilla tehdyt tuotteet uudeksi sukupolveksi ties kuinka monta kertaa peräkkäin. Lisäksi Intel pakottaa jokaisessa prosessoripäivityksessä käyttäjät aina ostamaan uuden emolevyn voidakseen myydä enemmän chipset piirejä emolevyjen mukana (vaikka ne Intelin prossut on tehty jo 5 sukupolvea peräkkäin sillä samalla 14nm prosessilla pitää emolevy uusia kokoajan rahastamistarkoituksessa). Mitenhän jatkuvaan emolevyn vaihtoon pakottaminen rakentaa sitä Intelin toimitusjohtajan peräänkuuluttumaa parempaa maailmaa?

Nyt sitten ei saisi tuijottaa testituloksia kun Intelin prossut jäävät suorityskyvyssä jälkeen valtavasti AMD:tä erityisesti multi-thredding suorituskyvyssä ja sitä pahentaa vielä tahallinen lypsämistarkoituksessa tehty rampauttaminen. Eikä saisi kiinnittää huomiota muihinkaan Intelin pitkään käyttämiin epäilyttäviin myyntistrategioihin. :hmm:
 
Jos Intelillä olisi lähitulevaisuudessa (tai edes keskipitkässä tulevaisuudessa) tulossa selkeästi prosessoreita, joilla he voisivat kilpailla Zen2/3/4 -prosessoreiden kanssa ydinten lukumäärässä, multicore-suorituskyvyssä ja hinnalla, niin olisivat kyllä maininneet että 'suorituskyvyllä on merkitystä, odottakaa vielä hetkinen'.
Mutta eivät sanoneet.
Eli Inteliumin Vastaiskua saamme odottaa vielä aika pitkään.
 
9700K mahdollistaa tosin kovemmat FPS pelistä peliin.

3300X 4/8 en lähtisi kovin tosissani pelaajalle suosittelemaan varsinkin jos Budjetti on 9700K luokkaa, pieneen budjettiin 3300X toki Ok.

relative-performance-games-1280-720.png

Ja ennekuin joku pääsee sanomaan että "Tää on 720p/2080Ti ei kukaan käytä tuollaista"
Niin tämä kuvastaa hyvin myös sitä jos laskee peleistä esim.asetuksia jolloin Fps nousee ja vaatii prosessorilta enemmän suorituskykyä.
Tämä tulee silloin erityisesti tarpeeseen kun haluaa hyödyntää 144/240Hz näyttöään.

Eli 720p/2080Ti combo vain siksi että todelliset prosessorin rahkeet tulevat esille.
Niin, jäähän se 3300X noin 12% kun verrataan tuota taulukkoa vs. 9700K.
 
Intel haluaa, että keskitytään siihen hyvään mitä heidän teknologiansa yhteiskunnalle tuottaa. Siis sama Intel, joka lahjoo valmistajia tappaakseen kilpailun, valmistaa tuotteita, joka ovat kilpailijaan nähden hitaampia, kalliimpia ja energiatehokkuudeltaan huonompia. Intel on myös pitänyt huolen, että päivitettävyys tapetaan keinotekoisilla kanta- ja piirisarjapäivityksillä = lisää romua maailmaan. Listan perään vielä läjä tietoturva-aukkoja, jotka todella tekivät hyvää kaikille... tai siis lisäsivät palvelinsalien energiankulutusta ihan huolella...
Olisivat vaikka kertoneet mitä avoimen koodin projekteja ovat tukeneet tai mitä yhteiskunnalle uusia innovaatioita ovat tuottaneet. Tuon taloustilanteen kanssa pitäisi olla varaa parempaan.
Videon kruunasi kaverin kyvyttömyys edes esitellä itseään lukematta sitä ruudulta.Koko puheen sisältö oli ihan yhtä uskottavaa BS:ää, kuin sen lopettanut tekohymy..
 
Heti kun AMD alkoi tuoda äärimmäisen hyviä monen ytimensuorityskyvyn prossuja zen 2 myötä Intelilläkin palasi mystisesti hyperthredding kaikkiin malleihin takaisin, jopa halvimpaan i3 jossa sitä ei koskaan aikaisemmin ole ollut.

Ylivoimaisesti suurimmassa osassa i3ia on ollut SMT (jota intel siis kutsuu markkinointinimellä "HyperThreading") : Sukupolvien 2000-6000 kaikissa i3ssa oli, ne oli ; 2 ydintä, 4 säiettä. 7000-sarjassa sitten 7400 brandättiinkin i3ksi eikä i5ksi (6400 oli viel i5) jolloin i3-sarjaan tuli (ainakin) yksi malli ilman SMT:tä.

I3:a ilman hyperthreadingia i3ia oli vain kolmessa sukupolvessa(7000,8000, 9000), ja näistäkin 7000- ja 8000-sarjoissa oli myös malleja joissa oli "Hyperthreading", esim:
* i3-7300
* i3-8130u

Ainoastaan 9000-sarjassa intelillä ei ollut yhtään i3sta jossa hyperthreading.
 
Näin se menee useasti, eli tuotekehittelyä sykleittäin. AMD oli aluksi pitkään altavastaaja, kunnes lopulta saivat A64 prossuillaan niskalenkin Intelistä. Sitten Intel tuli hyvillä Core prossuilla ohi ja pitkän aikaa AMD oli se nuhapumppusähkökiuas. Nyt taas toisinpäin vähänaikaa.
 
No toimitusjohtajahan on firman myyntimies. Puheet on juuri sitä mitä myyntimieheltä voi odottaa.

Alkuperäinen lausunto voittaa kyllä vuoden puppulause palkinnon. Uskomatonta jargonia, paljon sanoja ja vähän sisältöä :D
 
Mutta, jos tarkastellaan energiatehokkuutta, niin silloin oleellista ei ole tukiaseman maksimisähkönkulutus, vaan se, paljonko sähköä kuluu per siirretty bitti.

Loppuviimein kiinnostaa, paljonko energiaa kaiken kaikkiaan kuluu.

Yleensä kaikki resurssit, esim. sähkön siirto, on niukkoja ja pitää optimoida, eikä ole syytä miksi tiedon siirto eroaisi muista resursseista. Rajaton datapaketti ei ole niukka resurssi ja jokainen optimoi omalta osaltaan. Tiedon siirto ei ole tietyn tason jälkeen perustarve vaan sitä voi tehdä monen eri laatuisena.

Enemmän siirrettyä dataa, enemmän vastinetta rahalle.

Ilmaisilla palveluilla on ääretön kysyntä. Baarissa ei oikein voi olla ilmaista biljardipöytää, koska sitä ei käytettäisi tehokkaasti.

Tuntuu, että tiedon siirto ei maksa paljon mitään. Maksaa se kuitenkin 20 €/kk per kännykän käyttäjä, tai 4-henkisellä perheellä 80 €/kk plus valokuitu 40 €/kk, tekee 120 €/kk. Hinnasta osa muuttuu palvelujen tuottamisen ihmistyöksi ja osa muuttuu laitteissa suoraan lämmöksi. Kodin lämmityslaskuun tai yhtiövastikkeeseen verrattuna kuukausimaksu on jonkun kokoinen jo nyt. Päälle tulee kodin atk:n ja tukiasemien syömä sähkö. Ja tietysti töissä tarvittava data, joka on pieni määrä verrattuna kotikäyttöön, ja tietokoneet. Jos Etlan raporttiin on luottamista niin nykytila on vasta alkua.
 
Oikeastaan vielä tästä Intelin historiasta. Sinänsä tuo propaganda ei sittenkään ole täysin intelin historian vastaista, vaan oikeastaan sen mukaista, intel on tosiaan aina tähdännyt siihen, että koneella voitaisin tehdä uusia asioita, mutta... Intelin tapa toteuttaa sitä "uusien asioiden mahdollistamista" on aina intelillä mennyt hyvin kapeasta Intel-näkökulmasta joka on ehkä jossain määärin ollut käyttäjän etujen vastainen.

Asiat voi laskea joko softalla tai raudalla. Rauta tekee tasan sen yhden asian, mutta hyvin nopeasti ja energiatehokkaasti (mutta jos pitää tehdä ziljoona asiaa, sitä rautaa tarvii olla joka asiaan omansa).

Softalla voi tehdä mitä tahansa, mutta hitaammin ja huonommalla energiatehokkuudella. Aiemmin softaa pystyi ajamaan PCssä vain CPUlla, joissain muissa koneissa myös jollain DSPllä, nykyään PCissäkin on ohjelmoitava näyttis jolla voi ajaa softaa.

Intel on kautta historiansa yrittänyt ajaa tuotekehitystä siihen suuntaan, että mahdollisimman suuri osa asioista tehtäisiin (intelin) CPU:lla softalla (jolloin (turhaan) tarvitaan paljon sitä CPU-tehoa), sen sijaan että se tehtäisiin joko siihen asiaan erikoistuneella raudalla hyvin nopeasti, tai jollain siihen asiaan erikoistuneella prosessorilla CPUta tehokkaammin.

Eli intelillä on kyllä ollut selvästi visiota siinä, että se on kehittänyt CPUitaan siihen suuntaan, että niillä voitaisiin tehdä niitä "tulevaisuuden juttuja", mutta kun tyypillisesti oikea ratkaisu olisi ollut että se "tulevaisuuden juttu" saa OMAN RAUTANSA eikä sitä tehtäisi CPUlla.

0)

1980-luvun lopulla ja vielä vähän 1990-luvun puolellakin tilanne esim. PCiden ja Amigan välillä oli se, että PCissä oli tehokkaampi (Intelin) prosessori, mutta silti Amigalla sai aikaiseksi parampaa grafiikkaa ja parempaa ääntä, koska siinä oli enemmän (ja parempia) erikoispiirejä, jotka huolehtivat äänestä ja grafiikasta. Tästä PCn rakenteesta ei kuitenkaan voi oikeastaan syyttää Inteliä, vaan enemmän IBMn insinöörejä ja PCn vanhempaa ikää. Tämän takia numeroin tämän pointin nollaksi.

1)

Modeemeilla oli alunperin oma DSP-prosessorinsa, ja se tarjosi koneen suuntaan sarjaporttirajapinnan.

1990-luvun puolivälissä alettiin ihmisille tuputtamaan "winmodem"-brändäyksellä softamodeemeita, joissa modeemi oli kortti, joka sisälsi käytännössä vain AD/DA-muuntimet ja liittimen johon puhelinpiuhan voi tökkäistä. Kaikki signaalinkäsittely tehtiin modeemin ajureissa CPUlla, mikä siis kuormitti koneen CPUta selvästi.

Vaikka niitä varsinaisesti tekivät ja myivät modeemivalmistajat (valmistuskustannuksiensa pienentämiseksi), sekä Intel että Microsoft olivat hyvin innoissaan näistä, Intel koska winmodemin ajurin pyörittämiseen samaan aikaan kun koneella tehtiin muutakin tarvittiin tehokas CPU (kaikki se säästö, mikä modeemin oman DSPn puuttumisella säästettiin sen valmistuskustannuksiassa, käytännössä asiakkaan näkökulmasta katosi moninkertaisesti siihen, että tarvittiin paljon kalliimpi CPU), ja Microsoft sen takia, että nämä softmodem-ajurit tyypillisesti tehtiin vain windowsille, eli nämä eivät toimineet muissa käyttöjärjestelmissä, saatiin lukittua ihmisiä käyttämään windowsia (ja samalla levitettyä mainetta, että "linuxin ja OS/2n rautatuki on huono").

Winmodemeita käytettiin eniten jossain merkkikoneissa, compaqeissa yms.

Intelin MMX-käskykannan yksi alkuperäisistä suunnitelluista käyttötarkoituksista oli softmodeemien koodin nopeuttaminen. Eli yritettiin nopeuttaa hommaa, joka järkevällä arkkitehtuurilla ei kuuluisi CPUlle ollenkaan.

2)

Toinen MMXn alun perin suunnitelluista käyttötarkoituksista oli (lähinnä 3d-) grafiikan piirrossa käytetyn tekstuurimappayksen (tai tarkkaan ottaen sen bilineaarisen suodatuksen) kiihdyttäminen.

3d-kiihdyttimet (joissa oli raudalla tehty bilineaarinen suodatus joka oli monta kertaa MMXlläkään tehtyä softaimplementaatiota nopeampi) kuitenkin löivät itsensä läpi ja melko harvaan peliin koskaan jaksettiin koodata MMX-optimoitua bilineaarista suodatusta softarenderöijään, softrenderöijät pysyivät point samplingissä.

3)

Kolmas MMXn alun perin suunniteltu käyttötarkoitus oli äänien miksaaminen.

Amigassa oli ollut jo äänipiiri joka kykeni miksaamaan neljää ääntä yhteen jo 1980-luvun puolella, mutta PCissä 1990-luvun alkupuolella perus-äänikortteja olivat esim.
Sound Blaster 2.0 ja Sound Blaster 16. Niissä oli vain kaksi äänikanavaa, vasen ja oikea, ja jos haluttiin soittaa useampaa ääntä yhtä aikaa, ne piti softalla miksata.

MMXllä tätä äänten miksaamista voitaisiin nopeuttaa.

Toisaalta: Jo 1992 julkaistiin Gravis Ultrasound ja 1994 SB AWE32 joissa molemmissa oli jopa 32 äänen miksaus omalla DSPllä, ja oman DSPn/mikseripiirin sisältäviä äänikortteja tuli myös halvempiin hintaluokkiin ennen MMX-prosessoreita.

4)

Neljäs MMXn alun perin suunniteltu käyttötarkoitus oli videonpurku.

Näyttiksiin kuitenkin tuli jo pari vuotta ennen MMXn tuloa videonpurkurautaa, jolloin ne osat videonpurkutyöstä, jotka hyötyisivät MMXstä, alettiinkin tehdä näytönohjainpiirillä eikä prosessorilla, ja prosessorilla tehtiin vain lähinnä sitä pakkauksen häviöttömän osan purkamista, jossa MMXstä ei ollut apua.

Lähinnä MMXää päästiin käyttämään videonpurkuun silloin, kun joko A) tuli käyttöön uusi videopakkaustandardi ja näyttisten ajurit eivät sitä vielä tukeneet, tai B) tuli käyttöön uusi videonpakkausstandardi jota vanha videopurkurauta oli vaan kykenemätön kiihdyttämään koska se teki jotain uusia jippoja joita rauta ei tukenut C) käytettiin jotain softa-only-videoplayeriä, esim. Linuxilla, jolle ei löytynyt näyttikselle ajuria joka olisi tukenut videon rautakiihdytystä.

5)

Kun Intel 3d-korttien tuleminen oli jo vääjäämätöntä, Intelin piti sotkea niidenkin kehitystä siihen suuntaan, että saadaan CPUn ja emolevyn asemaa nostettua sen 3d-kortin suorituskyvyn kustannuksella; Intel päätyi yhteistyöprojektiin Real 3d:n kanssa "Auburn"-näyttispiirin kehityksessä ja lupaili yhteistyökumppaneilleen kuun taivaalta siitä että uusi tulossa oleva AGP-väylä on niin nopea ja hyvä, että näyttiskortin omaan muistiin ei tarvi säilöä ollenkaan tekstuureita vaan ne voidaan lukea suoran AGPn yli koneen keskusmuistista, ja tälllöin kortille voidaan laittaa pienempi muisti ja säästää kortin valmistuskustannuksissa, ja samalla myös koko kaista kortin muistiin jää framepuskurin käyttöön eli framepuskurille on enemmän efektiivistä kaistaa.
Intelin motivaatio tässä oli käytännössä se, että tällä saadaan siis ajettua ihmiset ostamaan emolevyjä, joista AGP-väylä löytyy, eli sellaisia, joissa on Intelin piirisarja joka sitä APGtä tukee, ja samalla pitää ostaa kallis Intelin Pentium 2-prosessori, joka on ainoa, mitä se piirisarja tukee)

Auburn-piiristä sitten käytännössä keinotekoisesti estettiin tekstuurin tallettamine kortin omaan muistiin, ja lopulta kävi ilmi, että ei se AGP-väylä olekaan niin täydellinen ja kortilla on huomattavia ongelmia teksturointinopeutensa kanssa, vaikka muuten kortti olisi kilpaillut hyvin esim. nVdian Riva 128n kanssa. Riva 128 käytti myös AGP-väylää, mutta käytti sitä vain kuin se olisi vain nopeampi PCI-väylä.

Ja samaan aikaan kun Auburnin tuli, 3dfx meni vielä julkaisemaan Voodoo2n joka ei vaatinut AGP-väylää vaan toimi nopeasti (tai siis paljon nopeammin kuin Auburn) myös vanhoilla emoilla PCI-väylässä.

Auburn siis julkaistiin nimellä "Intel 740 tai "i740", ja pian Real3d firmana lakkasi olemasta ja kaikki firman teknologia meni intelille (ja näihin juontaaa juurensa intelin integroidut näyttikset).

Ja lopulta Ali, SiS ja VIA saivat omat (AMDn prosessoreita tukevat) AGP-piirisarjansa markkinoille vain pari kuukautta intelin jälkeen, joten tämä Intelin keinotekoinen AGPn pönkittäminen P2-myyntien toivossa oli aika turhaa.

6)

Kun ensimmäiset 3d-kortit hoitivat pikselinpiirron ja tekstuurimappayksen, geometriapuoli oli vielä CPUn vastuulla. Joten Intel päätti alkaa lisäämään prosessoriin käskyjä tämän geometriapuolen nopeuttamiseksi (SSE). AMD toki teki tämän ensin (3dnow!)

Sekä 3dnow että SSE(1) olivat melko rajoittuneita ja tähtäsivät nimenoman pelien geometrialaskutoimituksiin, tosin 3dnow oli vielä selvästi rajoittuneempi ja pelkkän pelikäyttöön soveltuva.

No, GeForcessa ja Radeonissa sitten tuli myös geometrilaskenta 3d-piirillä, jälleen paljon CPUlla ajettavaa softaa tehokkaammin. Ja GF3 ja radeon 8500 tekivät näistä vielä ohjelmoitavia jolloin viimeisetkin syyt tehdä se CPUlla katosivat.

Vasta SSE2 oli "yleiskäyttöisempi" SIMD jota ei tähdätty nimenomaan hommaan, johon 3d-kiihdyttimen soveltuivat paremmin.

7)

Kun Intel lähti suunnittelemaan Pentium 4sta, sitä lähdettiin suunnittelemaan täysin lähtökohdista

"Mitä uutta CPUlla voi tulevaisuudessa tehdä" eikä "tehdään CPU joka tekee paremmin ja nopeammin ne hommat jotka kuuluu CPUlle".

Eli keskityttiin suorituskyvyn parantamiseen signaalinkäsittely-tyyppisillä workloadeilla, vaikka niitä ei ole järkevää ajaa CPUlla.

P4 porskuttaa käskyjä ja laskee hyvin nopeaan tahtiin kun kaikki on helppoa ja kaikki tähdet on oikeassa asennossa. Mutta sitten kun koittaakin väärä kuunvaihe, se alkaa madella. Ja CPUn tehtävä on nimenomaan suorittaa sitä vaikeaa koodia jossa tulee niitä hankalia tilanteita siedettävällä nopeudella. Se signaalinkäsittelykoodi on fiksumpaa laskea jollain apuprosessorilla (näyttis, modeemin oma DSP, äänikortin oma DSP tms.)

Oikeastaan vasta core2ssa Intel vihdoin ymmärsi, että sen CPUn tehtävä on olla "central processing unit" eikä "all-purpose processing unit"
 
Viimeksi muokattu:
Ylivoimaisesti suurimmassa osassa i3ia on ollut SMT (jota intel siis kutsuu markkinointinimellä "HyperThreading")
Hieman off topic mutta itselläni sellainen muistikuva ettei HT ole symmetrinen vaan siinä on pääsäie ja toisen luokan kansalaisena rinnalla toinen. Näissä oli jotain eroja miten säikeiden vuorontamista tapahtui tai jotain sinnepäin. Siitä en tiedä onko muiden valmistajien SMT toteutukset todella symmetrisiä nekään.
 
Hieman off topic mutta itselläni sellainen muistikuva ettei HT ole symmetrinen vaan siinä on pääsäie ja toisen luokan kansalaisena rinnalla toinen. Näissä oli jotain eroja miten säikeiden vuorontamista tapahtui tai jotain sinnepäin. Siitä en tiedä onko muiden valmistajien SMT toteutukset todella symmetrisiä nekään.
SMT ei viittaa symmetrisyyteen, se on "Simultaneous MultiThreading"
 
Ja myyntimiehen/pavunlaskijan alaisuudessa se R&D näivettyy ja alkaa kehittämään vääriä asioita (lyhyen tähtäimen optimointia), kun puuttuu visio siitä, mitä pitäisi oikeasti pitkällä aikaskaalalla tehdä). R&Dn näivttyminen käytännössä tarkoittaa joko
1) Resurssien liiallista ohjaamista nykyisten tuotteiden viilaamiseen seuraavan arkkitehtuurin kehittämisen sijaan (paras esimerkki tästä oli ehkä Apple Sculleyn aikana, mutta tähän syyllistyi myös hyvin pahasti Nokia suhteessaan Symbianiin)
2) Liiallista säästämistä ja nipottamista, joka haittaa tuotekehitystä ja saa nimenomaan osaavimmat ihmiset ärsyyntymään ja lähtemään firmasta (eniten ehkä ärsyttää se, että aiemmin käytössä olleita työsuhde-etuja poistetaan, ja byrokratiaa lisätään)
3) Tulevaisuuden tuotekehityksen ohjaamista liian korkealentoisiin (huuhaa-)projekteihin, kun johtoportaalta puuttuu ymmärrys siitä, mitkä tulevaisuuden ideat on järkeviä ja mitkä huuhaata, ja mitkä on järkevä (yrittää) tuotteistaa massamarkkinoille vasta 10 vuoden eikä kolmen vuoden päästä. Mennään buzzwordien mukana.
Jokohan Intelillä on käynyt noin kun katsotaan mitä oikeasti uutta Intel on saanut kauppoihin viimeisen viiden vuoden aikana ja kehityksen taantumisen sitä edeltävinäkin vuosina.
Huomioiden kuinka iso pankkitili Intelillä on, luulisi niillä resursseilla olevan mahdollista saada aikaan jotain muutakin kuin samaa vanhaa uudelleen brändättynä sekä arkkitehtuurissa että valmistustekniikassa.

Palkat nyt lienee sen verran hyvät ettei ole tainnut insinööriporukkaa vaihtua, mutta jotenkin tuntuu toiminnasta menneen täysin se terä ja eteenpäin painamisen halu.


Ja suhteessa pahin tietotekniikka-alaa oleva "maailman tuhoaja" on leikkiraha, jonka mainaaminen ei tuota maailmalle mitään lisäarvoa, mutta johon vaan haaskataan huomattava määrä sitä sähköä.


Katsotaan sitten muuttuuko tilanne kun Icy Lake SP (parin kuukauden päästä?) tulee, mutta itse vähän pelkään että ei tarpeeksi; Icy Lake SP-piirin Sunny Cove-ytimet ovat niin isoja ytimiä, että niitä ei järkevän kokoiselle palvelinpiirille saa tarpeeksi, niistä saadaan kyllä kova IPC ja sen kautta yhden säikeen suorituskykyä ulos, mutta kun EPYC ajaa 1.7-kertaista(*) määrää säikeitä saman luokan (tai jopa halvemmilla) valmistuskustannuksilla ja saman luokan virrankulutuksella, niin siinä ei joku 20% IPC-ylivoima pelasta palvelinkäytössä jossa niitä säikeitä riittää ajettavaksi; Edelleen Icy Lake SPn tultuakin zen2-EPYC lienee energiatehokkaampi ja monen säikeen suorituskyvyltään parempi serveriprossu useampiin käyttötarkoituksiin.
Tuo on tosiaan outoa etteivät mitkään ympäristönsuojelijatkaan ole käyneet noiden leikkirahojen kimppuun ja vähintään vaatineet niille reiluja haittaveroja.
Jos niissä laskettaisiin edes jotain josta olisi lääketieteessä tai muulla tieteen alalla mahdollista hyötyä minulla olisi enemmän suopeutta niille, mutta nyt sitä ei voi pitää sen kummoisempana kuin myrkkyjen dumppaamista luontoon.

Ja taitaa Alder Lake myöskin vihjata siihen että Intelillä vain ei yksinkertaisesti ydinmäärä skaalaudu.
Isojen normiytimien ja mopoytimien yhteennaittaminen läppäri/mobiiliprossun sijaan desktop puolella haisee kovasti Intelin halulta saada markkinointi "16 ytiminen" vastatakseen AMD:lle.
 
Hieman off topic mutta itselläni sellainen muistikuva ettei HT ole symmetrinen vaan siinä on pääsäie ja toisen luokan kansalaisena rinnalla toinen. Näissä oli jotain eroja miten säikeiden vuorontamista tapahtui tai jotain sinnepäin. Siitä en tiedä onko muiden valmistajien SMT toteutukset todella symmetrisiä nekään.

Ensinnäkin, ei ole mitään yhtä "hyperthreading"-teknikkaa

Vaan on kolme täysin eri tekniikkaa joista kaikista kolmesta on käytetty nimeä "Hyperthreading"; Kaksi myöhemmin tullutta näistä (Itaniumin corse-grained MT ja Bonnelling fine-grained MT) on kuitenkin jo kuolleita joten voidaan keskittyä siihen ensimmäiseen( SMT = Simultaneous multithreading" ), josta on oikeastaan intelillä on (eri) toteutuksia monessa eri mikroarkkitehtuurissa. Ja esim. Nehalemin ja Skylaken toteutukset käytännössä eronnevat toisistaan enemmän kuin Skylaken ja Zenin toteutukset johtuen Nehalemin erilaisesta ytimen toimintaperiaatteesta (Tomasulo vs PRF)

Symmetrisyydellä ei siis tämän kanssa ei ole mitään tekemistä.

Ja ei, niiden virtuaaliydinten välillä ei ole mitään eroa missään oletusprioriteeteissa, ei ole mitään "toisen luokan kansalaista". Ainakaan en ole mistään intelin dokumentaatiosta löytänyt mitään mikä vihjaisi tähän, sen sijaan olen löytänyt yhden lauseen joka puhuu niiden tasa-arvosta.

Yhden säikeen moodissa voi olla myös kumpi tahansa ytimen virtuaaliytimistä aktiivisena, joten siitä että toinen säie nukuttaa itsensä ei koidu mitään erilaista tilannetta riippuen siitä, kummalla virtuaaliytimellä ajettu säie nukuttaa itsensä.

Ainoa missä voi olla jotain eroja virtuaaliydinten välillä on keskytysten käsittely. Voi olla että interruptit tulee näistä ensisijaisesti aina jommalle kummalle, mutta tästä en ole varma.
 
Viimeksi muokattu:
Jokohan Intelillä on käynyt noin kun katsotaan mitä oikeasti uutta Intel on saanut kauppoihin viimeisen viiden vuoden aikana ja kehityksen taantumisen sitä edeltävinäkin vuosina.

Ei sitä edeltävinä vuosina ollut mitään merkittävää kehityksen taantumaa. joskus 2010-2015 jokainen mikroarkkitehtuuri paransi selvästi edeltäjäänsä verrattuna, ja Intel oli paljon AMDtä edellä, ja jokainen uusi mikroarkkitehtuuti pikemminkin vaan lisäsi Intelin etumatkaa.

Mikroarkkitehtuureissa vaan ollaan saavutettu se piste, että niitä on vaikea enää parantaa paljoa, "löysät on otettu pois", joten kehitys on ihan luonnollisista syistä hidastunut.

Vähän sama kuin se, että lentokoneiden nopeuksissa oli suuri kehitys n. 1910-1960, mutta sitten jämähdettiin paikoilleen, kun fysiikan rahat alkoi tulla vastaan (äänennopeuden lähestyminen lisää ilmanvastusta niin paljon, ettei ole taloudellista lentää kovempaa ja nopeammilla koneilla olisi onneton toimintamatka). Nykyään Jokainen 10% lisää IPCtä saattaa tarkoittaa keskimäärin esim. transistorimäärään n. 40% lisäystä niin ihan pienestä ei enää suuria IPC-lisäyksiä taiota. (Zenillä saatiin suuri parannus, kun tehtiin "todella monen vuoden parannukset kerralla" ja zen on myös todella paljon suurempi ydin kuin Bulldozer)

Huomioiden kuinka iso pankkitili Intelillä on, luulisi niillä resursseilla olevan mahdollista saada aikaan jotain muutakin kuin samaa vanhaa uudelleen brändättynä sekä arkkitehtuurissa että valmistustekniikassa.

Kyllä sieltä on uutta tullut vaikka kuinka paljon Skylaken jälkeen, ei vaan siihen hyvin kapeaan työpöytä-/peruspelaajan markkinasegmenttiin mitä täällä tuijotetaan:

Läppäreissä jo kauan ollut ulkona viime vuonna julkaistu Ice Lake, jossa on sekä uusi mikroarkkitehtuuri että uusi valmistustekniikka.

Ja tabletteihin/pieniin läppäreihin/halpoihin piireihin yms. tuli esim 2016 Goldmont, 2017 Goldmont Plus ja tänä vuonna on tulossa Tremont.

Ja palvelimien jo muutama vuosi sitten tullut Skylake-X/Sylake-SP eroaa selvästi alkuperäisestä Skylakesta, sisältäen tuplasti leveämmän SIMD-datapolun ja aivan erilaiset L2-L3-välimuistit ja väylärakenteen.

Intelin tämän hetken/viime vuosien kehityksen jumitusongelma on se, että ne kehittivät kaikki tulevat piirinsä tuolle "10nm" prosessilla ja kun se prosessi ei toimi kunnolla, niitä piirejä ei voida/kannata tuoda markkinoille, vaikka ne ovat olleet valmiita jo kauan. Kaikki munat oli samassa korissa ja kori putosi ja munat hajosivat.

Alun perin markkinoilla olisi pitänyt olla Cannon Lake joskus n. 2017, ja viimeistään 2018 kovilla kelloilla työpöydällä, ja Ice Lake ulkona ehkä 2018 loppuvuodesta. Ice Lake lopulta julkaistiin vain läppäreihin 2019 ja palvelimiin se on tulossa parin kuukauden päästä, työpöydälle se skipataan ja sen sijaan tulee suoraan sen seuraaja (tai seuraajan seuraaja) joskus.

ELi siis, 2015 jälkeen on tullut 4 uutta mikroarkkitehtuuria ja tänä vuonna tulossa ainakin yksi lisää. Mutta yksikään näistä ei peruspelaajan työpöydälle.

Ja taitaa Alder Lake myöskin vihjata siihen että Intelillä vain ei yksinkertaisesti ydinmäärä skaalaudu.
Isojen normiytimien ja mopoytimien yhteennaittaminen läppäri/mobiiliprossun sijaan desktop puolella haisee kovasti Intelin halulta saada markkinointi "16 ytiminen" vastatakseen AMD:lle.

Kyllä se ydinmäärä skaalautuisi helpolla, muttei halvalla. Kyllä intelillä on paljon kokemusta siitä, kuinka tehdään vaikka 28-ytimisiä piilastuja ja saadaan niiden väylät toimimaan hyvin.

Ongelma tässä vaan on se, että Golden Cove on selvästi zen2sta suurempi ydin, eli enemmän kuin kahdeksan Golden Cove-ydintä tekisi piiristä melko ison ja (työpöytämarkkinasegmentissä kalliin) valmistaa.

Ja kun tarkastellaan nimenomaan sitä koneen normaalikäyttöä niin ne 8 melko pientä Gracemont-ydintä kyllä mukavasti pienentää koneen virrankulutusta silloin kun siltä ei tarvita maksimaalista suorituskykyä, ja silloinkin kun tarvitaan hyvää monen säikeen suorituskykyä, ne Gracemont-ytimet tarjoavat sitä erinomaisella energiatehokkuudella.

Gracemont on aivan eri luokan ydin kuin joku muinainen Bonnell-Arom, jo Tremont (sen edeltäjä) on järeydeltään suurinpiirtein Nehalemin ja Sandy Bridgen välistä. (ja juuri taisit haukkua, kuinka vähäistä se kehitys mielestäsi suurinpiirtein sen Sandy Bridgen jälkeen on ollut ;).

Työpöydälle ja erityisesti läppäreihin tuo on mielestäni oikein hyvä ratkaisu; Yhden säikeen suorituskyky on niissä kuitenkin hyvin tärkeä ja sitä tuo järeä Golden Cove tulee tarjoamaan enemmän kuin pienemmät ytimet (heti kun valmistustekniikka saadaan kuntoon), mutta toisaalta Gracemontit tarjoaa sitten kaikkea muuta kuin yhden säiken suorituskykyä melko pienessä koossa.

Palvelimiin taas intelin kannattaisi ehkä mielestäni tehdä piiri jossa olisi luokkaa 128 noita Gracemontteja. Sen pitäisi piestä 64-ytimistä zen3-EPYCiä monen säikeen suorituskyvyssä, häviten jonkin verran yhden säikeen suorituskyvyssä.
 
Viimeksi muokattu:
Vieläkö Intel validoi piirit kokonaisuutena? AMD on pitkään pyrkinyt syntetisoitaviin lohkoihin samoin kuin ARM. NVIDIA ja Intel ovat taasen luottaneet siihen että piirit suunnitellaan ja validoidaan kokonaisuuksina.
 
Sinällään tarina räätälöidyistä piireistä ei ole Intelin kohdalla uusi. Se oli yksi perustelu miksi Intel aikoinaan hankki Alteran takaisin omistukseensa.
 

Uusimmat viestit

Statistiikka

Viestiketjuista
261 805
Viestejä
4 547 800
Jäsenet
74 849
Uusin jäsen
ookooo

Hinta.fi

Back
Ylös Bottom