Intelin prosessoreista löytynyt bugi vaatii suorituskykyyn vaikuttavan käyttöjärjestelmätason

  • Keskustelun aloittaja Keskustelun aloittaja Kaotik
  • Aloitettu Aloitettu
Eikai se pentti perusmies ole ikinä kovinkaan turvassa ollut miltään, kun ei ole kiinnostunut ostamaan uutta rautaa tai päivittämään edes niitä käyttispäivityksiä.
Yritykset, joita yrityksiksi voidaan kutsua, vaihtavat koneita n. 3v välein ja tämmöisissä on myös w10 rollikset yms joko jo tapahtuneet tai työn alla.
Sitten on taas niitä yrityksiä, joita ei kiinnosta käyttäjien mukavuus/tuottavuus eikä tietoturva ja siellä mennään xp/win7 ja jollain office2010 tms paske versiolla.
Sinäkin varmaan haluaisit sydämentahdistimen, jonkun magneettikuvauskoneen, sen automaattisen kipulääkkeen annostelijan, tai oikeastaan vaikka ydinvoimalan, missä 3v välein siellä vaihdellaan koneet. Meidän omista puolustusvoimista ja vaikka lentoliikenteestä puhumattakaan. Jos et ymmärrä alkujakaan, että millainen työmäärä on päivittää pienikin päivitys vaikka lennonjohtoon, niin olet aivan kujalla. Se työmäärä on jokaisen jutun kohdalla aivan sairas, miksi? Koska se bugi siellä voi tappaa kymmeniä, satoja, miljoonia! Niitä ei kuule tuosta noin vain päivitellä. Se että sun työpaikalla joku laitteisto päivittyy tämän tästä, ei todellakaan koske läheskään kaikkia aloja.

Ja näissä se saako se mummo siihen vanhaan romuunsa sen päivityksen, on se ja sama.
 
Omasta puolestani voin todeta, että kyse oli terminologian hallinnan puutteesta, sekä asioiden ymmärtämättömyydestä, kun huolestuin tuon vanhan emolevyni tuesta. Kiitoksia sen jälkeen käydystä selventävästä keskustelusta.
 
Kas, MS:n Meltdown pätsin jälkeeen TradeStation ei toimi (ohessa myös ohjeet kuinka poistaa Win10:n Meltdown pätsi):

The 'Meltdown' Windows 10 Update Broke TradeStation (and How to Fix It) | Emini-Watch.com

Lienee monta muutakin ammattilaisryhmää, jolle aika on kallista rahaa, ja joille Meltdown pätsi on saanu aikaan toimimattomuutta.

Asensinpa Win10:n uuteen koneeseen sopivana hetkenä, nyt voi rauhassa katsoa mitä tapahtuu...
Siitäpä tulee mehukas aukko hyökätä jos merkttävä osa tuon softan käyttäjistä kääntää Windows päivitykset pysyvästi pois päältä kun kyseesä on koneet joiden kautta liikutellaa merkittäviä omaisuusmääriä.
 
Siitäpä tulee mehukas aukko hyökätä jos merkttävä osa tuon softan käyttäjistä kääntää Windows päivitykset pysyvästi pois päältä kun kyseesä on koneet joiden kautta liikutellaa merkittäviä omaisuusmääriä.

Enemmän minua huolestuttaa se että mitä nämä toimimattomat kaikäreet tekee/on tehnyt kun menevät rikki. Kuten jotkut "tietoturha" ohjelmat.
 
Microsoft vieläkään jaksanut toimittaa päivitystä omalle suomenkieliselle Windows 10:lle. Melko nopeaa toimintaa etten sanoisi. :grumpy:
 

Sitähän ne kieltämättä on. Pörssi reagoikin odotetusti. The Register esitti jo käännöksensä Intelin pressitiedoteesta, muutama poiminta:

"
Intel and other technology companies have been made aware of new security research describing software analysis methods that, when used for malicious purposes, have the potential to improperly gather sensitive data from computing devices that are operating as designed.

Translation: When malware steals your stuff, your Intel chip is working as designed. Also, this is why our stock price fell. Please make other stock prices fall, thank you."

"
Intel believes these exploits do not have the potential to corrupt, modify or delete data.

Translation: Look, over here! Scary words! And we deny them! And you'll forget that this is about stealing information, not tampering with it."

"
Recent reports that these exploits are caused by a “bug” or a “flaw” and are unique to Intel products are incorrect.

Translation: Pleeeeeease, pleeeeease do not sue us for shipping faulty products or make us recall millions of chips."


Meltdown iskee kyllä datakeskuksiin ikävästi ja on vain intelin riesa. Tuo Spektre onkin jännepi tapaus.
 
Twiitterissä Intelin entinen CPU insinööri höpisi jotain että jo ihan jollain heikolla 128-bit salauksella voitaisiin nämä estää, tiedä sitten miksei hän ole aikoinaan sellaista kiveksiinsä suunnitellut, vai olisiko yksi syy miksi ootti loparit.

Itsehän ottaisin ihan mielelläni käyttöön 128bittisen prosessorin ja pariksi 128 bittisen (windows) käyttöjärjestelmän. Voi olla ettei hetkeen toteudu mutta ehkä tämä bugi nyt saa aikaan uudistuksia ja muutoksia prosessoreissa ihan suuremmallakin kädellä. Viimeisen vuosikymmenen kun kuluttajapuolen prosessorit ovat miltei polkeneet paikallaan näin ylikellottajan näkökulmasta.

Poislukien vasta tämä vuosi kun vihdoin tuli päälle 4-ydin/8-säie prosessoria hieman järkevämpään hintaan (siis sellaista millä tekikin jotain myös yhden ytimen tehoilta).
 
Itsehän ottaisin ihan mielelläni käyttöön 128bittisen prosessorin ja pariksi 128 bittisen (windows) käyttöjärjestelmän. Voi olla ettei hetkeen toteudu mutta ehkä tämä bugi nyt saa aikaan uudistuksia ja muutoksia prosessoreissa ihan suuremmallakin kädellä. Viimeisen vuosikymmenen kun kuluttajapuolen prosessorit ovat miltei polkeneet paikallaan näin ylikellottajan näkökulmasta.

Poislukien vasta tämä vuosi kun vihdoin tuli päälle 4-ydin/8-säie prosessoria hieman järkevämpään hintaan (siis sellaista millä tekikin jotain myös yhden ytimen tehoilta).
Et tekisi mitään 128 bittisellä windowksella ja prossulla, eikä 128 bittisellä salauksella ole mitään tekemistä prossun bittisyyden kanssa.
 
Joku perus Kela Goldia vinguttava työtön io-techin käyttäjä (Perus Räby) voisi pistää raha-anomuksen uudesta ATK:sta vetämään Kelaan tai oman kaupungin/kuntansa sossuun vedoten ichi wanhan raudan tietoturvaongelmiin. Mahtaneeko fyffeä irrota? Raportti toki tänne.
Jahs, joskos Hansuli jättäisi sitten rölläämiset vähemmälle, kun ollaan asia-alueella. Jatketaan räbän puolella...
 
Et tekisi mitään 128 bittisellä windowksella ja prossulla

Samaa sanottiin 2005 kun XP Pro 64bit versio ilmestyi. Vasta kun 64bit Vista tuli myyntiin alkoi saapua enempi 64bittisiä ajureita ja kummasti nyt, tuollaiset 10 vuotta eteenpäin kun windows 10 virallisesti julkaistiin (2015) alkaa yleinen mielipide olemaan sitä ettei 32bittisiä versioita käyttöjärjestelmistä pitäisi julkaista tai tukea.

Ei sillä että 128Gb fyysistä ja 16Teraa virtuaalimuistia ei riittäisi (tai se teoriassa ~16EB fyysistä jos ihan tiukasti tuijotetaan mitä 64bit antaisi myöten) mutta sovitaan että olet oikeassa. "640kb should be enough for everyone" :smoke: (tosin muistaakseni myöhemmissa käyttisversioissa esim. tuettua muistin määrää, salauksia ja muuta on tiputeltu alaspäin lähes kaikissa muissa paitsi bisnes versioissa ja ehkä ultimate tms.)
 
Eli onko nyt jokin muu asia kuin se mikrokoodi tarkoitus korjata biosin kautta? Haiskahtaa siltä, että tässä käytetyssä terminologiassa biospäivitys = mikrokoodi ja se on omiaan hämmentämään tilannetta.
Jos pitäisi veikata, niin ongelmana on emolevyvalmistajien omat kilkkeet esimerkiksi graafiset bios liitynnät sekä secure boot, TPM et.all . Noiden kanssa täytyy käynnistysketjun integriteetti varmistaa ja nyt liikutaan sellaisella alueella, että on enempi vähempi todennäköistä ettei aikaisemmin käytetyt viritykset enää mene läpi.
Linuxilla ei ole vastaavaa ongelmaa, kun siellä ei emovalmistajien crapware ole aikaisemminkaan toiminut.
 
Itsehän ottaisin ihan mielelläni käyttöön 128bittisen prosessorin ja pariksi 128 bittisen (windows) käyttöjärjestelmän.
En usko että haluaisit. Pitää muistaa että GPOS:ssa natiivi bittileveys tarkoittaa muistinhallinnan ja osoitteiden perusyksiköiden minimikokoa. Teoreettinen x86-128 olisi niin muistisyöppö että nykymaailmassa se söisi koko hyödyn. VLIW yksiköitä on kuitenkin jo nyt käytössä AVX käskykannan muodossa esimerkiksi ja jopa Bulldozer taisi tukea 128 bittisiä vektorioperaatioita.

Semmoinen hauskuus on muuten Meltdownissa että mitä enempi koneessa on muistia, sitä pienempi kaista on sivukanavalla, koska skannattavia sivutauluja on enemmän.

Kaikkeen salaukseen päteekin vanha viisaus ajasta salaisuuksien säilyttäjänä, vaikkakin nykyään tykätään myös puhua myös entropiasta.
 
Twiitterissä Intelin entinen CPU insinööri höpisi jotain että jo ihan jollain heikolla 128-bit salauksella voitaisiin nämä estää.
Niin ne ajat muuttuu, ei siitä nyt niin loputtoman kauan ole kuin DES DES – Wikipedia oli vielä vahva salaus, eikä se olut lähelläkään 128 bittistä ja kohistiin siitä että kolmikirjaimisten jenkkilän organisaatiot olivat huolissaan SSH1:n yleistymisestä ... :D
 
Samaa sanottiin 2005 kun XP Pro 64bit versio ilmestyi. Vasta kun 64bit Vista tuli myyntiin alkoi saapua enempi 64bittisiä ajureita ja kummasti nyt, tuollaiset 10 vuotta eteenpäin kun windows 10 virallisesti julkaistiin (2015) alkaa yleinen mielipide olemaan sitä ettei 32bittisiä versioita käyttöjärjestelmistä pitäisi julkaista tai tukea.

Ei sillä että 128Gb fyysistä ja 16Teraa virtuaalimuistia ei riittäisi (tai se teoriassa ~16EB fyysistä jos ihan tiukasti tuijotetaan mitä 64bit antaisi myöten) mutta sovitaan että olet oikeassa. "640kb should be enough for everyone" :smoke: (tosin muistaakseni myöhemmissa käyttisversioissa esim. tuettua muistin määrää, salauksia ja muuta on tiputeltu alaspäin lähes kaikissa muissa paitsi bisnes versioissa ja ehkä ultimate tms.)

Tällähetkellä 64 bittinen muistiavaruus on täysin riittävä kaikkeen mahdolliseen, siinämäärin, että ei ole mitään järkeä sitoa hyvin rajallista transistoribudjettia yhtään natiiviin 128 bittiseen prossuun (laskentapuolelle on järkeä tehdä erikoisyksikköjä, niin kuin on tehty).

Puhumattakaan tuosta 128 bittisyyden turhasta resurssien syömisestä.

Tuo 640 KB heitto on typerä, kun jo sen heiton aikaan oli tiedossa, että muistin määrä kasvaa tuon rajan yli. Nyt taas hyödyt olisivat teoreettisiä, kun muistiavaruus olisi täysin 100%:n älytön, niin sinne olisi helpompi piilottaa asioita.

Muistikampa, joka kattaisi 64 bittisen muistiavaruuden olisi nykytekniikalla melkoisen iso ja kehitys pienentämisessä hidastuu kokoajan, sekä koon, että virrankulutuksen suhteen. Jättiharppaukset ovat kutistuneet vanhan mummon köpöttelyaskeliksi ja kutistuvat edelleen. Tarvitaan askeleita ihan toiseen suuntaan perustekniikan osalta, jos aiotaan harpata.
 
26221158_1945945292085506_8543294548272690993_o.jpg

Intel Bug
 
Tällähetkellä 64 bittinen muistiavaruus on täysin riittävä kaikkeen mahdolliseen[...]


En ole eri mieltä, kunhan annan perspektiiviä yo. tulkintaan.

Palvelin puolella jättimäiset datamäärät ovat yksi isoimpia haasteita tällä hetkellä. Data pitäisi saada kerralla muistiin (enemmän muistia), väylien pitäisi pystyä siirtämään dataa nopeammin (nopeampi/levämpi väylä), eri prosessoreiden pitäisi pystyä (ilman yhtä kovaa suorituskykyhaittaa kuin nyt) osoittamaan samaa muistia yli em. väylien, muistirakenteen tulisi olla datanäytön/ohjelmoinnin kannalta yhtenäisempi (uusi muisti-topologia) JA tämä pitäisi tapahtua järkevällä hinta/energia-budjetilla (energiankulutus*hinta/muistimäärä).

Hewlett-Packard Enterprise (HPE) -yksiköllä on yo. ensimmäinen toiminnallinen prototyyppi, The Machine.
HPE Unveils Computer Built for the Era of Big Data | HPE Newsroom

Proto pystyy osoittamaan 160 teratavua muistia, mutta tämä perustuu erilaiseen arkkitehtuuriin kuin nykyiset suoritinkeskeiset alustat. Tarkoitus on skaalata tuo ainakin 320 teratavuun seuraavissa versioissa. Mutta tässäkin haaste on tarjota koko muistiavaruus käyttöön yhtenäisenä (erilaisten nykyarkkitehtuurien rajoitusten takia, kts. alla).

Vertailun vuoksi:

Käsittääkseni rajoitukset nykyisillä AMD64-toteutuksilla nyt ovat:

- AMD64-arkkitehtuurin käytännön 48-bittinen (Intel/AMD) osoiteavaruus: suorittimen rajoitus nyt max. 256 teratavua (mahd. 4 petatavua tulevaisuudessa laajennuksella, vaatii prosessoritason muutoksen)
- Linux-ytimen (RedHat v7) rajoitus: 12 teratavua
- Päälle emojen, muistikampojen ja muiden osien tuomat rajoitukset.

Eli teoreettista 2^64 tavumäärää ei nykyisistä 64-bittisistä prosessoreista saadakaan käyttöön noin vain. Ja kun saadaan, niin nykyarkkitehtuurien muut osat (prosesssorikeskeisyys, väylät, jne vrt. HPE The Machine suunnittelulähtökohtiin) tulevat pullonkaulaksi koko muistiavaruuden tehokkaaseen hyödyntämiseen.



Pointtina oli tukea Griffinin huomiota ja samalla todeta, että palvelinpuolella, missä "insane data" ('big data' on niin viime vuosikymmentä) vaatimukset ovat ajaneet muistitarpeet aivan stratosfäärisiksi. Ruokahalua isommalle/nopeammalle/yhtenäisemmälle muistiavaruudelle löytyy ja tarpeet kasvavat toistaiseksi nopeammin kuin nykyarkkitehtuurien (ja muistivalmistuksen/tekniikoiden) kapasiteetti tarjota muistia käyttöön.

Eli muutoksia on tulossa. Ensin palvelinpuolen erikoistarpeissa ja sitten hiljalleen sieltä osa innovaatioista, onnistumisen / levinneisyyden mukaan, todennäköisesti leviää aikanaan myös muille puolille.

Tämä ei muuta sitä, että nykyinen CPU-arkkitehtuuri on ja pysyy vielä pitkään, etenkin HEDT/Desktop-puolella. Eli en usko, että ihan heti nähdään edes 64-bittisiä prosessoreita, jotka osoittavat 56-bitin verran yhtenäistä muistiavaruutta, ja joita saa järkevään hintaan ostaa hyvätuloinen kuluttaja seuraavan 5v aikana.

Itse olisin tyytyväinen, jos nyt ensin palattaisiin sinne huhtikuun 2016 DDR4-muistien hintatasolle (eli hinnat tippuisivat 50%-67%) ja emoissa nopea nelikanavainen muistohjain olisi se peruslähtökohta, eikä näitä iänikuisia tuplakanavallisia max 32Gt-64Gt virityksiä.

Eli näillä mennään...
 
Levyoperaatiot ottavat tosiaan aika pahasti osumaa sen jälkeen kun käyttiksen lisäksi myös BIOS (mikrokoodi) on päivitetty:

Patched Desktop PC: Meltdown & Spectre Benchmarked

techspot.com sanoi:
On the GPU front, Nvidia is reportedly also affected, so there will be loads of additional tests to be done when time comes. Our interpretation from Nvidia's blog is that they rely on CPU-like aggressive branch prediction on their GPU architectures. It's part of their performance gains over consecutive generations. The flaw appears to be the same as Intel CPUs, in that speculative operations occur without security checks first, as a secure design should be done.

Tämä oli mielenkiintoista, mutta onko tää nyt jotain haihattelua, vai onko oikeesti tulossa muutoksia myös nVidian suorituskykyyn?
 
Tällähetkellä 64 bittinen muistiavaruus on täysin riittävä kaikkeen mahdolliseen, siinämäärin, että ei ole mitään järkeä sitoa hyvin rajallista transistoribudjettia yhtään natiiviin 128 bittiseen prossuun (laskentapuolelle on järkeä tehdä erikoisyksikköjä, niin kuin on tehty).

Ja kun nykyään ei olla vielä edes siinä 64 bitissä.

Muistaakseni järeimmät nykyiset x86-64-prossut tukevat vain 56-bittisiä virtualiosoitteita, ei täysiä 64-bittisä.

Koska se 56 bittiäkin on jo hyvin paljon, ja jokainen 8 bittiä lisää virtuaaliosoitetta tuo yhden tason sivutauluja lisää, mikä hidastaa hiukan muistiaccesseja tilanteessa kun tulee TLB-miss. (alkuperäinen K8 sisälsi muistaakseni vain 48-bittiset virtuaaliosoitteet).

Puhumattakaan tuosta 128 bittisyyden turhasta resurssien syömisestä.

Niin, kaikkien pointterien muistinkulutus tuplaantuisi. Välimuistien huonomman osumatarkkuuden kautta myös hidastaisi, ja kun muistista tarvisi latailla enemmän/useammin dataa, virrankulutus myös lisääntyisi.


128-bittisiä virtuaaliosoitteita on tosin jossain perusteltu sillä, että ne toimii tieoturvaominaisuuutena, kun osoitteita olisi niin paljon enemmän, että dataa johon ei pitäisi päästä käsiksi ei yksinkertaisesti löytyisi vaikka suojaukset pettäisi. Mutta todennäköisesti se "piilotettu" data nimenomaan löytyisi jollain SCAlla, kun voisi vertailla sitä kuinka monen tason verran sivutauluja täytyy TLB-missin tullessa ladata, että onko joku muu käyttänyt lähellä olevia osoitteita viime aikoina.

Tuo 640 KB heitto on typerä, kun jo sen heiton aikaan oli tiedossa, että muistin määrä kasvaa tuon rajan yli. Nyt taas hyödyt olisivat teoreettisiä, kun muistiavaruus olisi täysin 100%:n älytön, niin sinne olisi helpompi piilottaa asioita.

Niin, ja tuo 640 kB tuli siitä, että valittiin prossuksi 8088 joka tuki maksimissaan megan verran muistia, sekä siitä, että osa siitä prosessorin näkemästä muistiavaruudesta oli pakko varata muistimapättyyn IO:hon. Ja siihen muistimapattyyn IOhon valittiin ylimmät 384 kiB joka oli ihan järkevä valinta. Toki esim. 192 kiB olisi SAATTANUT riittää sille musitimapatylle IOlle, jolloin muistia olisi ollut käyettävissä 640 kiB sijaan 832 kiB, mutta samanlailla siitä 832 kiBstä olisi valitettu kuin miten nyt 640 kiBstä valitettiin.

Ja tällä rajoituksella ei ollut MITÄÄN tekemistä microsoftin kanssa,



Muistikampa, joka kattaisi 64 bittisen muistiavaruuden olisi nykytekniikalla melkoisen iso ja kehitys pienentämisessä hidastuu kokoajan, sekä koon, että virrankulutuksen suhteen. Jättiharppaukset ovat kutistuneet vanhan mummon köpöttelyaskeliksi ja kutistuvat edelleen. Tarvitaan askeleita ihan toiseen suuntaan perustekniikan osalta, jos aiotaan harpata.

niin.
 
Viimeksi muokattu:
Tämä oli mielenkiintoista, mutta onko tää nyt jotain haihattelua, vai onko oikeesti tulossa muutoksia myös nVidian suorituskykyyn?
Tuo ei tarkoita että CPU:n ominaisuuksien rajoittaminen vaikuttaisi näytönohjaimeen, vaan että nVidia käyttää mahdollisesti samaa tekniikkaa ohjaimissaan ja jos se pitää paikkaansa, niin sitten myös nVidian pitäisi päivittää ohjaimiensa toimintamallia ja se sitten kyllä vaikuttaa melko varmasti myös suorituskykyyn. Se on kuitenkin vielä mutua onko tämä tarpeen ja jos on, niin millä tasolla ja millaisilla seurauksilla.

Edit.
Tuon nVidian oman blogin (tai siis Security bulletinin) mukaan päivityksiä on luvassa tämän kuun aikana. Aukoista variantit 1 ja 2 koskevat myös nVidiaa. Seuraukset selvinnevät siis muutamassa viikossa.

The vulnerability has three known variants:
  • Variant 1 (CVE-2017-5753): Mitigations are provided with the security update included in this bulletin. NVIDIA expects to work together with its ecosystem partners on future updates to further strengthen mitigations.
  • Variant 2 (CVE-2017-5715): NVIDIA’s initial analysis indicates that the NVIDIA GPU Display Driver is potentially affected by this variant. NVIDIA expects to work together with its ecosystem partners on future updates for this variant.
  • Variant 3 (CVE-2017-5754): At this time, NVIDIA has no reason to believe that the NVIDIA GPU Display Driver is vulnerable to this variant.
 
Viimeksi muokattu:
Tuo ei tarkoita että CPU:n ominaisuuksien rajoittaminen vaikuttaisi näytönohjaimeen, vaan että nVidia käyttää mahdollisesti samaa tekniikkaa ohjaimissaan ja jos se pitää paikkaansa, niin sitten myös nVidian pitäisi päivittää ohjaimiensa toimintamallia ja se sitten kyllä vaikuttaa melko varmasti myös suorituskykyyn. Se on kuitenkin vielä mutua onko tämä tarpeen ja jos on, niin millä tasolla ja millaisilla seurauksilla.

Juu, näin siis ajattelinkin, ettei tosiaan nuo CPU-sidonnaiset päivitykset noihin nVidian chippeihin suoraan vaikuta. Mietin lähinnä että onko kuinka mahdollinen skenaario että niissä on tuo sama haavoittuvuus, ja että sitä lähdetään (BIOS ja) ajuripäivityksellä paikkaamaan?
 
Juu, näin siis ajattelinkin, ettei tosiaan nuo CPU-sidonnaiset päivitykset noihin nVidian chippeihin suoraan vaikuta. Mietin lähinnä että onko kuinka mahdollinen skenaario että niissä on tuo sama haavoittuvuus, ja että sitä lähdetään (BIOS ja) ajuripäivityksellä paikkaamaan?
Näyttäisi nVidian omien sanojen mukaan olevan hyvinkin todennäköistä. Editoin tarkemmat tiedot tuohon edelliseen viestiini.
 
Tuo ei tarkoita että CPU:n ominaisuuksien rajoittaminen vaikuttaisi näytönohjaimeen, vaan että nVidia käyttää mahdollisesti samaa tekniikkaa ohjaimissaan ja jos se pitää paikkaansa, niin sitten myös nVidian pitäisi päivittää ohjaimiensa toimintamallia ja se sitten kyllä vaikuttaa melko varmasti myös suorituskykyyn. Se on kuitenkin vielä mutua onko tämä tarpeen ja jos on, niin millä tasolla ja millaisilla seurauksilla.

Edit.
Tuon nVidian oman blogin (tai siis Security bulletinin) mukaan päivityksiä on luvassa tämän kuun aikana. Aukoista variantit 1 ja 2 koskevat myös nVidiaa. Seuraukset selvinnevät siis muutamassa viikossa.

Näytönohjaimet eivät tee spekulatiivista suoritusta, eivätkä ole haavoittuvaisia näille.

Kyse on siitä, että nvidian näytönohjaimen ajuri(jota ajetaan CPUlla) sisältää koodia joka on haavoittuvainen spectrelle.

Ja techspot on ymmärtänyt väärin.
 
Voisin kuvitella että NVIDIAn cuda ja shader kääntäjät paikataan samaan tapaan kuin normikääntäjät sekä selaimien prosessisuojaukset. Jos AMD:ltä ei tule samaa noottia, niin silloin voi olla aikalailla varma että kyseessä on joku cudan ominaisuus johon muutokset tehdään.

Edit:
Voisi muuten laittaa melkein jotakin pientä panokseksi että DX12/Vulkan tarttee jotakin paikkoa myös.
 
Lenovo saanut uusia bioksia ulos korjaamaan tätä Variant 2 (CVE-2017-5715) reikää. Odotin myös, että Variant 1 (CVE-2017-5753) olisi myös korjattu mutta ilmeisesti ei sitten olekaan.
https://support.lenovo.com/en/solutions/len-18282

Edit. Variant 1 saakin OS päivityksen.

Variant 1: Bounds check bypass (CVE-2017-5753)
Requires operating system updates
Vulnerable to Spectre attack

Variant 2: Branch target injection (CVE-2017-5715)
Requires processor microcode updates
Requires operating system updates
Vulnerable to Spectre attack

Variant 3: Rogue data cache load (CVE-2017-5754)
Requires operating system updates
Vulnerable to Meltdown attack
 
Viimeksi muokattu:
Paljonko maailmalla myydään/liisataan rautaa tai palvelua sopimuksella € per toteutunut suorituskyky? Nyt kun suorituskyvystä napsastaan palvelinmaailmassa 30% pois, tarkoittaa samaa kuin 1/3 raudasta olisi heitetty kaatopaikalle ja uutta tilalle. Tästä voi tulla aikamoinen ketju joka johtaa suoraan korvausvaatimuksineen Intelin ovelle. Olisi mielenkiintoista nähdä palvelinrautatoimituksien tilastoa tästä hetkestä +/- 1 vuosi.
 
Paljonko maailmalla myydään/liisataan rautaa tai palvelua sopimuksella € per toteutunut suorituskyky? Nyt kun suorituskyvystä napsastaan palvelinmaailmassa 30% pois, tarkoittaa samaa kuin 1/3 raudasta olisi heitetty kaatopaikalle ja uutta tilalle. Tästä voi tulla aikamoinen ketju joka johtaa suoraan korvausvaatimuksineen Intelin ovelle. Olisi mielenkiintoista nähdä palvelinrautatoimituksien tilastoa tästä hetkestä +/- 1 vuosi.

Yksi asia mikä on varmaa , että monen palvelun hinta tulee väkisin nousemaan. Jollainhan heidän on kasvanut tehontarve, ja siitä johtuvat lisäinvestoinnit rahoitettava.
 
Paljonko maailmalla myydään/liisataan rautaa tai palvelua sopimuksella € per toteutunut suorituskyky? Nyt kun suorituskyvystä napsastaan palvelinmaailmassa 30% pois, tarkoittaa samaa kuin 1/3 raudasta olisi heitetty kaatopaikalle ja uutta tilalle. Tästä voi tulla aikamoinen ketju joka johtaa suoraan korvausvaatimuksineen Intelin ovelle. Olisi mielenkiintoista nähdä palvelinrautatoimituksien tilastoa tästä hetkestä +/- 1 vuosi.

Varmaan mahdoton sanoa. Oikea vastaus lienee paljon, mutta kuinka suuri osa se on kokonaismarkkinasta on toinen juttu. Aikapaljonhan noita myydään myös ihan resurssina. Jos on myyty 4 Xeonia x, se on edelleen 4 Xeonia x.
 
Mielenkiintoista nähdä, kasvattaako tuo latenssia ajureille siinämäärin, että porukat huomaavat sen muusiikintekokoneissa, jossa on esim vältelty ryzeniä, sen korkeampien latenssien vuoksi. Tosin niihinhän ei välttämättä asenneta mitään päivityksiä, eivätkä ne ole netissä...
 
Palaan vielä astialle uhallakin.

Mitään yhteistyöhalukkuutta tuskin löytyy. Toivottavasti olen väärässä (kuten aina). Olen tapellut mm. MS:n, Broadcommin ja Samsungin kanssa liittyen eräisiin Windows 10:n ongelmiin. Ja ketään oikeasti ei kiinnosta loppupeleissä loppukäyttäjän ongelmat vittuakaan.

Kyllä ne kiinnostavat jos ongelmasta kärsii laajempi joukko. Isot pyörät pyörivät kuitenkin tuskaisen hitaasti jos ongelma koskee vain muutamaa käyttäjää ja silloinkin hankalasti toistettavana jne. Tässä tapauksessa ongelma on laajempi kuin kertaakaan aiemmin historiassa ja siten voisi kuvitella että siellä tosiaan tehdään kaikki mahdollinen jotta kakka ei osu tuulettimeen oikein kunnolla.

Nuo muutamaa vuotta vanhemmat laitteet itseäni huolettavat eniten, kun niitä on edelleen käytössä niin laajasti. Siihen sitten päälle kaikki ne koneet, joiden käyttäjät eivät osaa edes ajatella että pitäisi tehdä mitään muuta kuin klikkailla ok-painiketta ja kiroilla kun Windows sanoo että "päivityksiä olisi tarjolla, sopisiko bootata?".

Isojen firmojen kohdalla tahtoo mennä niin, että loppukäyttäjän ongelmien kiinnostavuus on suoraan verrannollinen sopimuksen taalamäärään nähden. Kun (keksitty esimerkki) Boeingin toimitusjohtaja soittaa Intelin toimitusjohtajalle, että mikäs on oikein ongelma niin kyllä se yhteistyö sitten alkaa rullaamaan oikein nätisti.
 
Eiköhän tämä skenaario eniten harmita juuri Amazonin ja DigitalOceanin kaltaisia toimijoita. Jos siltä fyysiseltä palvelimelta on saanut aiemmin vaikka 1000 pientä EC2 instanssia irti noin keskimäärin ja päivityksen jälkeen vain 700 niin kyllähän siinä tuotto per palvelin laskee huomattavasti.
 
Omat firestrike tulokset. Pientä mutta tasaista laskua:think:
firestrikecomp.png
Oletko koittanut, paljonko vaikuttaa, jos koneen raahaa ikkunan luo, josta tulee kylmää ilmaa koneen ilmanottoon. En ihmettelisi, vaikka vaikutus olisi selkeästi reilumpi (jos sinulla on prossulla tai näyttiksellä muu, kuin erittäin suorituskykyinen vesijäähy).
 
Oletko koittanut, paljonko vaikuttaa, jos koneen raahaa ikkunan luo, josta tulee kylmää ilmaa koneen ilmanottoon. En ihmettelisi, vaikka vaikutus olisi selkeästi reilumpi (jos sinulla on prossulla tai näyttiksellä muu, kuin erittäin suorituskykyinen vesijäähy).

Ajoin vielä kylki auki ja näyttiksen 'fan curven' laitoin kohtalaisen agressiiviseksi.
Prossulla on Corsair H60 (Push + Pull).
uusi.png

edit: jos tarvetta niin voin vielä ajaa tolla vanhemmalla ajurilla...
 
GPU:n lämmöt tippui ihan jonkinverran, CPU:n ei? Olisiko päytätuularia pistää pöhöttämään päin koneen sisusta? Tosin jäähy on hyvä, 51 astetta ei ole paljon..
 
Muuten kyllä, mutta physics score on tippunut 5%. Se ei ihan virhemarginaaliin mahdu. Toki jos tulokset vain yhdestä ajosta eikä toistettavissa niin sitten.

Joo physics score on kyllä tippunut.
Tässä kuukausien takaa 3kpl tuloksia, joissa prossulla ja muisteilla samat asetukset kuin nykyisinkin, tosin tällöin oli ilmajäähy käytössä (Macho 120).
Näyttiksen kellot vaihtelee näissä tuloksissa.

I scored 10 734 in Fire Strike
I scored 10 850 in Fire Strike
I scored 10 629 in Fire Strike

Eli lyhyesti voisi ehkä todeta, että maksimissaan -5% vaikuttanut nuo "päivitykset" tehoihin:think:

edit: Ei kyllä itseeni vaikuta patchit mitenkään oleellisesti suorituskyvyn kannalta että rupeisi erityisesti vituttamaan. Pudotuskin suorituskyvyssä näkyy käytännössä vain benchmarkeissa ja sekin on pieni.
 
Viimeksi muokattu:
Apple julkaisi juuri klo. 20:00 seuraavat päivitykset:

1. macOS High Sierra 10.13.2 Supplemental Update

C2eFwV2.jpg

2. iOS 11.2.2

YUA3qm3.jpg

Ei vielä tarkaa tietoa mitä korjaa...
 
Muuten kyllä, mutta physics score on tippunut 5%. Se ei ihan virhemarginaaliin mahdu. Toki jos tulokset vain yhdestä ajosta eikä toistettavissa niin sitten.
Tarkalleen ottaen 3,6%. Onhan se hieman pudonnut toki ja se oli jossain määrin odotettavissakin, mutta ei tuolla otannalla voi sanoa mitään lopullista.
 
  • Tykkää
Reactions: Jho
Tarkalleen ottaen 3,6%. Onhan se hieman pudonnut toki ja se oli jossain määrin odotettavissakin, mutta ei tuolla otannalla voi sanoa mitään lopullista.
Kerrohan millä matikalla saat 8307 ja 7928 luvuista 3.6% eron? 4.8% olisi hieman lähempänä. ;)
 

Statistiikka

Viestiketjuista
262 375
Viestejä
4 548 891
Jäsenet
74 978
Uusin jäsen
Omi77

Hinta.fi

Back
Ylös Bottom