Modaaja sai Core 9 273PQE:n eli Bartlett Laken postamaan tavallisella Z790-emolevyllä

Kaotik

Banhammer
Ylläpidon jäsen
Liittynyt
14.10.2016
Viestejä
24 985
Intel julkaisi vain P-ytimiä sisältävän Bartlett Laken hiljattain Edge-järjestelmiin. Prosessori on LGA1700-kantainen, mutta se ei toimi kuluttajakäyttöön suunnatuilla emolevyillä suoraan.

Nyt Overclock-sivuston foorumeiden käyttäjä kryptonfly kertoo saaneensa prosessorin postaamaan Asuksen Z790 AYW-OC -emolevyllä modaamalla sen BIOSia Claude-tekoälymallin avulla. Valitettavasti postausruutua pidemmälle prosessori ei etene modatullakaan BIOSilla.

bartlettlakepost.jpg


Lähde: Intel Bartlett Lake Core 9 273PQE Posts On A Consumer Z790 Motherboard Through BIOS Mod By A PC Enthusiast
 
Muutettu otsikosta yksi sana, vaikka on se postaaminenkin jo jonkinlaista toimimista. Jos vaikka sitten voidaan keskittyä siihen itse aiheeseen.
 
Ihan mielenkiintoinen projekti . Intelillä vastassa nyt varmasti "keinotekoinen" rajoite, ettei cpu toimi, mutta moniko tuollaista on valmis tekemään. Tuskin kovin moni. Varmasti ihan järkevääkin valmistajalta, ettei turhia CPU:ta pidetä tuettuina UEFI:ssa, vaikkakin jos niistä ei ole haittaa, niin saisihan ne siellä olla modaajien virityksiä helpottamassa
 
Eli jälleen tavallaan Erävoitto keinotekoista estoa vastaan xD. Kuinkahan vakaa siltikään.
En tiedä noista raudoista paljoakaan ja miten AMD tai Intel määrittelee nämä mutta eikö tämä kuitenkin ole esimerkki siitä että CPU valmistaja estää tai voisi mahdollistaa tuen tälle näin halutetessaan mutta rauhdallisesti kysymys ei ole siitä.

Emo ja CPU pystyvät kuitenkin modauksen turvin keskustelemaan keskenään.
 
En tiedä noista raudoista paljoakaan ja miten AMD tai Intel määrittelee nämä mutta eikö tämä kuitenkin ole esimerkki siitä että CPU valmistaja estää tai voisi mahdollistaa tuen tälle näin halutetessaan mutta rauhdallisesti kysymys ei ole siitä.

Emo ja CPU pystyvät kuitenkin modauksen turvin keskustelemaan keskenään.
Kyllä, mutta ei. Se ei ole mitenkään uusi ilmiö että joku tuote on suunnattu tietyille markkinoille vaikka se teknisesti voisi toimia ilman ominaisuutta x jollekin toiselle markkinalle suunnatulla emolla
 
Onko tuo kerroin lukitsematon prossu vai miksi tuota yritetään edes saada toimimaan tolla emolla? q670 ja w680 piirisarjat tukisi tuota prossua luonnostaan, toki emon valmistajalta pitäisi saaha uusi bios rossulle, kun ei taida yksikään myynnissä olevista emoista olla tarpeeksi uudella biossilla.
 
Varmaan lähinnä huvin ja urheilun vuoksi ja siksi, että todistetaan rajoitteiden olevan keinotekoisia, joilla pakkomyydään (tai ainakin yritetään myydä) väkisin uutta rautaa kuluttajille.
Paitsi ettei kyseessä ole kuluttajille myytävä prosessori
 
Mutta voisi olla kun vaan myisi ja antaisi luvan tehdä toimivan biosin.
Jossain vaiheessa kuitenkin "kiinasta" varmaan tulee jotain hybridejä. Modaamiskulttuurin näkökulmasta kaikki on mahdolista ja noita lupia tuskin moni kyselee haasteena tällähetkellä saanti mutta kun aikaa kuluu eiköhän kuluttajat löydä mahdollisuuksia saada itselleen. On noita erikoisuuksia aina jokatapauksessa ollut ja tulee olemaan.
 
Onko tuo kerroin lukitsematon prossu vai miksi tuota yritetään edes saada toimimaan tolla emolla? q670 ja w680 piirisarjat tukisi tuota prossua luonnostaan, toki emon valmistajalta pitäisi saaha uusi bios rossulle, kun ei taida yksikään myynnissä olevista emoista olla tarpeeksi uudella biossilla.
Eiköhän tuossa ole sama idea/ajatus kuin saada Doom pyörimään sähköhammasharjassa. Eli kun kerta jokin on pieninkin mahdollisuus modata niin se kanssa tehdään vaikka siinä ei olisikaan mitään järkeä... :D
 
Idea tuossa on, kun Intelillä ei ole mitään varteenotettavia oikeasti kunnollisia prossuja markkinoilla harrastajille, mutta tossa Bartlett Lakessa on 12 P-corea eikä yhtään niitä turhia mitättömiä paskacoreja. Tuo voisi oikeasti olla kova prossu, jos sitä saisi ja pystyisi kunnolla käyttämään sekä kellottamaan. Tuollainen olisi pitänyt julkaista jo vuosia sitten, mutta ei kun ei. Intel jämähti kuluttajaprossuissa kymmeneksi vuodeksi neljään coreen, sitten oli yksi kutonen välissä ja nyt vaan sama typerä paska jatkuu 8-core prossujen kanssa since 2018.
Ainiin olihan siellä 10900k välissä..
 
Idea tuossa on, kun Intelillä ei ole mitään varteenotettavia oikeasti kunnollisia prossuja markkinoilla harrastajille, mutta tossa Bartlett Lakessa on 12 P-corea eikä yhtään niitä turhia mitättömiä paskacoreja. Tuo voisi oikeasti olla kova prossu, jos sitä saisi ja pystyisi kunnolla käyttämään sekä kellottamaan. Tuollainen olisi pitänyt julkaista jo vuosia sitten, mutta ei kun ei. Intel jämähti kuluttajaprossuissa kymmeneksi vuodeksi neljään coreen, sitten oli yksi kutonen välissä ja nyt vaan sama typerä paska jatkuu 8-core prossujen kanssa since 2018.
Ainiin olihan siellä 10900k välissä..
Onkos tässä BL:ssä HTtä?
----------------------------------------
Mihin kuluttajakoneissa tarvitsee suurta määrää ytimiä? 99% käyttäjistä ei mihinkään ja kun ja jos oikeasti tarvitsee, niin ammattilaisrautaa on saatavilla..
 
Onkos tässä BL:ssä HTtä?
----------------------------------------
Mihin kuluttajakoneissa tarvitsee suurta määrää ytimiä? 99% käyttäjistä ei mihinkään ja kun ja jos oikeasti tarvitsee, niin ammattilaisrautaa on saatavilla..
Ainakin intelin itsensä mukaan on: Intel® Core™ 9 Processor 273PQE (36M Cache, up to 5.90 GHz) - Product Specifications | Intel

Total threads: 24

Ja mitä väliä sillä on myyjän näkökulmasta tarvitseeko asiakas niitä ytimiä. Miettiiköhän Porsche-kauppiaskin sitä että jospa asiakas pärjäiski ihan Toyota Corollalla kun se myy "tarpeettoman" suorituiskykyistä autoa asiakkaalle.
 
Onko tuo kerroin lukitsematon prossu vai miksi tuota yritetään edes saada toimimaan tolla emolla? q670 ja w680 piirisarjat tukisi tuota prossua luonnostaan, toki emon valmistajalta pitäisi saaha uusi bios rossulle, kun ei taida yksikään myynnissä olevista emoista olla tarpeeksi uudella biossilla.
Eivät muuten tue pelkän piirisarjan perusteella. Kyseinen SKU on segmentoitu yksinomaan tarkoitetulle markkinalleen, joten esim. työasemakäyttöön tarkoitetut emolevyt W680-piirisarjalla eivät tule saamaan Bartlett Lake-S tukea.
 
Viimeksi muokattu:
Idea tuossa on, kun Intelillä ei ole mitään varteenotettavia oikeasti kunnollisia prossuja markkinoilla harrastajille, mutta tossa Bartlett Lakessa on 12 P-corea eikä yhtään niitä turhia mitättömiä paskacoreja. Tuo voisi oikeasti olla kova prossu, jos sitä saisi ja pystyisi kunnolla käyttämään sekä kellottamaan. Tuollainen olisi pitänyt julkaista jo vuosia sitten, mutta ei kun ei. Intel jämähti kuluttajaprossuissa kymmeneksi vuodeksi neljään coreen, sitten oli yksi kutonen välissä ja nyt vaan sama typerä paska jatkuu 8-core prossujen kanssa since 2018.
Ainiin olihan siellä 10900k välissä..
Intel on jo aika kuuluisa tuon kanssa, että pakottaa vaihtaa emolevyä jatkuvasti hyvin keinotekoisilta vaikuttavien syiden takia. Se on jännä, kun ihmiset eivät opi mitään.
 
Mihin kuluttajakoneissa tarvitsee suurta määrää ytimiä? 99% käyttäjistä ei mihinkään ja kun ja jos oikeasti tarvitsee, niin ammattilaisrautaa on saatavilla..
"640K ought to be enough for anybody." - Bill Gates '81

Intel on jo aika kuuluisa tuon kanssa, että pakottaa vaihtaa emolevyä jatkuvasti hyvin keinotekoisilta vaikuttavien syiden takia. Se on jännä, kun ihmiset eivät opi mitään.
Kyllähän ihmiset ovat oppineet - Intel kuluttajaprossut eivät enää myy, AMD johtaa about yhtä suvereenisti kuin NVidia näyttispuolella. Tossa tosin lienee osasyynsä sillä, että Raptor Laket tappoivat itseään massoittain ja varsin tehokkaasti, mutta on se suorituskyky- ja emolevyjen käyttöikäkysymys myös.
 
"640K ought to be enough for anybody." - Bill Gates '81


Kyllähän ihmiset ovat oppineet - Intel kuluttajaprossut eivät enää myy, AMD johtaa about yhtä suvereenisti kuin NVidia näyttispuolella. Tossa tosin lienee osasyynsä sillä, että Raptor Laket tappoivat itseään massoittain ja varsin tehokkaasti, mutta on se suorituskyky- ja emolevyjen käyttöikäkysymys myös.
Jeps. Vaikkei AMD mikään pyhimys ole, niin siellä on sitten myös openSIL-hankkeen myötä pian avoimempaa "biosia" luvassa. Toki joihinkin Intelinkin valikoituihin palvelin/legacy-emoihin on coreboot saatu, mutta jotenkin veikkaan ettei vaakakupissa Inteliä yhtään ainakaan auta jatkossa tuo, jos uefissä on jotain keinotekoisia rajoitteita ja toinen kilpaileva firma tarjoaa pian avointa firmistä.
 
Lähtisin muuten kyseenalaistamaan alkuperäistä Alder Lake -suunnittelua, kuin että mihin joku tarvitsisi vain vastaavan arkkitehtuurin P-ytimiä peräti 12 kappaletta. Kun Alder Lake julkaistiin n. 5 vuotta sitten, ei olisi tullut mieleenkään itselläni, että pitäisipä PC:ssä olla matalan virrankulutuksen ytimiä. Lähtökohtaisesti kuluttajat, jos nyt oikeasti puhutaan kuluttajamarkkinoista, eivät edes omista PC:tä. Lähestulkoon kaikki hoituu nykyisin puhelimella ja valtaosalle ihmisistä se onkin ainoa laite, jonka omistavat. PC siis kieltämättä on poikkeus, jonka suhteen virrankulutus ei ole ensimmäinen prioriteetti ja tämä nähdään mm. kasvaneissa tehovaatimuksissa kaikissa komponenteissa, erityisesti mm. näytönohjainten osalta.

Yrittäkää joku siis vääntää rautalangasta minulle, että kun käynnistän PC:ni ja todennäköisesti haluan pelata pelejä tai kirjoittaa koodia tai leikata videoita, että mihin oikeasti tarvitsen matalan virrankulutuksen ytimiä eli E-ytimiä? Joka tapauksessa niitä tehokkaita P-ytimiäkin voi joko ajaa alemmilla kelloilla dynaamisesti tai jopa olla käyttämättä kaikkia ytimiä, elleivät ne ole tarpeen. Tuo kaikki on kuitenkin ollut jo mahdollista Pentium 4:nkin ajoilta eikä ole mikään uusi kehitys. Sen sijaan suurempi ytimien määrä mahdollistaa kaikenlaista nykypäivänä: esim. voit huoletta striimata omaa pelaamistasi, käyttää Linuxia (WSL2) Windowsin ohessa devaustarpeissa, renderöidä videoluomuksiasi huomattavasti nopeammin, jne.

Silloinkin, kun vaikka kirjoitan puhtaaksi CV:ni Wordissä, voin huoletta käyttää moniajoa ja taustalla onkin Spotify toistamassa musiikkia, iso liuta välilehtiä auki lempiselaimessani sekä mahdollisesti jokin ohjelma kuvanmuokkaukseen saattaakseni oman lärvin edustuskelpoiseksi. Ei mikään näistä sinänsä vaadi ytimiä paljon, mutta kaikki kaikessa on tehokkaampaa hyödyntää niin paljon ytimiä, kuin mahdollista. Eivätkä entisajan ohjelmat olleet yhtä laajoja ominaisuuksissaan kuin vaatimuksissaankin eli esim. jokin Photoshop CS2 -versio on luonnollisesti paljon kevyempi, kuin uusin Photoshop CC. Siihen aikaan kun ei ollut yhtä riittoisaa rautaa useimmilla käytössä. Nykyisin on, mikä myös mahdollistaa enemmän.

Ymmärtäisivätpä Intelillä, että tämä 12 P-ytimen malli on enemmänkin kuin kiinnostuksen kohde monelle LGA1700-alustalla. Saisivat varmaan kaupaksi jonain kerroinlukottomana K-mallina vaikka hintaan 600-700 euroa. Jos saisi vielä mahdottomia toivoa, niin AVX-512 olisi kiva olla tuettuna. Pliis?!
 
Lähtökohtaisesti kuluttajat, jos nyt oikeasti puhutaan kuluttajamarkkinoista, eivät edes omista PC:tä. Lähestulkoon kaikki hoituu nykyisin puhelimella ja valtaosalle ihmisistä se onkin ainoa laite, jonka omistavat.
PC lienee monessa työpaikassa se työväline. En ole vielä kuullut vaikka hr-osastoista, joissa sihteerit hoitavat puhelimella SAPpia jne. Powerpointtien esittäminen on hankalaa kun kaikissa yritysten 200-300 euron työpuhelimissa ei ole HDMI:tä jne.
PC siis kieltämättä on poikkeus, jonka suhteen virrankulutus ei ole ensimmäinen prioriteetti ja tämä nähdään mm. kasvaneissa tehovaatimuksissa kaikissa komponenteissa, erityisesti mm. näytönohjainten osalta.
Kaikki steam launcherin ja webbisivulla lataamisen jälkeen istuskelusta wordiin ja exceliin menee idle-kulutuksen puolelle nykylaitteilla. Sitä on yllättävän paljon. Jopa pelatessa osa peleistä ei kuormita kaikkia ytimiä ihan koko aikaa.
Yrittäkää joku siis vääntää rautalangasta minulle, että kun käynnistän PC:ni ja todennäköisesti haluan pelata pelejä tai kirjoittaa koodia tai leikata videoita, että mihin oikeasti tarvitsen matalan virrankulutuksen ytimiä eli E-ytimiä?
Jos ei-lineaarinen videoeditori on tehty "oikein", kaikki leikkelytyö ja efektien raahaaminen jne. menee CPU:lla idle-kulutukselle. Videotoisto esikatselua varten ajetaan dsp-dekooderin läpi vpu:lla. Se on se raskain kohta. Kaikki toiminnot ovat kirjanpidoltaan ihan minimaalisen raskaita.
Joka tapauksessa niitä tehokkaita P-ytimiäkin voi joko ajaa alemmilla kelloilla dynaamisesti tai jopa olla käyttämättä kaikkia ytimiä, elleivät ne ole tarpeen. Tuo kaikki on kuitenkin ollut jo mahdollista Pentium 4:nkin ajoilta eikä ole mikään uusi kehitys.
Pentium 4:n ei-mobiiliversiot kyllä olivat kiukaita ja idle-kulutus aika karmea.
Sen sijaan suurempi ytimien määrä mahdollistaa kaikenlaista nykypäivänä: esim. voit huoletta striimata omaa pelaamistasi, käyttää Linuxia (WSL2) Windowsin ohessa devaustarpeissa, renderöidä videoluomuksiasi huomattavasti nopeammin, jne.

Silloinkin, kun vaikka kirjoitan puhtaaksi CV:ni Wordissä, voin huoletta käyttää moniajoa ja taustalla onkin Spotify toistamassa musiikkia, iso liuta välilehtiä auki lempiselaimessani sekä mahdollisesti jokin ohjelma kuvanmuokkaukseen saattaakseni oman lärvin edustuskelpoiseksi.
Musiikin toistamisen raskaudesta sen verran, että mulla on streamerina 1,2 GHz ARMv7-laite eli vastaa jotain 15 vuotta vanhaa puhelinta ja siinä mp3/aac/flac kuluttaa max 4% yhtä corea kiihdyttämättömänä. Jos sulla on taustalla ohjelmia etkä aktiivisesti renderöi niillä mitään, ei niiden kuuluisi kuluttaa mitään.
 
PC lienee monessa työpaikassa se työväline. En ole vielä kuullut vaikka hr-osastoista, joissa sihteerit hoitavat puhelimella SAPpia jne. Powerpointtien esittäminen on hankalaa kun kaikissa yritysten 200-300 euron työpuhelimissa ei ole HDMI:tä jne.
Läppäri on se ihmisten työväline. Mä en ole tavannut ns. pöytäkoneita tällä vuosituhannella oikeastaan muussa kuin laskenta-/simulointikäytössä, ellei ole kiinteästi jossain mittauslaitteistossa tms. kiinni.

EDIT: Tosiaan noita taskukirjan kokoisia SFF-purkkeja on henkilöillä jotka ei tee etätöitä, mutta teknisestihän nuo ovat "kiinteitä läppäreitä", eivät työasemia sanan varsinaisessa merkityksessä (suorituskyvyltään/tekniikaltaan).
 
Viimeksi muokattu:
@love_doctor Et mielestäni antanut yhtäkään esimerkkiä tai skenaariota, jossa nimenomaan E-ytimistä olisi jotain oleellista hyötyä. Jälleen kerran niitä P-ytimiä voi ajaa huomattavasti matalammilla kelloillakin, eivätkä siten kuluta niin paljon. Huomaa nyt myös, että puhuin kuluttajista ja heidän mahdollisista käyttökohteista PC:lle eli pelaaminen ja muut harrastukset. Jos HR-täti kaipaa jotain Salesforcea vapaa-ajallaan, on hänellä todennäköisesti läppäri käytössään. Eikä nyt mitenkään relevanttia ole se, että miten kuluttaja saisi PowerPointin kiinni isolle ruudulle, kun juuri kukaan ei edes harrastuksena käytä PowerPointia. Työasiat sitten erikseen.
 
Läppäri on se ihmisten työväline. Mä en ole tavannut ns. pöytäkoneita tällä vuosituhannella oikeastaan muussa kuin laskenta-/simulointikäytössä, ellei ole kiinteästi jossain mittauslaitteistossa tms. kiinni.
Aa, joo siis läppäreitä toki enimmäkseen. Lasken ne myös PC:ksi, jos ovat Windows-pohjaisia alunperin. Kaipa tuossa on se, että ei ole järkeä kehittää samaan aikaan usean eri konetyypin prosessoreita. Läppäri ja pöytäkone ovat sen verran lähellä toisiaan, että molemmille ydintyypeille voi olla käyttöä erilaisissa konfiguraatioissa. Joskushan M-prosessorit olivat Intelillä erikseen.

Noita pieniä SFF-pöytäkoneita näkee virastoissa kun julkisella puolella voidaan katsoa, että työntekijä ei ole sen arvoinen että saisi tehdä etätöitä tai läppäri on liian arvokas. Jos näyttönä on vanha 6-bit FRC TN-paneeli luokassa 1080p, niin riittää ostaa 10 vuoden välein uusi pentium gold / i3-pöytäkone 4-8 gigan muistilla (joku dell optiplex micro tai vastaava) ja ei maksa kilpailutettuna hanselin tms. kautta kuin 600+ euroa, kun läppäri maksaisi 700-800 tai nyt komponenttien hinnannousun myötä 900-1000 (speksejä laskettaisiin). Kun kone on viraston pöydällä, on helpompi valvoa että paskahousu tekee työnsä pomon silmän alla (ehkä lasiseinät virastossa) ja ei rikkoonnu kun ei kanna sitä kotiinsa.
 
@love_doctor Et mielestäni antanut yhtäkään esimerkkiä tai skenaariota, jossa nimenomaan E-ytimistä olisi jotain oleellista hyötyä. Jälleen kerran niitä P-ytimiä voi ajaa huomattavasti matalammilla kelloillakin, eivätkä siten kuluta niin paljon. Huomaa nyt myös, että puhuin kuluttajista ja heidän mahdollisista käyttökohteista PC:lle eli pelaaminen ja muut harrastukset. Jos HR-täti kaipaa jotain Salesforcea vapaa-ajallaan, on hänellä todennäköisesti läppäri käytössään. Eikä nyt mitenkään relevanttia ole se, että miten kuluttaja saisi PowerPointin kiinni isolle ruudulle, kun juuri kukaan ei edes harrastuksena käytä PowerPointia. Työasiat sitten erikseen.
En tunne tuota Intelin strategiaa ja voi olla ettei se edes toimi. Kuitenkin puhelinpuolella on jo pitkän aikaa ollut big.littleä ja uudempia. Alunperin taisi tulla 2011. Ongelma isoissa ytimissä on, että vaikka kelloja laskee, niissä on silti isompi kulutus. Jos ei haluta suunnitella erikseen eri segmenttien koneisiin prosessoreita, on järkeä kierrättää samoja ideoita. Voi auttaa siinäkin, että kehittäjät huomioivat tekniikkaa paremmin, jos sitä on pöytäkoneissakin.
 
En tunne tuota Intelin strategiaa ja voi olla ettei se edes toimi. Kuitenkin puhelinpuolella on jo pitkän aikaa ollut big.littleä ja uudempia. Alunperin taisi tulla 2011. Ongelma isoissa ytimissä on, että vaikka kelloja laskee, niissä on silti isompi kulutus. Jos ei haluta suunnitella erikseen eri segmenttien koneisiin prosessoreita, on järkeä kierrättää samoja ideoita. Voi auttaa siinäkin, että kehittäjät huomioivat tekniikkaa paremmin, jos sitä on pöytäkoneissakin.
Lisäksi isot ytimet vie piipintaalaa enemmän. Rinnakkainen kuorma tykkää e ytimistä, koska niitä saa samaan pinta-alaan enemmän ja ne on täten halvempia kuin vastaa määrä isoja ytimiä.


Ts palvelinpuolella tykätään noista. Ja periaatteessa pelitkin voisi toimia BIG.littlellä hyvin jos hyvin optimoidaan kernelit yms.


Tämä ei tosin muuta mitään siitä intelin tuote segmentoinnin kritiikistä, intel halutessaan kyllä saisi myös pelkästään 12p ydintä sisältäviä prossuja myös kuluttaja emoille
 
Lisäksi isot ytimet vie piipintaalaa enemmän. Rinnakkainen kuorma tykkää e ytimistä, koska niitä saa samaan pinta-alaan enemmän ja ne on täten halvempia kuin vastaa määrä isoja ytimiä.

Ts palvelinpuolella tykätään noista. Ja periaatteessa pelitkin voisi toimia BIG.littlellä hyvin jos hyvin optimoidaan kernelit yms.
Jep, tämä on yleinen lainalaisuus, että kannattaa laskenta tehdä mahd. kevyellä riittävällä raudalla. AI-puolellakin on vähennetty laskennan tarkkuutta, kun sitä ei aina tarvita. Yleiskäyttöisissä hybridiarkkitehtuureissa pieni ydin sopii todella kevyeen laskentaan, seuraavana steppinä sitten paksu ydin sekalaiseen ennakoimattomaan koodiin, jossa tarvii haarautumisen ennustusta yms. Niitä hyvä olla parikin ad-hoc-tapauksiin, kun on tehtävärinnakkaisuutta. Kaikkeen datarinnakkaisuuteen sitten pienet ytimet sopivat paremmin. Pienetkin ytimet on joustavampia sitten taas kuin SSE/AVX, mutta jos on ihan "viivasuoraa" dataa, niin SIMD voittaa. GPU:ssa on vähän sama kun ajetaan warppeina CUDA:ssa ytimiä.
 
Tuo on hyvä pointti rinnakkaislaskennasta, mutta ihan oikeasti hyötyä sen optimoinnista on melko vähän kuluttajakäytössä.

Esim. peleissäkin rinnakkaistettu laskenta lopulta kaipaa myös hyvää suorituskykyä eli tehtävät, joissa lukuisat ytimet ovat tarpeen ja pureskelevat pienempiä datamääriä kerrallaan, ovat vähissä. Ellei nyt huvikseen halua ajella jotain alkulukujen laskemista.

Olisi siis ollut kuitenkin hienoa nähdä tämä Bartlett Lake-S myös Z690/Z790-piirisarjalla tuettuna, esim. Intelin "lippulaivana" pelaajille.
 
Tuo on hyvä pointti rinnakkaislaskennasta, mutta ihan oikeasti hyötyä sen optimoinnista on melko vähän kuluttajakäytössä.

Esim. peleissäkin rinnakkaistettu laskenta lopulta kaipaa myös hyvää suorituskykyä eli tehtävät, joissa lukuisat ytimet ovat tarpeen ja pureskelevat pienempiä datamääriä kerrallaan, ovat vähissä. Ellei nyt huvikseen halua ajella jotain alkulukujen laskemista.
Kannattaa nyt päivittää tiedot asioista tälle vuosikymmenelle. Ihan alkuun huomiona, että jos jokin ongelma ratkeaa jo ilman rinnakkaistamista, ei sitä kannata väkisin rinnakkaistaa. Yleensä näitä asioita ratkotaan eniten prosessointia vaativista tehtävistä alkaen ja aika monet vaativat algoritmit on kyllä hyvissä kirjastoissa ja ohjelmissa optimoitu (esim. renderöinnit, kääntäminen, ääni- ja kuvafiltterit, tiedon pakkaus/purku jne.). Toki open source -puolelta löytyy joka asiaan tuhat toteutusta ja joku niistä ei ole hyvä. Pelit on aika heterogeeninen alue, jossa on monenlaista laskentaa ja ainakin GPU-puolella kyllä ihan pakostikin nykyään käytetään shadereita. Pelit noin yleisesti on vaikea alue optimoida ja studiot joutuvat pohtimaan kustannuksia ja aikaa myös eikä vain tehokkuutta.
 
Menee aiheen ohi varmaankin, mutta pelikehityksessä kyllä prioriteettina on, että asiat tehdään järjestyksessä. Paljoa ei voi rinnakkaistaa siinä, oli kustannukset rajoittavana tekijänä tai ei.

Missä mukamas kuluttajakäytössä on sellaiset käyttökohteet, joissa runsan määrä pieniä ytimiä on selkeä hyöty? Jos nyt joku pelleilee huvikseen Kubernetestä kotonaan, niin sitten ehkä.
 
Menee aiheen ohi varmaankin, mutta pelikehityksessä kyllä prioriteettina on, että asiat tehdään järjestyksessä. Paljoa ei voi rinnakkaistaa siinä, oli kustannukset rajoittavana tekijänä tai ei.
Kysy vaikka gpt:ltä, onko peleissä jotain rinnakkaistettavaa. Asia ei ole ihan noin mustavalkoinen.
Missä mukamas kuluttajakäytössä on sellaiset käyttökohteet, joissa runsan määrä pieniä ytimiä on selkeä hyöty? Jos nyt joku pelleilee huvikseen Kubernetestä kotonaan, niin sitten ehkä.
Listasin jo. Onko ongelmia ymmärtää?

Yleensä näitä asioita ratkotaan eniten prosessointia vaativista tehtävistä alkaen ja aika monet vaativat algoritmit on kyllä hyvissä kirjastoissa ja ohjelmissa optimoitu (esim. renderöinnit, kääntäminen, ääni- ja kuvafiltterit, tiedon pakkaus/purku jne.)

Tuon lisäksi esim. linuxilla on komentorivillä käsky parallel, jolla voi rinnakkaistaa mitä vaan, mikä muuten luupattaisiin (olettaen että tehtävät ovat toisistaan riippumattomia). Mainitaan nyt vaikka esikatselukuvien luonti esimerkkinä tällaisesta, mihin voisi käyttää. Tai jos mp3-koodekki ei olisi rinnakkainen, niin levyllisen kappaleita saa rinnakkaisesti tiivistettyä tai transkoodattua tai mitä haluaakaan tehdä. Suunnilleen joka ongelmaan löytyy algoritmi. Mutta kuten sanoin, ei niitä ole järkeä rinnakkaistaa, jos se laskenta ei kestä kauaa muutenkaan.
 
Hyötykäyttö, plus moniajo. Varmasti suurempi määrä käyttäjiä kuin 1%. :D
Mikä ohjemat, joita useampi käyttää hyötyvät merkittävästi esim 12 ydintä vs 8 ydintä?
Moniajo tuntuu onnistuvan 4 core prossullakin toimistossa ja vastaavassa hyvinkin monessa käytössä jne oikein hyvin. Toki en yleisesti käytä win11:sta kuin minimaallisesti ja se ei toimi kovinkaan hyvin, tarvitseeko se sitten nuo coret, jotta käyttis toimii paremmin?

Raskaaseen laskentaan sitäpaitsi käytetään yleensä nykyisin erillistä GPU:ta..
-----------------
Pc koneiden suorituskyky on ollut huppuluokkaa. Valitettavasti ohjelmistojen laatu vain laskee kokoaja ja niitä tehdään yhä hitaimmilla ja mutkikkaammilla systeemeillä, saaden ne turpoamaan sekä muistin, että prosessorin käytön suhteen. Lisäksi esim moniin käyttiksiin tuupataan kaikenlaista turhaa tai jopa haitallista paskaa, joka syö koneen resursseja huomattavasti (muistia, prossun suorituskykyä (->läppärissä akunkestoa jne)).
 
Mikä ohjemat, joita useampi käyttää hyötyvät merkittävästi esim 12 ydintä vs 8 ydintä?
Moniajo tuntuu onnistuvan 4 core prossullakin toimistossa ja vastaavassa hyvinkin monessa käytössä jne oikein hyvin. Toki en yleisesti käytä win11:sta kuin minimaallisesti ja se ei toimi kovinkaan hyvin, tarvitseeko se sitten nuo coret, jotta käyttis toimii paremmin?

Raskaaseen laskentaan sitäpaitsi käytetään yleensä nykyisin erillistä GPU:ta..
-----------------
Pc koneiden suorituskyky on ollut huppuluokkaa. Valitettavasti ohjelmistojen laatu vain laskee kokoaja ja niitä tehdään yhä hitaimmilla ja mutkikkaammilla systeemeillä, saaden ne turpoamaan sekä muistin, että prosessorin käytön suhteen. Lisäksi esim moniin käyttiksiin tuupataan kaikenlaista turhaa tai jopa haitallista paskaa, joka syö koneen resursseja huomattavasti (muistia, prossun suorituskykyä (->läppärissä akunkestoa jne)).
Kyl mulla ainaki kyykkää jossain määrin, kun on "vaan" kahdeksan ydintä ja kolme tai useampi raskasta ohjelmaa samanaikaisesti käytössä. Selain, treidaus, joku peli saattaa olla samanaikaisesti osan ajasta. Sitten kommunikaatio-ohjelma. Joku skripti pyörii ja tietty kaikki taustaohjelmat. Ja välillä tekstinkäsittelyohjelmaa myös. Eli mitä enemmän ytimiä, sen parempi. Lisäksi huippumalleilla on paremmat kellotaajuudet. Eli tähän voi todeta, että käyttöä ja tarvetta on monenlaista, pelkän tekstinkäsittelyn ja selaimen lisäksi.
 
Mikä ohjemat, joita useampi käyttää hyötyvät merkittävästi esim 12 ydintä vs 8 ydintä?
Moniajo tuntuu onnistuvan 4 core prossullakin toimistossa ja vastaavassa hyvinkin monessa käytössä jne oikein hyvin. Toki en yleisesti käytä win11:sta kuin minimaallisesti ja se ei toimi kovinkaan hyvin, tarvitseeko se sitten nuo coret, jotta käyttis toimii paremmin?
Käykö tähän vastaukseksi, että mulla on nytkin koneessa ajossa 2697 säiettä ja 676 kernel-säiettä. 295 taskia. Näin sanoo htop. Säikeiden käyttö tarjoaa käyttikselle potentiaalin jakaa kuorma ytimille.

Ajan esim. jotain managed-ympäristöä (sanotaan vaikka Java). Siinä on erikseen roskienkeruulle oma säie ja esim. GUI-renderöintiin ja bisnes-koodille eri säikeet. Käytän i/o:ta, niin lähes kaikki i/o alkaa olla asynkronista tänä päivänä. Tarkoittaa käytännössä, että 1+ säiettä kernel-puolella voi rakentaa puskuriin dataa ja oma softa eri säikeessä lukee tuota. Levykryptaus jakaa säikeille palasia, jos kirjoitetaan isompia määriä. Jos selaimessa on monta tabia, arvaapa toimivatko ne tiukan peräkkäisesti yhdessä säikeessä vai erikseen joka tabi. Työpöydällä pelkkä hiiri/näppistapahtumien luku on säikeistetty ja joka ikkuna on eri prosessissa noin lähtökohtaisesti. Taustalla on palveluita (indeksointi, ääni, ssh jne.) kaikki eri säikeissä. Näin vastausta kirjoittaessa kuorma on kohtalaisen pieni, joten mitään ihmeellistä ei tehtävänhallinnassa näy, mutta pistänpä vaikka 10 gigaa dataa 7zip-pakettiin tai rippaan cd-levyn koneelle tai renderöin lyhytanimaation tai tällaisia, niin kuorma kuluttaa useampaa ydintä. Tai jos käännän vaikka uuden kernelin, niin näen ihan kellosta, että sekuntimäärä ja säiemäärä ovat aika selkeästi kytköksissä. Affiniteettia voi säätää ihan testimielessäkin.
 
Mikä ohjemat, joita useampi käyttää hyötyvät merkittävästi esim 12 ydintä vs 8 ydintä?
Moniajo tuntuu onnistuvan 4 core prossullakin toimistossa ja vastaavassa hyvinkin monessa käytössä jne oikein hyvin. Toki en yleisesti käytä win11:sta kuin minimaallisesti ja se ei toimi kovinkaan hyvin, tarvitseeko se sitten nuo coret, jotta käyttis toimii paremmin?

Raskaaseen laskentaan sitäpaitsi käytetään yleensä nykyisin erillistä GPU:ta..
-----------------
Pc koneiden suorituskyky on ollut huppuluokkaa. Valitettavasti ohjelmistojen laatu vain laskee kokoaja ja niitä tehdään yhä hitaimmilla ja mutkikkaammilla systeemeillä, saaden ne turpoamaan sekä muistin, että prosessorin käytön suhteen. Lisäksi esim moniin käyttiksiin tuupataan kaikenlaista turhaa tai jopa haitallista paskaa, joka syö koneen resursseja huomattavasti (muistia, prossun suorituskykyä (->läppärissä akunkestoa jne)).
Kyllähän se normaalisti toimistokäytössä jää muistiin kiinni kun teams syö 4-6gt ja outlook melkein samat. Teamsissä on kyllä oltava joku bugi joka lataa chattiin liitettyjä tiedostoja/kuvia/videoita ja lataa ne aina kun avaa kyseisen henkilön kanssa chatin uudelleen auki. Tai voi liittyä joihinkin tiedostopäätteisiinkin.
 
Käykö tähän vastaukseksi, että mulla on nytkin koneessa ajossa 2697 säiettä ja 676 kernel-säiettä. 295 taskia. Näin sanoo htop. Säikeiden käyttö tarjoaa käyttikselle potentiaalin jakaa kuorma ytimille.

Ajan esim. jotain managed-ympäristöä (sanotaan vaikka Java). Siinä on erikseen roskienkeruulle oma säie ja esim. GUI-renderöintiin ja bisnes-koodille eri säikeet. Käytän i/o:ta, niin lähes kaikki i/o alkaa olla asynkronista tänä päivänä. Tarkoittaa käytännössä, että 1+ säiettä kernel-puolella voi rakentaa puskuriin dataa ja oma softa eri säikeessä lukee tuota. Levykryptaus jakaa säikeille palasia, jos kirjoitetaan isompia määriä. Jos selaimessa on monta tabia, arvaapa toimivatko ne tiukan peräkkäisesti yhdessä säikeessä vai erikseen joka tabi. Työpöydällä pelkkä hiiri/näppistapahtumien luku on säikeistetty ja joka ikkuna on eri prosessissa noin lähtökohtaisesti. Taustalla on palveluita (indeksointi, ääni, ssh jne.) kaikki eri säikeissä. Näin vastausta kirjoittaessa kuorma on kohtalaisen pieni, joten mitään ihmeellistä ei tehtävänhallinnassa näy, mutta pistänpä vaikka 10 gigaa dataa 7zip-pakettiin tai rippaan cd-levyn koneelle tai renderöin lyhytanimaation tai tällaisia, niin kuorma kuluttaa useampaa ydintä. Tai jos käännän vaikka uuden kernelin, niin näen ihan kellosta, että sekuntimäärä ja säiemäärä ovat aika selkeästi kytköksissä. Affiniteettia voi säätää ihan testimielessäkin.
Säikeistä on hyötyä vain silloin, kun niitä pystytään ajamaan yhtäaikaa.. Läheskään aina näin ei ole.

Ei sitä corejen määrään riittävyyttä kannata katsoa sillä, minkäverran on säikeitä vaan sillä, minkäverran on CPU kuorma taskmanagerissa tai vastaavassa sovelluksessa. Jos huutaa 100% , niin silloin prossu on käytössä. Jos taas on esim 60%, niin silloin prossu kykenisi vielä enempään, mutta muu kone on jarruna..
 
Säikeistä on hyötyä vain silloin, kun niitä pystytään ajamaan yhtäaikaa.. Läheskään aina näin ei ole.

Ei sitä corejen määrään riittävyyttä kannata katsoa sillä, minkäverran on säikeitä vaan sillä, minkäverran on CPU kuorma taskmanagerissa tai vastaavassa sovelluksessa. Jos huutaa 100% , niin silloin prossu on käytössä. Jos taas on esim 60%, niin silloin prossu kykenisi vielä enempään, mutta muu kone on jarruna..
Tällaisessa tilanteessa kun kone lähes idlaa, niin tuo on aika karkea jako. Voisin käynnistää koneen seuraavalla kerralla cpu-rajoituksen kanssa ja kokeilla, miltä subjektiivisesti tuntuu, kun rajaa vaikka 1/32 osaan core-määrän, vaikuttaako ihan peruskäyttöön. Koitin tuohon ylle jo kirjoittaa, että niitä ytimiä ei ole järkevää tietenkään käyttää väkisin, jos laskentaongelma ei ole raskas.

Aatellaan nyt, että mulla on vaikka taustaprosesseina tässä nginx, transmission (torrentit), syncthing ja tvheadend. Niin kuin nyt on. En nyt oikein ymmärrä, miksi tuosta tarvii vääntää yhtään mitään. On ihan selkeä juttu, että nuo kannattaa ajaa eri ytimillä kuin se käyttöliittymä, jota aktiivisesti käytän. Kun ne palvelevat ihan eri käyttäjiä. Tässä toki menee monimutkaiseksi huomioida turbo-kellotaajudet ja kaikki, mutta noin lähtökohtaisesti jos tehtävät eivät liity toisiinsa mitenkään niin tuollainen kuormanjako on aika triviaali juttu. Se on ihan eri juttu, huutaako kone 100% utilisaatiolla koko ajan vai onko lisäytimistä mitattavissa olevaa hyötyä. Skedulerit on kyllä niin hyviä nykyään piilottamaan lagit, että jos oikeasti asia kiinnostaa, niin mittaamistahan nuo tarvitsevat.
 
Taitaa vähän mennä puurot ja vellit sekaisin. Rinnakkaislaskenta ja säikeistäminen eivät ole yksi ja sama asia. Mutta nyt meni jo off topiciksi tämä ketju.
 

Statistiikka

Viestiketjuista
304 568
Viestejä
5 158 023
Jäsenet
82 532
Uusin jäsen
Sopiva

Hinta.fi

Back
Ylös Bottom