Testissä AMD Ryzen 5 3600 & 3600X

  • Keskustelun aloittaja Keskustelun aloittaja Sampsa
  • Aloitettu Aloitettu
Hyvin potkii Ryzen.

Mutta eihän tuo i5-9400F mikään huono ole sekään pelikäyttöön, yhtä nopea kuin R5 3600 mutta maksaa 27% vähemmän, ts. 3600 on 38% kalliimpi mutta pelikäytössä saman tehoinen. Pelikäytössä tuolla 60€ hintaerolla saa jo paremman näytönohjaimen, kun puhutaan noin 700€ paketeista joka on aika yleinen hintahaarukka.

Kiitos artikkelista.


60€ hintaero? 9400f maksaa halvimmillaan 163,7€ toimitettuna kun powerilta sai 199€, njuu 36€ hintaero mutta HT/SMT tuki puuttuu. Lisäksi vanhoilla ryyzenin omistajilla upgrade tulee huomattavasti halvemmaksi kun ei tarvii ostaa lankkua, tällöin ryzen 3600 + emo on halvempi kuin 9400f + emo. Jos taas lähtee puhtaalta pöydältä liikkeelle niin silloin voisi ehkä 9400f olla perusteltavissa, mutta kuinka futureproof se olisi?
 
60€ hintaero? 9400f maksaa halvimmillaan 163,7€ toimitettuna kun powerilta sai 199€, njuu 36€ hintaero mutta HT/SMT tuki puuttuu. Lisäksi vanhoilla ryyzenin omistajilla upgrade tulee huomattavasti halvemmaksi kun ei tarvii ostaa lankkua, tällöin ryzen 3600 + emo on halvempi kuin 9400f + emo. Jos taas lähtee puhtaalta pöydältä liikkeelle niin silloin voisi ehkä 9400f olla perusteltavissa, mutta kuinka futureproof se olisi?
Sai? Hinta.fi katsoin hinnat, en jaksanut käydä kaikkia verkkokauppoja läpi. Joka tapauksessa, budjetista riippuen molemmat hyviä peliprossuja, kalliimmalla saa kenties vähän pitkäikäisemmän koneen, ehkä, n. 700€ budjetilla todennäköisesti tehokkaamman saa 9400F:llä.
 
Sai? Hinta.fi katsoin hinnat, en jaksanut käydä kaikkia verkkokauppoja läpi. Joka tapauksessa, budjetista riippuen molemmat hyviä peliprossuja, kalliimmalla saa kenties vähän pitkäikäisemmän koneen, ehkä, n. 700€ budjetilla todennäköisesti tehokkaamman saa 9400F:llä.

Jep 4-5 ekaa myyntipäivää sai 199€ hintaan. Kaikki puljuthan myy sitä nyt ylihintaan kun kerra 199$ oli msrp
 
Sai? Hinta.fi katsoin hinnat, en jaksanut käydä kaikkia verkkokauppoja läpi. Joka tapauksessa, budjetista riippuen molemmat hyviä peliprossuja, kalliimmalla saa kenties vähän pitkäikäisemmän koneen, ehkä, n. 700€ budjetilla todennäköisesti tehokkaamman saa 9400F:llä.
Itse en kyllä tässä tilanteessa hommaisi Inteliä oikeastaan missään tapauksessa. Ok, 9400f on muutaman kympin halvempi kuin 3600, mutta jos lasketaan siihen emolevy mukaan, niin 3600 ostaja voi hyvin mielin hommata erittäin pätevän b350 / x370 -lankun siihen kylkeen hyvään hintaan hyvillä ominaisuuksilla, kun taas Intelin piirisarjapelleilyn vuoksi saman hintaluokan emolevyt sinisen leirin puolella on huomattavasti köyhempiä ominaisuuksiltaan. Eli ellei välttämättä halua pysyä merkkiuskollisena jostakin ihmeellisestä syystä tai budjetti on tosiaan äärimmäisen tiukka, niin muuten tässä asetelmassa on kyllä todella vähän mitään valtteja sinisellä puolella. Etenkin jos AMD julkaisee vielä 3500(x) prossut, niin silloin ei oikeastaan liene enää edes äärimmäisen tiukkaa budjetti mitenkään perusteluna. Ja kun otetaan huomioon ryzenien suuremman "futureproofin" ja monikäyttöisyyden isomman threadimäärän vuoksi, niin eiköhän tämän hetken kilpailutilanne ole aika lailla selvä.
 
Itse en kyllä tässä tilanteessa hommaisi Inteliä oikeastaan missään tapauksessa. Ok, 9400f on muutaman kympin halvempi kuin 3600, mutta jos lasketaan siihen emolevy mukaan, niin 3600 ostaja voi hyvin mielin hommata erittäin pätevän b350 / x370 -lankun siihen kylkeen hyvään hintaan hyvillä ominaisuuksilla, kun taas Intelin piirisarjapelleilyn vuoksi saman hintaluokan emolevyt sinisen leirin puolella on huomattavasti köyhempiä ominaisuuksiltaan. Eli ellei välttämättä halua pysyä merkkiuskollisena jostakin ihmeellisestä syystä tai budjetti on tosiaan äärimmäisen tiukka, niin muuten tässä asetelmassa on kyllä todella vähän mitään valtteja sinisellä puolella. Etenkin jos AMD julkaisee vielä 3500(x) prossut, niin silloin ei oikeastaan liene enää edes äärimmäisen tiukkaa budjetti mitenkään perusteluna. Ja kun otetaan huomioon ryzenien suuremman "futureproofin" ja monikäyttöisyyden isomman threadimäärän vuoksi, niin eiköhän tämän hetken kilpailutilanne ole aika lailla selvä.
Ei sinun tarvitsekaan, puntaroin vain mikä on pelisuorituskyvyn kannalta järkevintä.:tup:
 
Ihan turhaan sieltä tulee noita halpiksia, ennenkuin saavat ne halvemmat emolevyt ulos. X570 on aivan liian kallis tuollaiselle, jopa 3600:lle, ja muut vaativat BIOS-päivityksen.

Jep jos puhtaasti budjetti konetta rakentelee X570 emot on liian kalliita itse päädyin X570 emolevyyn lähinnä sen takia, että yleensä päivitän konetta 2-3 vuoden käytön jälkeen sen takia yleensä hommaan hyvän powerin ja emolevyn, jotta koneessa on päivitysvaraa paremmin muutaman vuoden jälkeen noita komponentteja harvemmin vaihtelen muuta kuin siinä vaiheessa kun laittaa koko koneen uusiksi.
 
@Sampsa CB R20 sc tulokset 2600x:lle on muuten epätavallisen alhaiset, eli pitäisi mennä aika pitkälti samaan kuin 2700x, ihan kuten R15:sta. Pisti silmään.

Niitä heikommalla näyttiksellä tehtyjä testejä odotellessa. Ehdotan 1660 Ti ja rx5700, ehkä rx590.
 
Nyt kun luin testin läpi ihan ajatuksen kanssa, niin pisti silmään yksi todella outo asia.
"7 nanometrin valmistusprosessin ansiosta kokoonpanon tehonkulutus laski noin 20-30 wattia, mutta lämpötilat nousivat vajaa 10 astetta."
@Sampsa voiko tuo pitää paikkaansa? Kaiken järjen mukaan enempi teho lämmittää enemmän ja jos muita muuttujia ei ole, niin samalla kulutuksella pitäisi olla pienemmät lämmöt. Eihän se energia oikein muuksi siellä muutu kuin lämmöksi.
 
Nyt kun luin testin läpi ihan ajatuksen kanssa, niin pisti silmään yksi todella outo asia.
"7 nanometrin valmistusprosessin ansiosta kokoonpanon tehonkulutus laski noin 20-30 wattia, mutta lämpötilat nousivat vajaa 10 astetta."
@Sampsa voiko tuo pitää paikkaansa? Kaiken järjen mukaan enempi teho lämmittää enemmän ja jos muita muuttujia ei ole, niin samalla kulutuksella pitäisi olla pienemmät lämmöt. Eihän se energia oikein muuksi siellä muutu kuin lämmöksi.
Ämpärillisessä kädenlämpöistä vettä on enemmän lämpöenergiaa kuin kahvikupillisessa kiehuvaa.
 
Miksi näyttistestejä 1080p? Toki 'alhaisella resolla' sai ennen puristettua bencheistä prossupainotteisempia, mutta joku tämmöinen 2080 Ti / 1080p näyttää puhtaasti Intelin maksamalta kikkelinvenytysmainokselta.
 
Miksi näyttistestejä 1080p? Toki 'alhaisella resolla' sai ennen puristettua bencheistä prossupainotteisempia, mutta joku tämmöinen 2080 Ti / 1080p näyttää puhtaasti Intelin maksamalta kikkelinvenytysmainokselta.

Luen itse mielellään 1080p testin koska:

1080p 144 Hz vaatii näyttikseltä 35 % enemmän voimaa kuin 1440p 60 Hz,
144 Hz vaatii yli tuplasti cpu-voimaa 60 hertsiin verrattuna,
60 Hz ei ole enää sitä mitä itse toivon.

Kiinnostaa saada vastauksia yksityiskohtiin menemällä äärirajoille per testin skenaario.
Kaikki skenaariot ei kiinnosta kaikkia. Testaaja selittää, miten tuloksia voi tulkita.
 
Miksi näyttistestejä 1080p? Toki 'alhaisella resolla' sai ennen puristettua bencheistä prossupainotteisempia, mutta joku tämmöinen 2080 Ti / 1080p näyttää puhtaasti Intelin maksamalta kikkelinvenytysmainokselta.
Siksi koska prosessoritestissä testataan resoluutiolla jossa prosessori on mahdollisesti pullonkaulana
 
Siksi koska prosessoritestissä testataan resoluutiolla jossa prosessori on mahdollisesti pullonkaulana

Antaa vaan puhtaasti väärän kuvan prossun painoarvosta loppupeleissä, kun siirrytään niille resoluutoille, joissa tämän tasoista rautaa käytetään.

relative-performance-games-1920-1080.png
relative-performance-games-2560-1440.png
 
Antaa vaan puhtaasti väärän kuvan prossun painoarvosta loppupeleissä, kun siirrytään niille resoluutoille, joissa tämän tasoista rautaa käytetään.
Kyllähän sen prosessorin painoarvo kasvaa siinä vaiheessa kun käyttäjä päivittää näytönohjaimen tehokkaampaan. Vaikka tältä foorumilta löytyy ihmisiä, jotka päivittävät prosessoria vuoden välein, niin väittäisin, että yleisempi tapa päivittää pelikonetta on vaihtaa näytönohjain parempaan. Sitten se näytönohjain ei ole enää pullonkaula. Tosin tämä keskustelu on käyty aika monessa ketjussa viime vuosina, ja käydään varmaan jatkossakin.
 
Antaa vaan puhtaasti väärän kuvan prossun painoarvosta loppupeleissä, kun siirrytään niille resoluutoille, joissa tämän tasoista rautaa käytetään.

relative-performance-games-1920-1080.png
relative-performance-games-2560-1440.png
Asiaa on käsitelty io-techin toisessa artikkelissa ja selitetty, miksi prosessoriartikkeleissa käytetään 1080p resoluutiota.
io-techin prosessoritesteissä on aina mukana 3D-pelitestit ja mukaan on pyritty valitsemaan sellaisia pelejä, joissa on nähtävissä prosessorin vaikutus suorituskykyyn mahdollisimman hyvin, eikä näytönohjain olisi pullonkaulana. Korkeammilla 1440p- ja 4k-näyttöresoluutioilla prosessorin merkitys vähenee huomattavasti ja suorituskyvystä tulee entistä enemmän tai lähes täysin näytönohjainriippuvainen.

Yleensä tuotejulkaisuihin liittyvien kiireellisten aikataulujen ja itsestään selvänä pidettyjen asioiden johdosta emme ole esittäneet artikkeleissa tuloksia Full HD -resoluutiota korkeammilla tarkkuuksilla ja sellaisilla peleillä, jotka eivät juurikaan hyödy prosessorin suorituskyvystä, kunhan se on riittävän hyvä. Tämän seurauksena artikkeleidemme pelitestien tuloksia tutkimalla lukijalle on saattanut jäädä virheellinen mielikuva prosessoreiden todellisesta pelisuorituskyvystä sillä esillä on ollut ainoastaan sellaista ääripäätä edustavat tulokset, joissa prosessorin merkitys pelin suorituskykyyn on ollut varsin suuri.

Jossain ulkomaalaisilla sivustoilla käytetään vieläkin alhaisempaa, kuten 1280×720-resoluutiota, jotta näytönohjaimen merkitys suorituskykyyn saataisiin eliminoitua kokonaan. Pyrimme io-techin testeissä kuitenkin ensisijaisesti todellisiin käyttöskenaarioihin, joten olemme tästä syystä käyttäneet alhaisimmillaan Full HD -resoluutiota.
Ryzen 3700X ja 3900X artikkelista löytyy myös testit korkeammilla resoluutioilla.
 
"7 nanometrin valmistusprosessi" on muuttuja. Pienemmältä alueelta on vaikeampi johtaa lämpö pois.
Ämpärillisessä kädenlämpöistä vettä on enemmän lämpöenergiaa kuin kahvikupillisessa kiehuvaa.
Näytätte varmaan edellisen stepin kun nm on pienentynyt mutta lämmöntuotto on kasvanut vaikka kulutus vähentynyt. Aika kauan olen seurannut tätä kehitystä ja on tultu mun muistihistorian aikana 600nm -> 7nm ja ei tule mieleen vastaavaa muutosta, mutta mitäs pienistä kun ämpäri kahvikuppi vertaus.
 
Näytätte varmaan edellisen stepin kun nm on pienentynyt mutta lämmöntuotto on kasvanut vaikka kulutus vähentynyt. Aika kauan olen seurannut tätä kehitystä ja on tultu mun muistihistorian aikana 600nm -> 7nm ja ei tule mieleen vastaavaa muutosta, mutta mitäs pienistä kun ämpäri kahvikuppi vertaus.
Vitsailetko? Eihän se lämmöntuotto mihinkään kasva vaan pinta-alan pienenemisen takia se ei johdu yhtä helposti enää pois...
 
Vitsailetko? Eihän se lämmöntuotto mihinkään kasva vaan pinta-alan pienenemisen takia se ei johdu yhtä helposti enää pois...
Missä minä vitsailen? Onko nyt näyttää aiempi steppi pienempään missä näin on käynyt? Kyllä noikin saa jäähtymään vaikka miinukselle, vaikka ei kuinka muka johdu pois. Mutta milloin aiemmin steppi pienempään on laskenut kulutusta, mutta lisännyt lämpöä? Yksinkertainen kysymys, löytyykö siihen nyt yksinkertainen vastaus? Onko aiempaa vastaavaa steppiä vai ei ole?
 
Näytätte varmaan edellisen stepin kun nm on pienentynyt mutta lämmöntuotto on kasvanut vaikka kulutus vähentynyt. Aika kauan olen seurannut tätä kehitystä ja on tultu mun muistihistorian aikana 600nm -> 7nm ja ei tule mieleen vastaavaa muutosta, mutta mitäs pienistä kun ämpäri kahvikuppi vertaus.
Lämmöntuotto on pienentynyt mutta pinta-ala on suhteessa kutistunut enemmän joten watit per pinta-ala on kasvanut mikä johtaa core lämpötilojen nousuun. Voit ajatella sitä lämpötiheytenä. Vesiastia vertauksen pointti oli että lämpötila ei ole suoraan lämmön määrän mittari, sitä ei voi päätellä pelkästä lämpötilasta. Lisäksi chiplet rakenteessa teho-osat(ytimet+cache) piiristä on erillään omalla kompaktilla lastulla kun monoliittisessa piirissä extra piipinta-alaa (I/O jne) helpottamassa lämmönjohtumista IHS:ään. Hyvä jäähykontakti onkin tärkeää näillä uusilla rusinoilla.
 
Missä minä vitsailen? Onko nyt näyttää aiempi steppi pienempään missä näin on käynyt? Kyllä noikin saa jäähtymään vaikka miinukselle, vaikka ei kuinka muka johdu pois. Mutta milloin aiemmin steppi pienempään on laskenut kulutusta, mutta lisännyt lämpöä? Yksinkertainen kysymys, löytyykö siihen nyt yksinkertainen vastaus? Onko aiempaa vastaavaa steppiä vai ei ole?
Se vastaus tuli jo aiemmin. Suosittelen alkuun vaikka lukion fysiikkaa, jos kiinnostaa.
 
Lämmöntuotto on pienentynyt mutta pinta-ala on suhteessa kutistunut enemmän joten watit per pinta-ala on kasvanut mikä johtaa core lämpötilojen nousuun. Voit ajatella sitä lämpötiheytenä. Vesiastia vertauksen pointti oli että lämpötila ei ole suoraan lämmön määrän mittari, sitä ei voi päätellä pelkästä lämpötilasta. Lisäksi chiplet rakenteessa teho-osat(ytimet+cache) piiristä on erillään omalla kompaktilla lastulla kun monoliittisessa piirissä extra piipinta-alaa (I/O jne) helpottamassa lämmönjohtumista IHS:ään. Hyvä jäähykontakti onkin tärkeää näillä uusilla rusinoilla.
Minä edelleeenkin tiedän mistä se lämmöntuotto johtuu. Ihan on ne fysiikankurssit käyty. Suosittelen nyt ihan ajatuksella lukemaan ne minun kirjoittamat jutut ja sitten pyrkimään vastaamaan uudestaan siihen asiaan mitä tiedustelin. Onko koskaan aiemmin käynyt samaa, eli pienempi steppi on lisännyt lämpöjä? Yksinkertainen kysymys.

Jos aiemmin pienentäminen ja sen ansiosta pienetynyt kulutus (tarvittu vähemmän sähköä = vähemmän lämpöä) ja on riittänyt johtumaan pois, niin onko antaa vastaavaa esimerkkiä, eikä vain horista vesiämpäristä ja kahvikupeista tai yrittää selittää fysiikkaa kun sitä ei tässä nyt missään vaiheessa ole oltu kumoamassa. Kyse on puhtaasti siitä, että onko tämä ensimmäinen kerta kun moiseen on törmätty, koska sillä on todella radikaaleja merkityksiä tulevaisuuden kannalta. Minä en muista, että aiemmin olisi käynyt. Muistaako joku muu?
 
Minä edelleeenkin tiedän mistä se lämmöntuotto johtuu. Ihan on ne fysiikankurssit käyty. Suosittelen nyt ihan ajatuksella lukemaan ne minun kirjoittamat jutut ja sitten pyrkimään vastaamaan uudestaan siihen asiaan mitä tiedustelin. Onko koskaan aiemmin käynyt samaa, eli pinempi steppi on lisännyt lämpöjä? Yksinkertainen kysymys.

Jos aiemmin pienentäminen ja sen ansiosta pienetynyt kulutus (tarvittu vähemmän sähköä = vähemmän lämpöä) ja on riittänyt johtumaan pois, niin onko antaa vastaavaa esimerkkiä, eikä vain horista vesiämpäristä ja kahvikupeista tai yrittää selittää fysiikkaa kun sitä ei tässä nyt missään vaiheessa ole oltu kumoamassa. Kyse on puhtaasti siitä, että onko tämä ensimmäinen kerta kun moiseen on törmätty, koska sillä on todella radikaaleja merkityksiä tulevaisuuden kannalta. Minä en muista, että aiemmin olisi käynyt. Muistaako joku muu?
Nyt kun luin testin läpi ihan ajatuksen kanssa, niin pisti silmään yksi todella outo asia.
"7 nanometrin valmistusprosessin ansiosta kokoonpanon tehonkulutus laski noin 20-30 wattia, mutta lämpötilat nousivat vajaa 10 astetta."
@Sampsa voiko tuo pitää paikkaansa? Kaiken järjen mukaan enempi teho lämmittää enemmän ja jos muita muuttujia ei ole, niin samalla kulutuksella pitäisi olla pienemmät lämmöt. Eihän se energia oikein muuksi siellä muutu kuin lämmöksi.
Tuohonhan väki juuri vastasi. Sitten keksit jostain heittää mukaan tuon yhden stepin välin.
 
Vaihdoin alkuvuodesta 970:n 1070:een ja tämä on selvästi hankalampi jäähdyttää. Kummassakin kiinni täysin sama jälkiasenteinen jäähy samalla tanhalla, paljaalla piirillä ja useammalla asennuskerralla kontaktin varmistamiseksi. Eikä pitäisi olla kiinni tehonkulutuksestakaan kun on mittailtu ohjelmallisesti ja mittarilla.

1070 16nm/314mm2 (0,478W/mm2)
970 28nm/398mm2 (0,378W/mm2)

Vastaavasti sitten RTX-korteissa on järkyttävän kokoinen 445mm2 läpyskä ja vaikuttavat jäähtyvän edeltäjiänsä helpommin?
 
Viimeksi muokattu:
Tuohonhan väki juuri vastasi. Sitten keksit jostain heittää mukaan tuon yhden stepin välin.
Niin minä kysyin testin tekijältä, että pitääkö noi huomiot paikkaansa. Huomaatko siinä tekstissä oikein tägätty kyseistä herraa.

Tätä täysin samaa asiaa on spekuloitu muuallakin, että yksi syy miksi Intel ei siirry pienempään johtuu siitä, että 10nm nousee lämmöt liikaa. Kyseessä on todella radikaali asia, koska tähä asti on aina pienentäminen toiminut. Jos 7nm tulee seinä tuolla tavalla vastaan, niin mitäs sitten siitä alas? Ymmärrätkö?
 
Niin minä kysyin testin tekijältä, että pitääkö noi huomiot paikkaansa. Huomaatko siinä tekstissä oikein tägätty kyseistä herraa.

Tätä täysin samaa asiaa on spekuloitu muuallakin, että yksi syy miksi Intel ei siirry pienempään johtuu siitä, että 10nm nousee lämmöt liikaa. Kyseessä on todella radikaali asia, koska tähä asti on aina pienentäminen toiminut. Jos 7nm tulee seinä tuolla tavalla vastaan, niin mitäs sitten siitä alas? Ymmärrätkö?
Tällä liikkeelle lähteminen olisi voinut olla fiksumpaa kuin se alkuperäinen kysymys mihin jo vastattiinkin.
 
Tällä liikkeelle lähteminen olisi voinut olla fiksumpaa kuin se alkuperäinen kysymys mihin jo vastattiinkin.
Ei vastattu, kun se oli esitetty Sampsalle ja hän ei ole siihen vastannut. Kyse oli vain siitä, että luvut varmasti pitää paikkaansa. Lopussa oli vain selitys siitä, että lämpö johtuu tehosta, kun ei se muallekaan katoa, joten ensin pitää ottaa huomioon virheen mahdollisuus. Sitten vasta alkaa spekuloimaan sillä, että onko oikeasti tilanne se miltä se vaikuttaa.

Onneksi täällä on oman elämänsä tietäjiä, jotka tietää Sampsan puolesta ja voi vetää radikaaleja johtopäätöksiä koko mikropiirien tulevaisuuden puolesta.
 
Minä edelleeenkin tiedän mistä se lämmöntuotto johtuu. Ihan on ne fysiikankurssit käyty. Suosittelen nyt ihan ajatuksella lukemaan ne minun kirjoittamat jutut ja sitten pyrkimään vastaamaan uudestaan siihen asiaan mitä tiedustelin. Onko koskaan aiemmin käynyt samaa, eli pienempi steppi on lisännyt lämpöjä? Yksinkertainen kysymys.

Jos aiemmin pienentäminen ja sen ansiosta pienetynyt kulutus (tarvittu vähemmän sähköä = vähemmän lämpöä) ja on riittänyt johtumaan pois, niin onko antaa vastaavaa esimerkkiä, eikä vain horista vesiämpäristä ja kahvikupeista tai yrittää selittää fysiikkaa kun sitä ei tässä nyt missään vaiheessa ole oltu kumoamassa. Kyse on puhtaasti siitä, että onko tämä ensimmäinen kerta kun moiseen on törmätty, koska sillä on todella radikaaleja merkityksiä tulevaisuuden kannalta. Minä en muista, että aiemmin olisi käynyt. Muistaako joku muu?
Muistaakseni ainakin Intelin Hashwellin kohdalla oli samaa puhetta, että lämmöt nousi Ivy Bridgeen nähden aika paljon. Toki siinä oli merkitystä myös sillä hammastahnalla, jota Intel silloin käytti sielllä välissä, mutta muistaakseni Refresh ei korjannut asiaa kuin marginaalisesti.

Tuo pienempi viivanleveys ja pienempi tehonkulutus eivät korreloi suoraan lämpötilojen kanssa. Ensinnäkin tuo piirin pinta-ala oli jo mainittu, eli pienempää ja monikerroksista sirua on vaikeampi jäähdyttää tehokkaasti, ja tottakai jos lämpö ei johdu pois tarpeeksi hyvin, niin lämpötilat nousee.

Toinen asia jota ei vielä fysiikasta mainittu ja joka siihen vaikuttaa, on fysiikan käsite virrahtiheys, joka määritellään J = I/A eli virta jaettuna pinta-alalla. Tästä seuraa se, että kun johtimet pienenee siruissa, niin virrantiheys kasvaa nopeasti, esim 14nm -> 7nm on n. 4-kertainen virrantiheys (jos muut parametrit pysyy samana). Ja kun eli johtimen pinta-ala pienenee, niin samalla kasvaa vastuksen resistanssi, ja näin ollen myös lämmöntuotto. Samalla myös suurentunut virrantiheys lisää lämmöntuottoa omalta osaltaan. Ja kun lämmön _määrä_ pakataan pienempään tilaan (eli tuo kahvikuppi vs vesisanko -analogia joka esitettiin yllä), niin absoluuttinen lämpötila kasvaa. Pienempi siru kun tarvitsee vähemmän lämpöenergiaa ollakeen kuuma kuin isompi siru. Lisäksi kun tähän otetaan vielä huomioon se, että Ohmin lain määräämä resistanssi kasvaa pyöreästi lämpötilan neliöön nähden, niin siitä syystä pienemmät piirit ovat paljon herkempiä kiehumaan pienemmistä vaihteluista kuin isommat piirit. Tai tarkemmin ottaen, pienemmillä piireillä se käyrä jolla lämmöt nousee optimipisteen jälkeen on paljon jyrkempi kuin mitä isommilla piireillä.
 
Muistaakseni ainakin Intelin Hashwellin kohdalla oli samaa puhetta, että lämmöt nousi Ivy Bridgeen nähden aika paljon. Toki siinä oli merkitystä myös sillä hammastahnalla, jota Intel silloin käytti sielllä välissä, mutta muistaakseni Refresh ei korjannut asiaa kuin marginaalisesti.

Tuo pienempi viivanleveys ja pienempi tehonkulutus eivät korreloi suoraan lämpötilojen kanssa. Ensinnäkin tuo piirin pinta-ala oli jo mainittu, eli pienempää ja monikerroksista sirua on vaikeampi jäähdyttää tehokkaasti, ja tottakai jos lämpö ei johdu pois tarpeeksi hyvin, niin lämpötilat nousee.

Toinen asia jota ei vielä fysiikasta mainittu ja joka siihen vaikuttaa, on fysiikan käsite virrahtiheys, joka määritellään J = I/A eli virta jaettuna pinta-alalla. Tästä seuraa se, että kun johtimet pienenee siruissa, niin virrantiheys kasvaa nopeasti, esim 14nm -> 7nm on n. 4-kertainen virrantiheys (jos muut parametrit pysyy samana). Ja kun eli johtimen pinta-ala pienenee, niin samalla kasvaa vastuksen resistanssi, ja näin ollen myös lämmöntuotto. Samalla myös suurentunut virrantiheys lisää lämmöntuottoa omalta osaltaan. Ja kun lämmön _määrä_ pakataan pienempään tilaan (eli tuo kahvikuppi vs vesisanko -analogia joka esitettiin yllä), niin absoluuttinen lämpötila kasvaa. Pienempi siru kun tarvitsee vähemmän lämpöenergiaa ollakeen kuuma kuin isompi siru. Lisäksi kun tähän otetaan vielä huomioon se, että Ohmin lain määräämä resistanssi kasvaa pyöreästi lämpötilan neliöön nähden, niin siitä syystä pienemmät piirit ovat paljon herkempiä kiehumaan pienemmistä vaihteluista kuin isommat piirit. Tai tarkemmin ottaen, pienemmillä piireillä se käyrä jolla lämmöt nousee optimipisteen jälkeen on paljon jyrkempi kuin mitä isommilla piireillä.
Tiedän, olen itsekkin maininnut mm. AMD:n uusien näyttisten ketjussa 7nm osalta tuon sisäisen resistanssin. Tässä nyt vain on toinen esimerkki siitä, että seinä on oikeasti vastassa, jos siis noi luvut pitää paikkaansa. Kävin katsomassa noita vanhoja arvosteluja Intelin eri nm prossuista muropaketista ja aika +-0 näytti niissä olevan, eli ei tuollaista selvää piikkiä. Mutta tämä selittäisi paljon Intelin nykyisistä ongelmista 10nm suhteen, eli eivät saa kulkemaan samoilla kelloilla ilman että lämmöt nousee liikaa, tässä on tulevaisuuden suhteen melkoinen vuori kiivettäväksi jos tämä on nyt se todellisuus missä eletään.
 
Tiedän, olen itsekkin maininnut mm. AMD:n uusien näyttisten ketjussa 7nm osalta tuon sisäisen resistanssin. Tässä nyt vain on toinen esimerkki siitä, että seinä on oikeasti vastassa, jos siis noi luvut pitää paikkaansa. Kävin katsomassa noita vanhoja arvosteluja Intelin eri nm prossuista muropaketista ja aika +-0 näytti niissä olevan, eli ei tuollaista selvää piikkiä. Mutta tämä selittäisi paljon Intelin nykyisistä ongelmista 10nm suhteen, eli eivät saa kulkemaan samoilla kelloilla ilman että lämmöt nousee liikaa, tässä on tulevaisuuden suhteen melkoinen vuori kiivettäväksi jos tämä on nyt se todellisuus missä eletään.
No, muistaakseni jossakin on mainittu, että jos piillä meinataan puolijohdekomponentteja tehdä, niin ihan fysikaalinen raja tulee vastaan about muutaman nanometrin paikkeilla, jolloinka viivanleveyttä ei enää oikeastaan voida pienentää. Ehkä tulemme muutaman vuoden päästä näkemään vielä tyyliin 4-6nm prosessin, mutta tuskin sen enempää, ainakaan piillä. Toki nyt on tullut vasta ensimmäiset iteraatiot 7nm prosessista, kyseinen prosessi tulee tod näk parantumaan ja arkkitehtuurit kehittymään, joten vielä ei ole seinä vastassa, mutta ei toki enää monen vuoden päässä.

Intelin isoimpia ongelmia on ollut juurikin lämpötila-ongelmat ja sitten toisaalta piirien saannot. Intel kun on so far harrastanut prossujensa valmistamista yhdestä sirusta, joka on toiminut hyvin hyvin 4-ytimen aikakaudella, ja on ollut ilmeisesti skaalattavissa 14nm prosessilla hyvin aina 8 ytimeen asti (näin peruskuluttajapuolella). Sitä isompiin määriin kun mennään, alkaa saantoprosentti jo tippumaan radikaalisti, kun isompi osa siruista on virheellisiä ja joutaa roskiin. Ja tämä selittää Intelin so far melko isot hinnat tehoprosessoreissa. Lisäksi kun otetaan huomioon se, että jos Intel lanseeraisi nyt uuden työpöytäprosessorin 10nm prosessilla, kysyntä olisi tod näk suunnaton. Joten huonon saannon vuoksi hinta olisi korkea tai vaihtoehtoisesti voitto% pieni ja tuotantotahti ei lähellekään riittävä kattamaan kysyntää.

AMD on sitten taas huomannut sen, että tulevaisuus on prosessoreissa, joissa on monta eri sirua ja jotka on kytketty sopivasti yhteen, jolloinka saanto on parempi (kun ei tarvitse kasvattaa niin isoja piirejä), ja samalla ydinmäärä on skaalattavissa aivan eri malliin. Tämä tekee heille prosessorien valmistuksesta halvempaa ja varmempaa, kun palapeli voidaan kasata yksittäisistä osista jolloinka yksittäinen virheellinen osa voidaan korvata uudella ehjällä. Tätä toimintamallia Intel ei ole vielä omaksunut itselleen, ja ilmeisesti ongelmat alkoivat 10nm kohdalla heidän prosesseissaan ja tuotantotyylissään. Ja ilmeisesti ongelmat ei tosiaan ole olleet ihan vähäiset...
 
Ehkä tulemme muutaman vuoden päästä näkemään vielä tyyliin 4-6nm prosessin
Eiköhän päästä vaikka 1nm markkinointiprosesseihin asti piillä jos korvaavaa ainetta ei sitä ennen löydy, todellinen koko sitten erikseen.
 
Eiköhän päästä vaikka 1nm markkinointiprosesseihin asti piillä jos korvaavaa ainetta ei sitä ennen löydy, todellinen koko sitten erikseen.
Piiatomin koko (tai tarkemmin Van der Waalsin säde joka on tässä tapauksessa se olennainen mitta) on n. 200pm, eli 0.2nm. Kun viivanleveydet pienenee tarpeeksi, niin kvanttitunnelointi-ilmiö alkaa vaikuttaa merkittävissä määrin piirin käyttäytymiseen, ja sitä myöden tuo haasteita vahvasti ihan fysiikan pohjalta. On sanottu, että 5nm on raja, jonka jälkeen tämä ilmiö alkaa olla niin voimakas, että sen huoimoon ottaminen ja kompensointi alkaa olla erittäin merkittävä tekijä. Tällä hetkellä (tarkistin tuossa hetki sitten) Samsungilla ja TSCM:llä on kummallakin 5nm prosessi kehitteillä, ja roadmappi 3 namometriin asti, sen jälkeen pienemmät viivanleveydet ovat so far pelkästään ideatasolla, ei enempää. Mutta en usko, että ainakaan x86-arkkitehtuurin kohdalla tullaan pääsemään tuota 4-5nm prosessia pidemmälle, koska x86 on sen verran virtaa syövä arkkitehtuuri verraten esim ARM, että tuosta atomitason käyttäytymisestä tulee aidosti ongelma etenkin jos kellotaajuutta kasvatetaan. Toki esim muistiteknologiassa ja muussa vähemmän virtaa syövässä tekniikassa tuo pienempi valmistusprosessi tulee olemaan vielä validi juttu, mutta isovirtaisemmissa sovellutuksissa epäilen kyllä vahvasti. Ok, ei sitä tiedä jos vaikka joku insinööri keksii tavan venyttää fysiikkaa, mutta rajat se on luonnollakin. Tai ehkä joku keksii uuden materiaalin piin tilalle (esim hiiltä(grafiittia) on suunniteltu), jolloinka päästäisiin ainakin teoriassa vielä pienempiin mittoihin näin fysiikan osalta, mutta aika näyttää tuleeko näitä vastaan. Oma arvaukseni on, että seuraavaksi suunta alkaa mennä enemmän tuohon AMDn viitoittamaan suuntaan, jossa prosessoriinkin aletaan tunkemaan yhä enemmän ytimiä laskentavoiman kasvattamiseksi, ja sitten ensimmäinen isompi muutos tulee kun kehitetään aivan uudentyylisiä laskentatapoja ja sitä myöden prosessoriarkkitehtuureja (esim. 3d prosessoreja). Mutta sen näkee sitten minnekä kehitys vie mennessään.
 
Siis varmasti tullaan vielä näkemään nykyisestä paranneltuja versioita ja vielä pienempiäkin, mutta nyt aletaan olla aidosti aika lähellä sitä fysikaalista rajaa joka tulee väistämättä vastaan. Se, kuinka pitkälle sitä rajaa litografiainsinöörit osaa venyttää on tietty oma juttunsa, mutta saas nähdä. Oma arvaukseni on, että ainakin nyt muutamien vuosien sisällä tullaan näkemään (nimellisesti) tyyliin 7nm+, sitten 5nm(+) ja ehkä vielä 3nm(+). Mutta sen jälkeen alan epäilemään, että alkaa tulla muita keinoja käyttöön kuin viivanleveyden kutistaminen. Se mitä sen jälkeen tapahtuu jää nähtäväksi.
 
No kun noita prosessoreita ei ajeta siinä kulutus/kellotaajuus-sweetspotissa, vaan lievästi ylikellotettuna. Kellotettuna kulutus ja lämmöntuotto nousee eksponentiaalisesti. Luulisi tämän olevan tällä foorumilla ihan kaikille selvää.
 
Tuo pienempi viivanleveys ja pienempi tehonkulutus eivät korreloi suoraan lämpötilojen kanssa. Ensinnäkin tuo piirin pinta-ala oli jo mainittu, eli pienempää ja monikerroksista sirua on vaikeampi jäähdyttää tehokkaasti, ja tottakai jos lämpö ei johdu pois tarpeeksi hyvin, niin lämpötilat nousee.

Mulle outo aihe, mutta:

Tästä on juttua termillä "Dennard scaling" (transistorien virrankulutus ei pienene tarpeeksi paljon kun niitten koko vähenee).
Mooren laki (transistorien määrän kasvu) on ongelmissa tehtaitten kustannustason nousun kanssa.

Rahalla ehkä selviää Mooren laista mutta ei Dennard-seinästä.

Jos oikein käsitän niin yleisprosujen reitti kiertää ongelmaa on pitää ne osat prosuista virrattomina joita ei hetkellisesti tarvita.
Toinen reitti lisätä ytimien määrää silloin jos se on mahdollista. Paljonko koneen boottaaminen nopeutuu, kun laitetaan ytimiä lisää?

"Amdahlin laki" tai "Gustafsonin laki" kertoo ylärajaa sille, paljonko ytimien lisäämisestä voi enintään olla hyötyä.


 
Viimeksi muokattu:
Mulle outo aihe, mutta:

Tästä on juttua termillä "Dennard scaling" (transistorien virrankulutus ei pienene tarpeeksi paljon kun niitten koko vähenee).
Mooren laki (transistorien määrän kasvu) on ongelmissa tehtaitten kustannustason nousun kanssa.

Rahalla ehkä selviää Mooren laista mutta ei Dennard-seinästä.

Onhan tuo totta, että fysiikka alkaa tulla vastaan. Tuo Dennard-seinä vielä itsessään olisi ainakaan kovin iso ongelma jos piirin jäähdyttäminen olisi vielä triviaalia hommaa. Mutta koska jäähdytysteho skaalaa suoraan jäähdytettävän pinta-alan mukaan, niin samaan aikaan yritetään jäähdyttää yhä pienempää ja pienempää sirua ja transistoreita, niin jäähdytysteho kärsii. Kokemus on osoittanut, että tuo prosessoreiden kellotaajuuden käytännön yläraja tuntuu asettuvan tuonne reiluun 5Ghz näin "normaalijäähdytyksellä", ja veikkaan ettei siitä tulla pääsemään ylös enää uudemmillakaan prosesseilla. Intellilläkin kesti päästä sinne luotettavasti vasta 14++++ tekniikalla isommalla ydinmäärällä, ja asiat vain vaikeutuu tästä pienemmillä viivanleveyksillä. Ja kyllä se Moorenkin laki jossakin vaiheessa pysähtyy, vaikka näillä näkymin näyttääkin pääsevän vielä muutaman iteraation eteenpäin. Ei siinäkään rahalla päästä venyttämään fysiikkaa kuin tietyn verran.

Paljonko koneen boottaaminen nopeutuu, kun laitetaan ytimiä lisää?

"Amdahlin laki" tai "Gustafsonin laki" kertoo ylärajaa sille, paljonko ytimien lisäämisestä voi enintään olla hyötyä.

Tämä taas riippuu siitä, mitä lasketaan ja kuinka ohjelman suoritus on toteutettu ja suunniteltu. Jos mietitään vaikka GPU-puolta, niin siellä softa on toteutettu niin, että suurista ydinmääristä on lähinnä vain hyötyä. Toki CPU ja GPU on kaksi hyvin erilaista konseptia, mutta peruajatus ydinten määrässä on sama. Kyse on pitkälti (ei toki aivan täysin) vain siitä, mitenkä ja millä periaatteella koodataan.
 
No kun noita prosessoreita ei ajeta siinä kulutus/kellotaajuus-sweetspotissa, vaan lievästi ylikellotettuna. Kellotettuna kulutus ja lämmöntuotto nousee eksponentiaalisesti. Luulisi tämän olevan tällä foorumilla ihan kaikille selvää.
Mitä tarkoitat tuolla lievästi ylikellotettuna ajamisella? AMD:n uudet 3000 sarjalaiset kellottaa itse itseään aika lailla totaalisen lämpötilariippuvaisesti. Eli repii toki maksimin irti, mutta se maksimi on se minkä lämmöt antaa ottaa irti. AMD on joutunut turvautumaan tähän, kun noi uudet prosessorit ei yksinkertaisesti taivu riittäville kellotaajuksille ollakseen kilpailukykyisiä ilman tätä metodia. Ilmeisesti pitäisi siis ennemmin alikellottaa ja katsoa saako sillä paremman lopputuloksen, kuin normaalisti, mutta kyllä se syyllinen löytyy sieltä pellin alta siltikin.
Onhan tuo totta, että fysiikka alkaa tulla vastaan. Tuo Dennard-seinä vielä itsessään olisi ainakaan kovin iso ongelma jos piirin jäähdyttäminen olisi vielä triviaalia hommaa. Mutta koska jäähdytysteho skaalaa suoraan jäähdytettävän pinta-alan mukaan, niin samaan aikaan yritetään jäähdyttää yhä pienempää ja pienempää sirua ja transistoreita, niin jäähdytysteho kärsii. Kokemus on osoittanut, että tuo prosessoreiden kellotaajuuden käytännön yläraja tuntuu asettuvan tuonne reiluun 5Ghz näin "normaalijäähdytyksellä", ja veikkaan ettei siitä tulla pääsemään ylös enää uudemmillakaan prosesseilla. Intellilläkin kesti päästä sinne luotettavasti vasta 14++++ tekniikalla isommalla ydinmäärällä, ja asiat vain vaikeutuu tästä pienemmillä viivanleveyksillä. Ja kyllä se Moorenkin laki jossakin vaiheessa pysähtyy, vaikka näillä näkymin näyttääkin pääsevän vielä muutaman iteraation eteenpäin. Ei siinäkään rahalla päästä venyttämään fysiikkaa kuin tietyn verran.


Tämä taas riippuu siitä, mitä lasketaan ja kuinka ohjelman suoritus on toteutettu ja suunniteltu. Jos mietitään vaikka GPU-puolta, niin siellä softa on toteutettu niin, että suurista ydinmääristä on lähinnä vain hyötyä. Toki CPU ja GPU on kaksi hyvin erilaista konseptia, mutta peruajatus ydinten määrässä on sama. Kyse on pitkälti (ei toki aivan täysin) vain siitä, mitenkä ja millä periaatteella koodataan.
Jää nähtäväksi mitä vielä keksitään, mutta tuota @hik laittamaa slaidi showta lukiessa tulee väkisin mieleen, että onkohan kohta niin, että yksi prosessori rakentuu esim. 3-4 ydinryppäästä joista kätössä on vuorollaan aina 1 ja näitä sitten pyöritetään ringissä niin, että aina yhtä rypästä käytetään ja 3 jäähdytetään sillä aikaa. Tuo AMD:n ytimien käytännössä sulkeminen idelssä jo nykyisellään viittaa siihen, että tähän suuntaan voitaisiin olla menossa. Alla der8sauerin video missä tuota AMD:n energiankulutusta on testailtu. (alkaa ajasta n. 4 minuuttia ja eteenpäin)
 
onkohan kohta niin, että yksi prosessori rakentuu esim. 3-4 ydinryppäästä joista kätössä on vuorollaan aina 1 ja näitä sitten pyöritetään ringissä niin, että aina yhtä rypästä käytetään ja 3 jäähdytetään sillä aikaa. Tuo AMD:n ytimien käytännössä sulkeminen idelssä jo nykyisellään viittaa siihen, että tähän suuntaan voitaisiin olla menossa. Alla der8sauerin video missä tuota AMD:n energiankulutusta on testailtu. (alkaa ajasta n. 4 minuuttia ja eteenpäin)


Sarjassa puhdasta mutua:

Ydinryppään pistäminen nukkumaan silloin jos sille ei ole töitä kuulostaa fiksulta. Kannattaa pitää harvat käynnissä olevat työt saman ryppään sisällä jos voi, ettei tule ryppäitten välisiä viiveita (ccx-ccx?).

Eri juttu on ydinryppäiden nukuttaminen lämpöjen takia. "Lisäytimen lisähyöty" ei ehkä vähene niin nopeasti kuin muuten vähenisi, jos osan aikaa nukkuvilla lisätytimillä saadaan väkisin pidettyä kellot ylhäällä. Iloista kilinää kuuluu kassalla. Pitäisi olla joku semmoinen tehtävä, jossa kaikkien ytimien korkeat kellot on tärkeitä, tai käyttis ja prosu ei ennalta tiedä mitä säie tarvii korkeat kellot ja mikä ei. Eli missä on tulppa jota kaikki muut ytimet joutuu odottamaan ennen kuin pääsäie voi liikahtaa eteenpäin. Pelit ehkä.

Jos laitetta ei tehdä kuormapiikkejä varten, vaan tasaista kuormaa varten (osa palvelimista, jotkut konesalit, kaikki supertietokoneet), sitten on "pimeä pii" kallista (diojen termi). Pitää varmaan tarkkaan laskea onko halvempi pudottaa kelloja, vai lisätä ydinten määrää jotta osa niistä pääsee hetkeksi saunasta vilvoittelemaan. Katsotaan parin nanometrin päästä uudestaan missä mennään.
 
Mutta koska jäähdytysteho skaalaa suoraan jäähdytettävän pinta-alan mukaan, niin samaan aikaan yritetään jäähdyttää yhä pienempää ja pienempää sirua ja transistoreita, niin jäähdytysteho kärsii.

Jäähtymisnopeus on verrannollinen myös lämpötilaeroon. Kannattaa yrittää suunnitella prosuja jotka kestää nykyistä korkeampia lämpöjä.
 
Jäähtymisnopeus on verrannollinen myös lämpötilaeroon. Kannattaa yrittää suunnitella prosuja jotka kestää nykyistä korkeampia lämpöjä.
Toki vaikuttaa myös sekin. Mutta lämpötilaero on luonteeltaan ns. N-suure kun taas pinta-ala on luonteeltaan N²-suure näin matemaattisesti ajateltuna, ja näin ollen pinta-alalla on suhteessa isompi merkitys kuin lämpötilaerolla, ainakin jos puhutaan skaalauksesta suuntaan tai toiseen. Lisäksi, kun tuota rasituslämpötilaa ei oikein voida fysikaalisista syistä juurikaan nostaa (syitä on lueteltu edellisissä kommenteissani iso pino), niin siinäkään tuskin mitään läpimurtoa tulee tapahtumaan, ainakaan plussan suuntaan. Toki jos joku nyt kehittää jonkun uuden hyvän koteloon mahtuvan keinon piirien jäähdyttämiseen (joka on parempi kuin nykyisen nestejäähyratkaisut), jossa lämpötilaeroa saadaan kasvatettua miinuksesta päin, niin sitten tälläkin osa-alueella voisi olla jotain uutta tarjottavaa nykyiseen nähden. Muussa tapauksessa taitaa olla tämänhetkinen tilanne jo saavuttanut aika lailla sen optimitiminsa.
 
Grafeenista(komposiitista) lämmönlevittäjä? Nykytekniikalla melko kallis ratkaisu, mutta eiköhän hinnat putoa ja yllättyisin, jos ei ole jo testit käynnissä.
 
Toki vaikuttaa myös sekin. Mutta lämpötilaero on luonteeltaan ns. N-suure kun taas pinta-ala on luonteeltaan N²-suure näin matemaattisesti ajateltuna, ja näin ollen pinta-alalla on suhteessa isompi merkitys kuin lämpötilaerolla, ainakin jos puhutaan skaalauksesta suuntaan tai toiseen.

Hyvä pointti.

Rx 5700 xt ("7 nm") näyttikset on tarkoitettu toimimaan jopa 110 asteessa. Samoin mielessä oli että Zen2 kuulemma siinä mielessä kestää vähän korkeampia lämpöjä kuin Zen+ että boostit laskee hitaammin lämpöjen noustessa. Siksi ajattelin että kukaties olisi mahdollista saada prosu toimimaan 90-110 asteen välillä. 70-asteisen prosun lämpötilaero huoneilman kanssa on 50 astetta ja 110-asteisen 90 astetta.

Googlasin äkkiseltään korkeaan lämpötilaan speksattuja prosuja ja niille luvatut eliniät ei olleet hääppöisiä.

SM470R.png
 
Hyvä pointti.

Rx 5700 xt ("7 nm") näyttikset on tarkoitettu toimimaan jopa 110 asteessa. Samoin mielessä oli että Zen2 kuulemma siinä mielessä kestää vähän korkeampia lämpöjä kuin Zen+ että boostit laskee hitaammin lämpöjen noustessa. Siksi ajattelin että kukaties olisi mahdollista saada prosu toimimaan 90-110 asteen välillä. 70-asteisen prosun lämpötilaero huoneilman kanssa on 50 astetta ja 110-asteisen 90 astetta.

Googlasin äkkiseltään korkeaan lämpötilaan speksattuja prosuja ja niille luvatut eliniät ei olleet hääppöisiä.

SM470R.png
Eli toisinsanoen, jos haluat sirun kestävän käytössä pidempään, niin älä keitä sitä kovin kuumana VAIKKA se olisikin spekseiltään vielä rajojen sisällä yli 100-asteisena :P. Toki on tuo jo saavutus, että ainakin hetkellisesti kestää jopa 110-asteen lämpötiloja (ainakin takuun rajoissa), kun muutamia vuosia sitten oli markkinoilla edelleen vain siruja, jotka kyrvähti melko varmasti, jos lämmöt nousi kovinkaan paljoa yli 90-asteen vähänkään pidemmäksi aikaa (tai ainakin joku komponentti kyykkäsi). Mutta ei se pii vain kestä pidemmällä tähtäimellä tuollaisia lämpöjä, vaikka kuinka hyvin valmistettaisiin. Kehitystä toki siinä määrin, että missä ennen meni melkeinpä varmasti rikki kun vähän pääsi kiehumaan, niin nykyään se kipuraja on noussut (valmistajan mukaan) jopa sinne 110-asteeseen, vaikkei se todellakaan siis sirulle hyvää tee.

Onhan se totta, että lineaarisesti sitä paremmin se jäähtyy mitä kuumempi kivi on (olettaen, että itse jäähdytysprosessi on toimiva). Mutta on toisaalta aika hassua ajatella, että "tehostaakseen sirun jäähdytystä sitä pitää keittää kuumempana", eli tyyliin "ollakseen viileämpi sen pitää olla lämpimämpi" ;D
 
Mutta ei se pii vain kestä pidemmällä tähtäimellä tuollaisia lämpöjä, vaikka kuinka hyvin valmistettaisiin.

Eli elektromigraatio on se mikä kuuman prosun ajan kanssa syö.

Olisi kiva tietää tarkemmin missä kaikkialla elektromigraatiota tapahtuu. Johteessa liikkuvat elektronit ja sähkökenttä työntää ioneja. Voisiko migraatiota olla osaksi eri paikoissa eri tuotantoprosesseilla ja valotusmaskeilla.

Wikipedian mukaan elektromigraatio tapahtuu ei oikeastaan piissä vaan piin ja metallin liitoksessa "interconnect". Siksi niitä on vuosien mittaan useampaan otteeseen jumpattu paremmiksi eikä ole välttämättä valmiiksi vielä tullut. Aika näyttää.
 
Eli toisinsanoen, jos haluat sirun kestävän käytössä pidempään, niin älä keitä sitä kovin kuumana VAIKKA se olisikin spekseiltään vielä rajojen sisällä yli 100-asteisena :p. Toki on tuo jo saavutus, että ainakin hetkellisesti kestää jopa 110-asteen lämpötiloja (ainakin takuun rajoissa), kun muutamia vuosia sitten oli markkinoilla edelleen vain siruja, jotka kyrvähti melko varmasti, jos lämmöt nousi kovinkaan paljoa yli 90-asteen vähänkään pidemmäksi aikaa (tai ainakin joku komponentti kyykkäsi). Mutta ei se pii vain kestä pidemmällä tähtäimellä tuollaisia lämpöjä, vaikka kuinka hyvin valmistettaisiin. Kehitystä toki siinä määrin, että missä ennen meni melkeinpä varmasti rikki kun vähän pääsi kiehumaan, niin nykyään se kipuraja on noussut (valmistajan mukaan) jopa sinne 110-asteeseen, vaikkei se todellakaan siis sirulle hyvää tee.

Onhan se totta, että lineaarisesti sitä paremmin se jäähtyy mitä kuumempi kivi on (olettaen, että itse jäähdytysprosessi on toimiva). Mutta on toisaalta aika hassua ajatella, että "tehostaakseen sirun jäähdytystä sitä pitää keittää kuumempana", eli tyyliin "ollakseen viileämpi sen pitää olla lämpimämpi" ;D

Itselläni oli joskus AMD cpu:lla ja GPU varustettu halpis multimedia läppäri 2010 vuonna joka kesti vielä 115C lämpöjä. Tuulettemet ulvoivat kuin pölynimuri ja kone kulki vaikka mittari näyttöi 115C tosin tuossa lämmössä alkoi kyllä pelikäytössä fps throtlettaminen.
 

Statistiikka

Viestiketjuista
261 480
Viestejä
4 539 202
Jäsenet
74 803
Uusin jäsen
Mäntyvirta

Hinta.fi

Back
Ylös Bottom