Testissä AMD Ryzen 9 3900X & Ryzen 7 3700X (Matisse)

  • Keskustelun aloittaja Keskustelun aloittaja Sampsa
  • Aloitettu Aloitettu
En ole missään kohtaa sanonut ettei kukaan tarvitse yli 16gb rammia. Quotee tekstini jossa sanon niin, älä syötä sanoja. En ole myöskään sanonut ettei missään tapauksessa tarvitse, tai edes lähimaillakaan siihen suuntaan. Ainoastaan että en itse ole tarvinnut, mutta minun mieltymyksethän eivät liity tämän testin tuloksiin mitenkään, eihän?

Kerro minulle, mikä artikkelin testeistä selkeästi hyötyisi yli 16gb rammista niin voin lakata vääntämästä tästä.
 
En ole missään kohtaa sanonut ettei kukaan tarvitse yli 16gb rammia. Quotee tekstini jossa sanon niin, älä syötä sanoja. En ole myöskään sanonut ettei missään tapauksessa tarvitse, tai edes lähimaillakaan siihen suuntaan. Ainoastaan että en itse ole tarvinnut, mutta minun mieltymyksethän eivät liity tämän testin tuloksiin mitenkään, eihän?

Kerro minulle, mikä artikkelin testeistä selkeästi hyötyisi yli 16gb rammista niin voin lakata vääntämästä tästä.

En osaa sanoa mikä testi hyötyisi merkittävästi, sen takia kysyin, onko mahdollista tätä testata. Jos tietäisin, tuskin kysyisin? Juuri sanoit, että jotkut tarvitsevat yli 16gb ramia, joten miksi tätä ei testattaisi hyötykäyttöön suunnatuilla kivillä, kuten ehdotin? Se että itse et tarvitse, ei tarkoita, etteikö sitä voisi testata. Testien idea on nimenomaan osoittaa jokin asia todeksi/vääräksi.

Omalla kohdalla voin sanoa, että omassa käytössä Premiere hyötyisi 32gigasta ramia, sillä muistinkäyttö hipoo 100% suurimman osan ajasta. Se, että testataanko juuri sitä skenaariota näissä testeissä, tuskin, siksi annoin yhden esimerkin mitä voitaisiin testata aiemmassa viestissäni - jos olisit sen vaivautunut lukemaan.

Jos kuitenkin tiedostat, että jossain asioissa 32gb ramia on tarpeen, voit varmaan lopettaa vänkäämisen 16gb riittävyydestä. Sinullehhan silloin on täysin yhdentekevää, ajetaanko testit millä määrällä muistia. Itse koen hyötyväni tiedosta, kannattaako missä kaikissa skenaarioissa muistia lisätä.
 
Testatkaa noi prossut 32gb tai 64gb muistilla. Ei kukaan noita osta ja käytä 16gb muistia. Vähän sama kuin testaisi pelejä 2060:llä.

Aluksi se on tuo ja nyt se on kysymys ja.. Jeps, tämä jatkuisi sivukaupalla ilman että siinä olisi hitusenkaan järkeä, koska muistikapasiteetin lisäämistä eri sovelluksien suorituskyvyn parantamiseksi olisi taas täysin eri kuin uusien prosessoreiden suorituskykyartikkeli.

Seison vaikka nyt korjattuna, jatkossa kaikki artikkelit 64gb muistilla että videon pakkaaminen ja counter strike sujuisi mahdollisimman sutjakkaasti. Kiitos.
 
Aluksi se on tuo ja nyt se on kysymys ja.. Jeps, tämä jatkuisi sivukaupalla ilman että siinä olisi hitusenkaan järkeä, koska muistikapasiteetin lisäämistä eri sovelluksien suorituskyvyn parantamiseksi olisi taas täysin eri kuin uusien prosessoreiden suorituskykyartikkeli.

Seison vaikka nyt korjattuna, jatkossa kaikki artikkelit 64gb muistilla että videon pakkaaminen ja counter strike sujuisi mahdollisimman sutjakkaasti. Kiitos.

Asioiden irrottaminen kontekstista on toki kivaa, siinä tunnut olevan mestari. Tässä alkuperäinen lainaus:

upload_2019-7-10_13-56-0.png


Puhuttiin kärkiprossuista (3900x ja 9900k), johon vastasin että niitä ei käytetä 16gb muistilla. Toki tämä vähän kärjistettyä, mutta fakta kuitenkin se, että suurin osa noista menee hyötykäyttöön, ja hyötykäytössä monesti 32gb tai enemmän ramia on ihan perusteltua. Minulle kelpaisi loistavasti, että kaikki testit ajettaisiin vain 32gb tai 64gb muistia, olisi ainakin selvä mikä prossu oikeasti on paras, potentiaalinen riski muistin loppumiselle saataisiin poistettua yhtälöstä.

Pelitestit toki voidaan ajaa 16 gigalla muistia, ei ole minulta pois. Mutta jos nyt edes nämä hyötykäyttökivet testattaisiin oikeasti kunnon määrällä muistia.

Jätetään tämä mieluusti tähän, Sampsa voi testata komponentit kuten haluaa, itse lähinnä esitin toivomuksen.
 
Arvelen että muistiasia on nyt jo käsitelty tarpeeksi hyvin, kun alkaa tulla jo toistoa.

Ihan mielenkiintoinen asia selvittää miten vaikuttaa mihinkin. Uskon että @Sampsa nyt tiedostaa asian ja tekee johtopäätökset mitä kannattaa jatkossa testata. Jotta tulokset olisivat vertailukelpoisia, niin luulisin että testipenkki pysyy vakiona johonkin päivämäärään asti ja muistimäärän tarve arvioidaan uudelleen kun ajetaan seuraavat referenssit uusien testien pohjaksi. Ettei vaan tulisi uusien tuotteiden mittauksiin 3,7% parempia tuloksia pelkästään muistimäärän takia (Handbrake), joutuisi ajamaan vanhalla raudalla vertauskelpoiset tulokset. Sitähän monet kaipaa, tietoa kannattaako päivittää.
 
Arvelen että muistiasia on nyt jo käsitelty tarpeeksi hyvin, kun alkaa tulla jo toistoa.

Ihan mielenkiintoinen asia selvittää miten vaikuttaa mihinkin. Uskon että @Sampsa nyt tiedostaa asian ja tekee johtopäätökset mitä kannattaa jatkossa testata. Jotta tulokset olisivat vertailukelpoisia, niin luulisin että testipenkki pysyy vakiona johonkin päivämäärään asti ja muistimäärän tarve arvioidaan uudelleen kun ajetaan seuraavat referenssit uusien testien pohjaksi. Ettei vaan tulisi uusien tuotteiden mittauksiin 3,7% parempia tuloksia pelkästään muistimäärän takia (Handbrake), joutuisi ajamaan vanhalla raudalla vertauskelpoiset tulokset. Sitähän monet kaipaa, tietoa kannattaako päivittää.

Esimerkillistä toimintaa kyllä io-techiltä reagoida käyttäjien palautteeseen ja hypoteeseihin, ajella extra testejä eri biosseila, muisticonffeilla jne. Siinä kuitenkin menee melko paljon työaikaa käydä foorumia läpi ja sitten sätää testipenkin kanssa. :)
 
Esimerkillistä toimintaa kyllä io-techiltä reagoida käyttäjien palautteeseen ja hypoteeseihin, ajella extra testejä eri biosseila, muisticonffeilla jne. Siinä kuitenkin menee melko paljon työaikaa käydä foorumia läpi ja sitten sätää testipenkin kanssa. :)
Vahva tämä, ja siitä suuri kiitos toimituksen suuntaan.
 
Esimerkillistä toimintaa kyllä io-techiltä reagoida käyttäjien palautteeseen ja hypoteeseihin, ajella extra testejä eri biosseila, muisticonffeilla jne. Siinä kuitenkin menee melko paljon työaikaa käydä foorumia läpi ja sitten sätää testipenkin kanssa. :)

Toisaalta yllä mainitsemasi asiat ovat tämän tämän sivun olemassa olon tarkoitus ja kuuluu työnkuvaamme :)
 
Ovatko nuo DDR4-3200 CL14-muistit tosiaan noin kalliita? Sikäli kun pikaisesti vilkaisin, niin Jimmsillä DDR4-3200 CL14 16GB ja DDR4-3200 CL16 32GB ovat lähes samoissa hinnoissa.
 
Ovatko nuo DDR4-3200 CL14-muistit tosiaan noin kalliita? Sikäli kun pikaisesti vilkaisin, niin Jimmsillä DDR4-3200 CL14 16GB ja DDR4-3200 CL16 32GB ovat lähes samoissa hinnoissa.

OT: Niiden valmistus on lopetettu, että hinnat todennäköisesti ei ainakaan alaspäin mene..
 
32GB testi oli mukava lisä, näkee ainakin, ettei muistiohjain kyykkää täysin kun Ryzeneiden kanssa on puhuttu niin paljon muistien merkitsevyydestä suorituskyvyn suhteen.
 
Se mikä oikeastaan kiinnostaisi on tuo 4x8 kamman (vaikka noiden flarex) käyttö x470 emolla.

Ei tosin taida olla ihan ajantasalla vielä kun biosit kuten crosshair VII:n kohdalla on niin raakile, että voikohan sitten 3000-sarjan ryzenillä ns. maksimoida muistin myös neljällä kammalla (eli tuonne 3600+ cl14 viritys). Lähinnä tietäisi että kannattaako tuohon 2 kampaa tulevaisuuden varalle ostaa, vaiko kuitenkin haaveilla 2x16gb moduuleista sitten tulevaisuudessa.
 
Kannattaisi pikku hiljaa selvittää mitä muistin virtualisointi tarkoittaa, ettei tule suollettua ihan puppua. Käyttöjärjestelmä siirtää vähemmän käytetyt sivut pagefileen. Tällä on se vaikutus, että taustalla voi pitää hyvinkin yli sen määrän ohjelmia, mitä fyysiseen muistiin mahtuu.

Itse ainakin pyrin eliminoimaan/disabloimaan swappauksen kokonaan suorituskyky-syistä. Kun siirryn pelistä selaimeen ja takaisin niin siinä ei saa olla latailua välissä. Linuxiin* en ole viimeisen kolmen distron asennuksessa luonut swap osiota ollenkaan koska ei ole pakko. Tuolloin minun käytössä 32 gigaa riittää mutta 16 ei.



Ainoat pelit,joihin juuri nyt tarvin Windowsia ovat Metro ja Apex, mutta eiköhän tosta kohta voi jo luopua.
 
Viimeksi muokattu:
Tästä x265-pakkaamisestakin kuulisin mielelläni jonkun käytännön läheisen käyttöskenaarion mitä voisi hyödyntää testaamisessa. Tällä hetkelllä mulla on ladattuna 4k x265-video, jonka enkoodaan Handbrakella MKV x265 1080p30 presetillä.


Itselle käytänönläheinen esimerkki olisi 4k Drone videon renderöinti esimerkiksi Sony Vegasilla (varmasti muukin vastaava käy) youtube 4k rajoituksien sisään. Semmoiseen menee itsellä paljon aikaa, kun samoja klippejä tulee hierottua moneen otteeseen ja vaatii prosessoria. Uuden Mavic pro 2 raaka videot voisi olla hyvä kohde bittivirran puolesta ja käytännön läheinen monelle tänä päivänä ja plussa vähän sinun videota isompi bittivirta (60 vs 100Mbps).

Täältä saisi joitakin DJI Mavic 2 Pron raakoja pätkiä ladattua. Näistä yhdistelemällä saisi muutaman minuutin hyvän testi clipin, että pääsisi prosessori kunnolla töihin (harvoin tulee alle minuutin pätkiä renderöityä). (Huom. File 1 vie näköjään aina DJI myynti sivulle, filet 2-4 lataus toimii normaalisti).

Eli jos tuolta lataisi noita 4k @100Mbps clippejä, yhdistäisi muutaman ja renderöisi ne youtube rajoituksien/suositusten mukaan 45Mbps 4k formaattiin yhtenäiseksi clipiksi, testinkannalta tietenkin miten parhaaksi näkee (youtube suositus 4k 24/30fps videolle = 35-45 Mbps). Omien kokemuksien mukaan korkeampi lopullinen bittivirta myös matalampaa raskaampi renderöidä.

3950X odotellessa :kahvi:
 
Viimeksi muokattu:
OT: Niiden valmistus on lopetettu, että hinnat todennäköisesti ei ainakaan alaspäin mene..

Samsung B-die valmistus lienee lopetettu, mutta Samsung M-Die pohjaisia kampoja on tulossa 3600CL14, 3200CL14, joten kun nyt kanavassa lojuvat B-die -pohjaiset poistuvat , niin M-die (ja tietysti Hynix/Micron) korvaavat. Hinnat elävät nyt varmaan enemmän kysynnän/tuotannon funktiona ja kyllä tuotanto on vieläkin kasvussa, joten hintojen ennustetaan laskevan (lähde. DRAMeXchange).
 
No minä voin testata, edelleen odottaisin jotain käytännön tapauksia, joita voisi testata ja osoittaa että 32/64 gigatavusta on merkittävä hyöty vs 16 gigatavua. Alkuperäinen väitehän taisi olla että nykyään 16 gigatavua ei tee enää mitään ja testit ovat turhat nykyisellään.

Tokihan jos jotain hyötysoftia aletaan todenteolla testaamaan niin tottakai aletaa löytämään eroja muistimääriltä. En vain tiedä onko kyseessä enään puhdas prosessoritesti, vaan ohjelmatesti. Esimerkkinä unreal enginen compile, jossa ilmeisesti muistitarvi on noin 1GT/thread. Tosin tälläisiä ohjelmia työkseen ajavat todennäköisesti omistavat HEDT platformin.

Edit. Lisätään vielä että vertauksessa oli käytetty Sebastion Aaltosen dataa claybookista. Eli kyseessä on suhteellisen mittava projekti. Tuskin mikään pieni projekti unrealissa 1GT/thread varaa.
 
Viimeksi muokattu:
Tokihan jos jotain hyötysoftia aletaan todenteolla testaamaan niin tottakai aletaa löytämään eroja muistimääriltä. En vain tiedä onko kyseessä enään puhdas prosessoritesti. Esimerkkinä unreal enginen compile, jossa ilmeisesti muistitarvi on noin 1GT/thread. Tosin tälläisiä ohjelmia työökseen ajavat todennäköisesti omistavat HEDT platformin.

Olisi ison muistimäärän testissä (ja sen käyttävässä softassa) ehkä ideaakin. Sellainen rääkkää muistiohjainta ja cachea vähän eri tavalla, mitä muut testit. Itse kyllä tyytyisin johonkin 10Gb projektiin 16Gb rammilla. 32Gb ja isompiin muistimääriin mennessä joudutaan usein tiputtamaan muistien nopeutta. Joten sitten joko heikennetään muita testituloksia, tai on oltava erillinen konffi yhtä testiä varten.

Ajatustasolla kiva, mutta tuota pitäisi vähän testailla tekin labrassa, eli saako sillä eroja syntymään, vai onko testin hyötyarvo lähellä nollaa.
 
Ennen testattiin piirisarjojen eroja, north bridge, south bridge, muut piirit. Osasi olla suuria eroja paljonko joku väylä rasitti prosessoritehoa. Esim. joku halpa usb3-lisäkortti saattoi hidastaa konetta merkittävästi, sama integroitujen kanssa. Nyt tietysti osa on integroitu prosessoriin ja emolevyillä osat alkaa olla aika standardikamaa, liekkö enää tarvetta testata eri skenaarioita muuten kuin löytääkseen heikkouksia ja vahvuuksia Intel vs. AMD?
 
En usko että kyse on niinkään boostitaajuudesta, vaan siitä että 3900X + Radeon vs 9900K + Radeon tarjoaa korkeampaa fpsää AMD:n prossulla, joka sitten kallistaa prossun nopeuden vaakakuppia riippuen minkän valmistajan näytönohjain on koneessa.

Level1Techsin youtube 5700 XT reviewissä näytti myös oleman sama trendi, esim. 3700X olikin yhtäkkiä ihan yhtä hyvä/hiukan nopeampi mitä 9900K vaikka siinä Shadow of the Tomb Raiderissa.
Jos teesi pitää paikkansa ja todetaan vartavasten tehdyillä testeillä, niin lähtisi kyllä iotech leviämään ympäri nettiä :D
 
Toisaalta yllä mainitsemasi asiat ovat tämän tämän sivun olemassa olon tarkoitus ja kuuluu työnkuvaamme :)

Näin tokkiinsa on, mutta ei ole 2,5v riittänyt vielä kadottamaan muistista Muron lopunaikojen "Otava lamaa" joten lämmittää mieltä. Varsinkin kun saan vähintään viikoittain ihmetellä ja kiroilla töissä noiden penniä venyttävien ekselimiesten touhua.. ei ihan harvoin ole kun säästetään juuri siitä mitä olisi prkl tarkoitus asiakkaalle tarjota ja mistä ei voi säästää suututtamatta asiakasta. :facepalm:
 
Olisi ison muistimäärän testissä (ja sen käyttävässä softassa) ehkä ideaakin. Sellainen rääkkää muistiohjainta ja cachea vähän eri tavalla, mitä muut testit. Itse kyllä tyytyisin johonkin 10Gb projektiin 16Gb rammilla. 32Gb ja isompiin muistimääriin mennessä joudutaan usein tiputtamaan muistien nopeutta. Joten sitten joko heikennetään muita testituloksia, tai on oltava erillinen konffi yhtä testiä varten.

Ajatustasolla kiva, mutta tuota pitäisi vähän testailla tekin labrassa, eli saako sillä eroja syntymään, vai onko testin hyötyarvo lähellä nollaa.

Mitäs tuo boldattu kohta oikein käytännössä tarkoittaa? Itse ainakin ajelen muisteja bios:n asetuksissa juuri sillä luvulla, jolla ne olen ostanut.
 
Mitäs tuo boldattu kohta oikein käytännössä tarkoittaa? Itse ainakin ajelen muisteja bios:n asetuksissa juuri sillä luvulla, jolla ne olen ostanut.

Sitä että emolevyllä voi toimia esim. 2x8gb 4600Mhz CL17-18 kammat, mutta jos lyö kaks lisempää niin ei saa enää kuin jotain 3600-3900Mhz irti, riippuu emolevyn muistisignaloinnista ja muistikanavien johdotukseta t-topology vs. daisychain.
Tai sitten jos ostaa 16gb dual-rank kampoja niin muistinopeudet on pienempiä tai "katto matalemmalla" jos ryhtyy niitä muistejaan kellottamaan ja vertaa singlerank kampoihin.
 
Mitäs tuo boldattu kohta oikein käytännössä tarkoittaa? Itse ainakin ajelen muisteja bios:n asetuksissa juuri sillä luvulla, jolla ne olen ostanut.

16gb (dual rank) kammat on raskaampia muistiohjaimelle, mitä singlerank, joten kellot jää alhaisemmiksi. Neljä kampaa on myös muistiohjaimelle kahta raskaampi ja useammat emolevyt alkaa olla daisy chain muistiratkaisulla (singlalointi pääslotille ja siitä hyppy toiseen slotiin. Harvinaisemmassa T-topologiassa kaikki slotit on yhtä hyviä, mutta yleisemmän kahden kamman toimivuus on suhteessa huonompi), jolloin ne toimii parhaiten 2 kamman konffilla.

Käytännössä jos haluaa vetää muistikellot ja asetukset maksimiin, on käytettävä kahta single rank muistikampaa. Eli 2x8Gb konffia. Esim 1-2Gen ryzeneillä 3466-3600mhz oli saavutettavissa kahdella kammalla, mutta muilla konffeilla alettiin olla 3200-3333mhz maksimeissa. Sama intelilläkin, kellotaajuudet on vain korkeammalla.
 
Sitä että emolevyllä voi toimia esim. 2x8gb 4600Mhz CL17-18 kammat, mutta jos lyö kaks lisempää niin ei saa enää kuin jotain 3600-3900Mhz irti, riippuu emolevyn muistisignaloinnista ja muistikanavien johdotukseta t-topology vs. daisychain.
Tai sitten jos ostaa 16gb dual-rank kampoja niin muistinopeudet on pienempiä tai "katto matalemmalla" jos ryhtyy niitä muistejaan kellottamaan ja vertaa singlerank kampoihin.

Aijaa, kaikenlaista sitä onkin. Olen ihan tyytyväisenä ajellut 4:ää kampaa 3600mhz:lla jolla ne ostinkin. Ei tullut pieneen mieleenkään, että se voisi aiheuttaa jotain ongelmaa. Hwinfo tosin väittää taajuudeksi 1800mhz. Onko siinä nyt tuo ilmiö sitten kyseessä? Luulin sen olevan vain idle-käytön seurausta.
 
Aijaa, kaikenlaista sitä onkin. Olen ihan tyytyväisenä ajellut 4:ää kampaa 3600mhz:lla jolla ne ostinkin. Ei tullut pieneen mieleenkään, että se voisi aiheuttaa jotain ongelmaa. Hwinfo tosin väittää taajuudeksi 1800mhz. Onko siinä nyt tuo ilmiö sitten kyseessä? Luulin sen olevan vain idle-käytön seurausta.

Tuo 1800mhz on muistin oikea taajuus. DDR (double data rate), eli muistia käsitellään kellopulssin nousevalla ja laskevalla laidalla. Joten käytännön nopeus on 2x fyysinen kellotaajuus. Joten 1800mhz on käytännössä 3600mhz.
 
Millä tuollaisen single rank muistin oikein tunnistaa, kun sitä ei hirveästi näköjään huudella myyntiesitteissä?
 
Millä tuollaisen single rank muistin oikein tunnistaa, kun sitä ei hirveästi näköjään huudella myyntiesitteissä?

Nykyään käytännössä lähes kaikki 8Gb muistikammat on singlerank. Ihan ddr4:n alkuvaiheessa tehdyt 8Gb kammat voi olla dual rankkia. 16Gb kammat on lähes aina dual rank.
 
Nykyään käytännössä lähes kaikki 8Gb muistikammat on singlerank. Ihan ddr4:n alkuvaiheessa tehdyt 8Gb kammat voi olla dual rankkia. 16Gb kammat on lähes aina dual rank.

Ok, mutta jos siis nyt haluan löytää sellaisia 16gb kampoja, niin miten löydän ne?
 
Mitä sillä pitäisi testata Boost-taajuuden toimimista? Kun GeForcella tää boostaa 4565 MHz

Varmasti suurin osa näistä "toimii huonosti NVIDIA ohjaimen kanssa" viesteistä perustuu redditin AMD ryhmään.

Siellä kun oli posti ensiksi että NVIDIAn näytönohjain heittää WHEA erroria (Windows Hardware Error Architecture) HwInfo64 ohjelman mukaan X570 alustalla, kun käytössä on PCI-E 4, mutta ei X470 alustalla PCI-E 3:sen kanssa, ja että tämä voisi aiheuttaa hidastelua, ja heikompia tuloksia. Espanjalainen sivusto Xanxo Gaming törmäsi tähän kun Pcmark 8 ohjelma ei suostunut rullaamaan läpi, ja alkoivat katsomaan läpi error logeja.

Tämän lisäksi heidän prossu ei päässyt boost kelloihinsa. Eli sitten vedettiin johtopäätöksiä että tässä on ehkä yksi, tai kaksi eri, ongelmaa.

Sitten tämän jälkeen joku kokosi redittiin hieman kyseenalaisen Tomb Raider graafin mikä "näyttää" että NVIDIA näytönohjaimet saisivat paljon huonompia tuloksia Ryzenilla.

AMDn edustaja on kommentoinut tuota Tomb Raider graafia redditissä seuraavasti:

This chart combines three different sources into a single chart. The three reviewers may or may not have used the same settings or scene(s). We're going to look into this out of an abundance of caution, but I would preemptively warn that this data and/or thesis may not be valid. Let's not get ahead of ourselves.

Joten tuskinpa tuossa mitään testattavaa on, mutta jos haluaa kaikkia mielyttää niin kyseessä on siis kahdesta eri "ajatuksesta". NVIDIA ja Ryzen on hidas PCI-E 4 erroreiden takia (esim. koska NVIDIAn ajurit eivät toimi oikein PCI-E Gen4 alustalla, mutta AMDn kyllä, tai jotain muuta vastaavaa), ja toinen on että boost kellot eivät toimisi.
 
Argh, fine. Mennään takaisin aiheeseen. Tyydyn näihin kunnes tulee aika ostaa amd:tä nykyisen koneen tilalle ja katsotaan tilanne silloin uudelleen.

Tämä vielä offtopiccina. Dual rank on nopeampaa, kuin samalle taajuudelle kellotettu single rank, johtuen tästä: "Multi-rank modules allow several open DRAM pages (row) in each rank (typically eight pages per rank). This increases the possibility of getting a hit on an already open row address. The performance gain that can be achieved is highly dependent on the application and the memory controller's ability to take advantage of open pages."

Ne eivät vain kulje yhtä kovaa, kuin single rank muistit. Joten molemmat huippuunsa viilattuna singlerank on nopeampi.
 
Itse ainakin pyrin eliminoimaan/disabloimaan swappauksen kokonaan suorituskyky-syistä. Kun siirryn pelistä selaimeen ja takaisin niin siinä ei saa olla latailua välissä. Linuxiin* en ole viimeisen kolmen distron asennuksessa luonut swap osiota ollenkaan koska ei ole pakko. Tuolloin minun käytössä 32 gigaa riittää mutta 16 ei.
Pelikäytössä varsinkin Windowsissa lienee ihan perusteltua kytkeä pois swap. Linuxissa swappiin menee oletusarvoisella swappiness-määrällä aika rajallisesti tavaraa. Pitää olla lähemmäs 16 gigaa käytössä, että swappiin menee tuntuvasti aktiivisen pelin dataa. Myös jos swappiin on mennyt jotain taustaprosessien sivuja, eivät ne sieltä itsekseen palaudu kesken pelin. Eli jotain nykimistä voi ilmetä pelin aikana, mutta se saattaa loppua pelin oltua käynnissä. Yksi vaihtoehto on myös lz4-pakattu zram. Linuxissa on se huono puoli, että jos muisti loppuu kesken, systeemi hirttää kiinni todella pahasti. Joten pitää olla hyvin varma, että fyysinen muisti ei missään kohtaa ylity, käyttää swappia tai valmistautuu OOM Killerin aktivoitumiseen. Linuxissa on sekin hyvä, että jossain Steam OS -tyylisessä käytössä se varsinainen käyttis ja launcheri ei kuluta kuin ehkä 300 MB muistia, jolloin pelille jää aika hyvin. Siitä 300 megasta voi pelin aikana ison osan pistää swappiinkin, jos tarvii levy-cachea varten tilaa. Jostain syystä steam os kyllä ilmoittaa linux-pelien vievän jopa enemmän resursseja, mutta minusta heillä on aika pessimistinen tapa arvioida noita.
 
Itse ainakin pyrin eliminoimaan/disabloimaan swappauksen kokonaan suorituskyky-syistä. Kun siirryn pelistä selaimeen ja takaisin niin siinä ei saa olla latailua välissä. Linuxiin* en ole viimeisen kolmen distron asennuksessa luonut swap osiota ollenkaan koska ei ole pakko. Tuolloin minun käytössä 32 gigaa riittää mutta 16 ei.



Ainoat pelit,joihin juuri nyt tarvin Windowsia ovat Metro ja Apex, mutta eiköhän tosta kohta voi jo luopua.

Njaa sen verran kauan kun viimeeksi käyttänyt toosaa, etten tiedä miten asianlaita nykyään on. Mutta siis ennen muinoin oli toosassa softia, jotka eivät edes toimineet ellei koneella ollut sivutusosiota. *nix puolella taas swappi on sama olla jonkin kokoisena. Määrittelee vain swappiness arvon niin pieneksi, ettei sitä juuri koskaan käytetä ennen kuin on viho viimeinen pakko.
 
Millä tuollaisen single rank muistin oikein tunnistaa, kun sitä ei hirveästi näköjään huudella myyntiesitteissä?

Fyysisesti helpoin tuntomerkki on se, että muistipiirejä on vain toisella puolella kapulaa. Tosin jos niitä on yhdellä puolella kahdessa rivissä niin menee coinflipiksi. Eli edelleen parastapa valmistajan nimi + mallinumero googleen ja specislapusta katsoo.

Njaa sen verran kauan kun viimeeksi käyttänyt toosaa, etten tiedä miten asianlaita nykyään on. Mutta siis ennen muinoin oli toosassa softia, jotka eivät edes toimineet ellei koneella ollut sivutusosiota. *nix puolella taas swappi on sama olla jonkin kokoisena. Määrittelee vain swappiness arvon niin pieneksi, ettei sitä juuri koskaan käytetä ennen kuin on viho viimeinen pakko.

Valitettavasti joitakin softia ja pelejä ovat jotka saattavat levähtää käsiin wintendon swapin puuttumisesta. Tosin jos sitä sallii esim 1-2G swappia ja rammia on oikeast iriittävästi niin wintendo on aika konservatiivinen sen swapin käytön suhteen, jos sinne nyt yhtään mitään päätyy niiin se on varmasti jotain kauan taustalla idlannutta skeidaa. Jos nyt ei HDD:n päällä aja käyttistä/swap osiota niin ei huomaa mitään, yleensä se käyttää sitä sitten 0-200MB sille taustaroskalle.
 
Joku voisi joskus antaa esimerkin yhdestä softasta joka leviää käsiin jos swappia ei ole (olettaen että muistia on reilusti).

Ohjelmathan eivät sitä swappia käytä (ellei photoshopin scratch-diskejä jne. lasketa), vaan ne ainoastaan pyytävät käyttöjärjestelmältä muistia ja se sitä niille tarjoaa.
 
Joku voisi joskus antaa esimerkin yhdestä softasta joka leviää käsiin jos swappia ei ole (olettaen että muistia on reilusti).

Ohjelmathan eivät sitä swappia käytä (ellei photoshopin scratch-diskejä jne. lasketa), vaan ne ainoastaan pyytävät käyttöjärjestelmältä muistia ja se sitä niille tarjoaa.
Vanhemmat PRO/Engineer cad softat ei suostu käynnistymään jos swappi ei ole käytössä ja sitä ei ole riittävästi, riippumatta siitä paljonko keskusmuistia koneessa on. Hauskoja juttuja kun lisenssien kalliuden vuoksi ei ihan joka vuosi(kymmen) voi työkaluja uusia.

Tosin tässähän pro user laittoi swapin ramdrivelle :D
 
jatketaan OT:ta.

Mikä siitä swapista tekee niin ikävän, että sen kanssa pitää kikkailla?
 
Tämä ketju on ollut testitulosten julkaisun jälkeen suurimmalta osin pelkkää ihmisten keskenään painimista. Kuka on oikeassa, kuka on mitä mieltä, missä on vika, kun ei miellytä joku asia itseä jne. Eihän tälläsiä vänkäämisiä tarttis tähän kyseiseen ketjuun enää yhtään lisää. Menee ketjun alkuperäinen tarkoitus aivan hukkaan, kun 12 sivusta 6 sivua on kaikkea muuta meuhkaa joka suuntaan. Ei ole mielenkiintoa seurata vääntöjä missä jokaisella on omansa.

Tämä seuraava on sitten oma mielipide. Itse ainakin odotin tuloksia, niitä myös sain. Kiitos @Sampsa @kumppanit jotka testiä oli tekemässä, koska pitää arvostaa sitä työmäärää mitä tälläisen projektin testaaminen vie aikaa. Tilanne on se mikä on tällä hetkellä. Tulevaisuus näyttää, että missä kohtaa voi tulla korjauksia niin, että alkaa esim. Boost kellot olemaan siellä mitä AMD on esittänyt. Maltti on valttia toivottavasti. Olen silti yllättynyt miten hyvin jaksaa vetää noillakin kelloilla millä on testit saatu ajettua läpi.
 
Reddit päivitystä:
Update: Manuel and the Nvidia driver team notified us that they were able to reproduce the problem and are looking into it, so no need to send anymroe information their way.

Tässä siis kyse WHEA erroreista kun käytössä PCI-E Gen4, mutta jotkut raportoivat että samoja löytyy myös AMDn näytönohjaimilla,
eli tuskinpa aiheuttaa suorituskykyongelmia, mutta jos niin sattuisi olemaan, niin ainakin NVIDIA on asiasta tietoinen ja tutkii asiaa.

EDIT, linkkejä:

If you are getting WHEA errors with your new Ryzen 3000 series platform and NVIDIA GPU, please fill out the driver feedback form linked here : Amd

WHEA Errors with Ryzen 3000 : Amd
 
Viimeksi muokattu:
Reddit päivitystä:
Update: Manuel and the Nvidia driver team notified us that they were able to reproduce the problem and are looking into it, so no need to send anymroe information their way.

Tässä siis kyse WHEA erroreista kun käytössä PCI-E Gen4, mutta jotkut raportoivat että samoja löytyy myös AMDn näytönohjaimilla,
eli tuskinpa aiheuttaa suorituskykyongelmia, mutta jos niin sattuisi olemaan, niin ainakin NVIDIA on asiasta tietoinen ja tutkii asiaa.

Näihin voisi laittaa linkit mukaan lähteeksi, ettei ole jotain satunnaista copy&pastea joltain taholta jostain. Kiitos.
 
Näihin voisi laittaa linkit mukaan lähteeksi, ettei ole jotain satunnaista copy&pastea joltain taholta jostain. Kiitos.
Taisi olla tästä reddit ketjusta kyse:
Ainakin yksi kommentti näytti löytyvän, jossa joku kertoi saaneensa WHEA errorin AMD näyttiksellä.
It's definitely not only with NVIDIA cards, I get WHEA errors too (and the OCN thread for my board, x370 fatality pro gaming/taichi have huge issues with it too on PCIE3 AMD cards).

We were talking about it and we think it's related to the AGESA.
XanxoGaming ei tosin havainnut vikaa AMD:n näytönohjaimella (kts. aiempi viesti)
 
Löytyykös jostain tai joltain analyysiä, miksi AMD ottaa näin kovin kuokkaan monissa pelitesteissä Inteliltä vaikka esim cinebench testeissä single thread suorituskyky vastaa toisiaan ja luonnollisesti multithreadissa AMD vie ytimien voimalla Intteliä?

Mikä näissä peli kuormissa erottaa Intelin ja AMD näin vahvasti vielä toisistaan?
 
5GHz vs 4.3GHz. Siinä se ero peleissä. Ringbus kestää taajuuksia hyvin. Latenssitkin ehkä vähä merkkaa kun Intelillä ei ole ccxien välistä kommunikaatiota.
 

Uusimmat viestit

Statistiikka

Viestiketjuista
262 634
Viestejä
4 552 797
Jäsenet
75 038
Uusin jäsen
Vauhtihirmu

Hinta.fi

Back
Ylös Bottom