AMD CPU-spekulaatio (Zen6/Zen7 ...)

Koska AMD (ja esim. Intel) varmasti haluavat hyvät markkinaosuudet KAIKILTA markkinoiden osa-alueilta he pyrkivät paitsi valmistamaan myös myymään paitsi niitä kalleimpia myös halvempia prosessoreita.

Varsinkin Renoirin kohdalla AMD myy kaikki piirit jotka se pystyy valmistamaan, joten aivan varmasti myös yrittävät saada parhaan mahdollisen katteen tuotteistaan, ts parempia binnejä ei tieten tahtoen myydä halvempina.

Tässähän on nyt vain spekulaatiota spekulaatiosta, eli joku oli kaivanut TSMC:n defect raten ja laskenut sen perusteella AMD:n tuotteille käsittämättömän hyvät saannot, joku toinen taas voisi varsinaisten myytävien tuotteiden perusteella todeta että todelliset saavutetut saannot ovat aivan jotain muuta mutta nähtävästi päättelyketju on joko selkeästi väärä tai liian haastava ymmärtää jotta se kelpaisi haastamaan 1. spekuloinnin johtopäätelmän.
 
Varsinkin Renoirin kohdalla AMD myy kaikki piirit jotka se pystyy valmistamaan, joten aivan varmasti myös yrittävät saada parhaan mahdollisen katteen tuotteistaan, ts parempia binnejä ei tieten tahtoen myydä halvempina.

Tässähän on nyt vain spekulaatiota spekulaatiosta, eli joku oli kaivanut TSMC:n defect raten ja laskenut sen perusteella AMD:n tuotteille käsittämättömän hyvät saannot, joku toinen taas voisi varsinaisten myytävien tuotteiden perusteella todeta että todelliset saavutetut saannot ovat aivan jotain muuta mutta nähtävästi päättelyketju on joko selkeästi väärä tai liian haastava ymmärtää jotta se kelpaisi haastamaan 1. spekuloinnin johtopäätelmän.

Tosin ainakin itselleni tulee mieleen että vaikka kyseessä olisi ns. ulkoisesti täysin onnistunut tuote (ei siis hajonneita ytimiä) niin noissa on eroja. Jotkut soveltuvat paremmin kellotteluun ja korkeisiin MHz lukemiin, toinen taas tarvitsee vähemmän jännitettä jatkuviin esim. 2GHz rasitus kelloihin ja siten ehkä soveltuisi paremmin 64-ydin käyttöön.

Toki siitä voidaan vielä kysyä millä perusteella niitä ehjiä 8-ydin prosessoreita mitä voisi käyttää "johonkin" aletaan rampauttamaan esim. 6 tai jopa 4-ydin prosessoreiksi. Ehkä ne ovat niitä pahnan pohjimmaisia tms. Mutta jos fakta on että niitä ostetaan eniten se tarkoittaa että ennenmmin tai myöhemmin myös hyviä yksilöitä menee väkisinkin noihin rampautettuihin prosessoreihin. Tai sitten syntyy tilanne kuten joissakin julkaistuissa prosessoreissa on (oliko se joku 3300X tms) eli ne ovat täysin lopussa ja jonoa/ostajia on liiaksikin mutta ei varmistusta koska tuotetta tulisi lisää kauppojen hyllyille.
 
Tosin ainakin itselleni tulee mieleen että vaikka kyseessä olisi ns. ulkoisesti täysin onnistunut tuote (ei siis hajonneita ytimiä) niin noissa on eroja. Jotkut soveltuvat paremmin kellotteluun ja korkeisiin MHz lukemiin, toinen taas tarvitsee vähemmän jännitettä jatkuviin esim. 2GHz rasitus kelloihin ja siten ehkä soveltuisi paremmin 64-ydin käyttöön.

Se ei edelleenkään ole vaihtoehto että tuo laskettu saanto aikaisemmin oli väärä? Varsinkin kun AMD itse on ilmoittanut saantoja jotka ovat olleet jotain ihan muuta kuin nuo lasketut, joskus vuosi sitten taisi ilmoittaa yltäneensä 70% saantoihin, ja tämä luku sisältäneen kaikki myytäväksi kelpaavaksi asti jalostetut tuotteet.
 
Varsinkin Renoirin kohdalla AMD myy kaikki piirit jotka se pystyy valmistamaan, joten aivan varmasti myös yrittävät saada parhaan mahdollisen katteen tuotteistaan, ts parempia binnejä ei tieten tahtoen myydä halvempina.

Tässähän on nyt vain spekulaatiota spekulaatiosta, eli joku oli kaivanut TSMC:n defect raten ja laskenut sen perusteella AMD:n tuotteille käsittämättömän hyvät saannot, joku toinen taas voisi varsinaisten myytävien tuotteiden perusteella todeta että todelliset saavutetut saannot ovat aivan jotain muuta mutta nähtävästi päättelyketju on joko selkeästi väärä tai liian haastava ymmärtää jotta se kelpaisi haastamaan 1. spekuloinnin johtopäätelmän.
Renoir on aika paljon isompi piiri kuin zen2 ja silti suurin osa mitä nyt kaupoissa näkee on 8 ytiminen malli. Renoirissa on myös aivan selvästi keinotekoisesti rampautettuja piirejä, sillä mitään muuta selitystä ei ole malleille joista puuttuu SMT.

Jos sulla on joku ihan järkevä päättelyketju, niin kirjoita se ihmeessä tänne auki, mielellään sellaisin perustein joita voi jotakin kautta tarkistaa, tai edes joku laskutoimitus siitä että miksi nykyiset luvut sinusta viittaisivat siihen että TSMC valehtelee.
En vaan että ilmoitetusta virhetiheydestä ei voi päätellä todellisia piirien saantoja, jotka ovat kaikilla valmistajilla kohtuullisen huonot uusimmilla prosesseilla.
TSMC:n 7nm ei ole enää uusi prosessi, vaan sillä on tehty jo kolme vuotta kuluttajaelektroniikkaa. ASIC qualityn vaihtelu pakottaa valmistajat myymään samasta tuotteesta useampaa binniä, zen3:n kanssa koko tuotepaletti ja siten käyttökelpoisiksi ajatellut binnit eivät ole vielä esillä. Hinnoista on taas vaikea keksiä mitään laajempia totuuksia, sillä ne määräytyvät suurelta osin markkinoiden mukaan tuotantokulujen sijaan.

joskus vuosi sitten taisi ilmoittaa yltäneensä 70% saantoihin, ja tämä luku sisältäneen kaikki myytäväksi kelpaavaksi asti jalostetut tuotteet.
Ja oletko katsonut että miten TSMC on ilmoittanut virhetiheydestään ajan funktiona? Suosittelen sen tekemään. Lisäksi huomauttaisin että viittaamasi 70% saannot perustuvat vahvistamattomaan huhuun, ja nyt esität sitä faktana. Huhu on myös kirjattu muotoon "Well, the yield of the Zen 2-cores should be good, roughly 70 percent of the chips are fully functional. "
 
Viimeksi muokattu:
Asettaisin kysymyksen näin: 5600X:n ja 5800X:n hintaero on 160€. Montako fps:ää sillä saa enemmän peleissä 1440p resolla?

Veikkaan, ettei kovin monta. Ei ainakaan hintaeroon nähden kannattavasti.
Pitäisikö yhtälöön ottaa myös se, että kuinka kauan prosessori olisi käytössä? Eikö nyt ole jo pelejä joissa esim. 6C6T prosessorit alkavat pahimmillaan tukehtua? Kysyn ihan sen vuoksi etten tiedä vastausta :)
 
Renoirissa on myös aivan selvästi keinotekoisesti rampautettuja piirejä, sillä mitään muuta selitystä ei ole malleille joista puuttuu SMT.

SMT:n disablointi parantaa energiatehokkuutta Zen2:lla selvästi jonka seurauksena mobiiliprosessori voidaan binnata parempaan luokkaan kyseisessä tehorajassa.
 
SMT:n disablointi parantaa energiatehokkuutta Zen2:lla selvästi jonka seurauksena mobiiliprosessori voidaan binnata parempaan luokkaan kyseisessä tehorajassa.
Eli se saa korkeamman base clock luvun jos SMT otetaan pois päältä? Ei ole minusta arvosteluiden perusteella vaikuttanut siltä että nuo ikinä lähellekkään niin alas kellottuisivat oikeilla kuormilla.
 
Jos sulla on joku ihan järkevä päättelyketju, niin kirjoita se ihmeessä tänne auki, mielellään sellaisin perustein joita voi jotakin kautta tarkistaa, tai edes joku laskutoimitus siitä että miksi nykyiset luvut sinusta viittaisivat siihen että TSMC valehtelee.

TSMC ei valehtele, se vain ilmoittaa prosessinsa defect raten. Yieldejä ei voi laskea em. defect ratesta vaan se on jokaiselle piirille määriteltävä erikseen. Liki täydelliset saannot olivat Intelillä viimeksi 22nm prosessilla, muilla näin ei ole ollut vuosiin. Yksi syy Intelin huonoihin saantoihin uusilla prosesseilla on ollut se että muut valmistajat ovat jo vuosia rakentaneet mahdollisuuksien mukaan virhesietoisia rakenteita piireihinsä yhdessä huomioiden osittain viallisten piirien käyttömahdollisuuden.
 
Pitäisikö yhtälöön ottaa myös se, että kuinka kauan prosessori olisi käytössä? Eikö nyt ole jo pelejä joissa esim. 6C6T prosessorit alkavat pahimmillaan tukehtua? Kysyn ihan sen vuoksi etten tiedä vastausta :)

Itse ajattelen samalla tavalla. Mutta jos ihan rehellisiä ollaan tässä tulee ongelmaksi ennustaminen. Eli syy miksi esim. 2600K oli niin hyvä prosessori ja käytännössä osa vasta nyt noin 10 vuoden käytön jälkeen (otaksuen että hankkivat uuden prosessorin 2021 alkuvuodesta) siirtyy AMD:n uusiin prosessoreihin/emoihin tai kuten itse tein vasta 2017 hankin seuraavan prosessorini johtui ihan siitä että Intel nysväsi ja jopa tahallaan esti useamman ytimen käyttöönoton peruskuluttajamalleissa.

Nyt voimme vain spekuloida ja todeta että "ehkä" vasta 2030 tulee 32-ydin/64-säie prosessori DDR5/6 muisteilla yleistymään jolloin "kaikki" suosittelevat 24-ydin/48-säie prosessoria 3D reaalitodellisuus 16K pelailuun ja siihen saakka maksimit olisivat 16-ydin/32-säie tai 18-ydin/34-säie prosessorit jolloin ostamalla 5950X prosessorin ja kellottamalla sen (jos se onnistuu) esim. ~5GHz se riittäisi oikein hyvin seuraavat ~10 vuotta käyttöä vaikka uudemmat prosessorit ehtisivät saada noin 20% tehonlisäystä (2600K vs 7700K).

Toki sen nyt uskaltaa helposti todeta että seuraavat ~5 vuotta 5900X tai 5950X riittää varmasti pelaamiseen kun taas 5600X voi loppua puhti osalla peleistä jo seuraavan 2 vuoden sisällä jolloin se 5800X vielä hetken riittäisi.
 
Eli se saa korkeamman base clock luvun jos SMT otetaan pois päältä? Ei ole minusta arvosteluiden perusteella vaikuttanut siltä että nuo ikinä lähellekkään niin alas kellottuisivat oikeilla kuormilla.

Jokaikinen kellotaajuus käyrällä on korkeammalla SMT disabloituna. Vain hyvin pieni osa piireistä on riittävän hyviä että ne kelpaavat mobiilikäyttöön SMT enabloituna, AMD:n valmistuskapasiteetti 4800U:n suhteen on hyvin rajallinen. Syy moiseen lienee että SMT kasvattaa piirin osien lämpötilaa joka kasvattaa vuotovirtoja - vain kaikkein vähiten vuotavat piirit valmistuserästä kelpaavat SMT binniin mobiiliteholuokissa.
 
Eli jotta yieldiä voitaisiin arvuutella meidän pitäisi tietää koko tuotepaletti?

Valmistaja sen voi määritellä piiirilleen - jos aikoo arvuutella niin myyntiin päässeiden tuotteiden suhteista voisi jotain päätellä ainakin tuotantorajoitteisissa tilanteissa - tai näin itse päättelisin, vastustus kyseiselle päätelmälle vaan tuntuu olevan suurta.
 
Eli se saa korkeamman base clock luvun jos SMT otetaan pois päältä? Ei ole minusta arvosteluiden perusteella vaikuttanut siltä että nuo ikinä lähellekkään niin alas kellottuisivat oikeilla kuormilla.
Onhan tuota historiassa ennenkin täysin kunnollisia piirejä rampautettu sinne missä niitä myydään, halvemmiksi tuotteiksi siis.
 
Tässä nyt tutkaillut tätä oman 3950X käyttöä, miten tätä nyt edes mittailisi, no esim pakkaus/purku yms codecit imasee kaikki 32 threadia sinne 90-100%.
Sellainen "kevyt" käyttö on 20 threadia siinä 60-80% tai yli, loput 16 on 5-20%. Vaikka on käyttämiäni ohjelmia auki taustalla, ja muutamat firefox ikkunat yms härpäkkeet.
Tämä CPUID/HWMonitorin mukaan.
Yritän vaan keksiä itselleni aihetta miksi ostaa tuo 5950X, kun ehkä tuo 5900X riittäisi.
Tää mun "hyötykäyttö" ihan turhanpäiväistä harrastusta kuitenkin.
Prossun max lämpötila kuormitettaessa siinä 74c, pelatessa muukin lämmittää koppaa niin 76c menee, joskus ylikin.
 
Jokaikinen kellotaajuus käyrällä on korkeammalla SMT disabloituna. Vain hyvin pieni osa piireistä on riittävän hyviä että ne kelpaavat mobiilikäyttöön SMT enabloituna, AMD:n valmistuskapasiteetti 4800U:n suhteen on hyvin rajallinen. Syy moiseen lienee että SMT kasvattaa piirin osien lämpötilaa joka kasvattaa vuotovirtoja - vain kaikkein vähiten vuotavat piirit valmistuserästä kelpaavat SMT binniin mobiiliteholuokissa.
Ja intel vissiin sit heittää kyseiset prossut roskiin (käyttämiesi sanamuotojen perusteella reippaasti yli 50%), ne kun ei myy enää mobiilisiruja ilman HT:ta?

Valmistaja sen voi määritellä piiirilleen - jos aikoo arvuutella niin myyntiin päässeiden tuotteiden suhteista voisi jotain päätellä ainakin tuotantorajoitteisissa tilanteissa - tai näin itse päättelisin, vastustus kyseiselle päätelmälle vaan tuntuu olevan suurta.
Olen ihan samaa mieltä siitä että AMD:n saannot vaikka 5950x:n hyvän chipletin osalta tuskin on ne 97% mitä virhetiheyden mukaan voisi päätellä (koska asic quality ja binnaus). Vastustan vain ajatustasi siitä että nyt julkaistujen neljän tuotteen perusteella voisi kovin paljoa päätellä mistään muusta kuin nykyisestä markkinatilanteesta. Odotellaan rauhassa ne loput ~45 samaa chiplettiä käyttävää tuotetta ja katsotaan sitten.
 
Ja intel vissiin sit heittää kyseiset prossut roskiin (käyttämiesi sanamuotojen perusteella reippaasti yli 50%), ne kun ei myy enää mobiilisiruja ilman HT:ta?

Kaikesta voi spekuloida jos haluaa mutta miksi pitäisi? Renoirin osalta vain tuo SMT:n selkeä vaikutus ytimen energiatehokkuuteen on testattu kolmansien osapuolien osalta tarjoten aika lailla sataprosenttisen selityksen miksi AMD tällä kertaa myy SMT-disabloituja prosessoreja - parantaakseen piriiensä energiatehokkuutta.

Olen ihan samaa mieltä siitä että AMD:n saannot vaikka 5950x:n hyvän chipletin osalta tuskin on ne 97% mitä virhetiheyden mukaan voisi päätellä (koska asic quality ja binnaus). Vastustan vain ajatustasi siitä että nyt julkaistujen neljän tuotteen perusteella voisi kovin paljoa päätellä mistään muusta kuin nykyisestä markkinatilanteesta. Odotellaan rauhassa ne loput ~45 samaa chiplettiä käyttävää tuotetta ja katsotaan sitten.

Koko chiplettihän on kehitylty nyt aivan sataprosenttisesti vastaamaan näiden uusien prosessien huonoja yieldejä. Ja sama tilanne on kaikilla valmistajilla, suuret piirit alkavat olemaan niin haastavia valmistaa että lähes kaikkien on jossain vaiheessa lähdettävä rakentamaan piirejään pienemmistä helmpommin valmistettavista osasista.
 
Koko chiplettihän on kehitylty nyt aivan sataprosenttisesti vastaamaan näiden uusien prosessien huonoja yieldejä. Ja sama tilanne on kaikilla valmistajilla, suuret piirit alkavat olemaan niin haastavia valmistaa että lähes kaikkien on jossain vaiheessa lähdettävä rakentamaan piirejään pienemmistä helmpommin valmistettavista osasista.
Mahtaako olla myös helpommin jäähdytettävissä tuommoinen 2x6 tai 8x8 rypäs hieman erillään toisistaan kuin kaikki ytimet samassa köntässä?
 
Koko chiplettihän on kehitylty nyt aivan sataprosenttisesti vastaamaan näiden uusien prosessien huonoja yieldejä. Ja sama tilanne on kaikilla valmistajilla, suuret piirit alkavat olemaan niin haastavia valmistaa että lähes kaikkien on jossain vaiheessa lähdettävä rakentamaan piirejään pienemmistä helmpommin valmistettavista osasista.
Kyllä, mutta 7nm ei ole enää "uusi" prosessi. Sillä on tehty piirejä jo niin kauan että isommatkin piirit onnistuisi ja pienissä chipleteissä voidaan tehdä aggressiivisempaa binnausta. Sama prosessi kuin zen2, mutta korkeammat kellot. Eli parempaa binniä tarjolla riittävästi.

Chiplet mahdollistaa kuitenkin hyppäämisen uuteen valmistusprosessiin todella aikaisessa vaiheessa verrattuna monoliittiseen piiriin. Eli amd tapauksessa kohta (zen4) päästään jo 5nm prosessille. Uudella prosessilla ja oikeasti huonoilla saannoilla se ero alkaa kasvaa todella isoksi että tehdäänkö pieniä vai isoja piirejä. Isoja piirejä ei olisi edes mahdollista tehdä, mutta pikkupiireillä voidaankin hypätä kelkkaan reilusti aikaisemmin. Chipleteissä on viiveongelmat yms, mutta ne mahdollistaa tuoreiden ja entistä enemmän vaihtelevien valmistusprosessien hyväksikäyttämisen aikaisessa vaiheessa. Zen3 ei enää "tarvitsisi" olla chiplet, mutta ei sitä kannata noin vain monoliitiksi muuttaa. Chiplettejä tarvitaan taas zen4 kanssa, jotta saataisiin yhtään mitään myytäväksi kelpaavaa ulos.
 
Koko chiplettihän on kehitylty nyt aivan sataprosenttisesti vastaamaan näiden uusien prosessien huonoja yieldejä. Ja sama tilanne on kaikilla valmistajilla, suuret piirit alkavat olemaan niin haastavia valmistaa että lähes kaikkien on jossain vaiheessa lähdettävä rakentamaan piirejään pienemmistä helmpommin valmistettavista osasista.

Sanoisin että enemminkin Jim Kellerin oppikirjasta suoraan. Kuinka säästetään R&D kuluja tuottamalla yksi CPU lastu jolla voi kattaa lähes kaikki markkinasegmentit, ukko oli fiksu. Sama juttuhan oli I/O lastun käyttäminen X570 piirisarjana.

Tietysti siinä tulee bonuksena nuo edut valmistuksessa ja miinuksena viiveet ja kalliimpi paketointi.
 
Niin ja se yieldien laskenta ei ihan onnistu jakamalla piirin kokoa foundryn defect densityllä, esimerkkinä googlailin tälläisen:

Juu, tuolla saadaan vähennettyä sitä todennäköisyyttä, että virhe tuottaa toimimattoman piirin. Todellisuudessa yieldi lienee siis ennemmin yli 97% kuin alle.
 
Juu, tuolla saadaan vähennettyä sitä todennäköisyyttä, että virhe tuottaa toimimattoman piirin. Todellisuudessa yieldi lienee siis ennemmin yli 97% kuin alle.

Hyvin tulkittu. Jokainen metallikerros lasketaan erikseen, kerroksia nykyprosessoreilla on sen parikymmentä. Joka kerrokselle toki on oma defect ratensa, kaikki kerrokset eivät ole samanlaisia. 7nm prossussa noita tarkkoja metallikerroksia on kuitenkin useampia, otetaan yksinkertaisuuden vuoksi 11 jolloin saadaan 0.09 defect ratella neliösentin piirin yieldiksi noin nolla. Tähän sitten tarvitaan niitä prosessin yieldinparannukseen tähtääviä tekniikoita, eli osa piiristä kuten ulomman tason cachet saadaan redundanssilla käytännössä täysin virheensietäväksi, hylätään vain virheen omaava palanen ja käytetään varalle tehtyä palasta sen sijaan. Kuitenkin joka piiriissä on osia joita ei voi duplikoida, tuossa dokumentissa niitä kutsutaan kriittiseksi areaksi. Suhteutttamalla krittinen area joka layerista(jonka tietää sen piirin suunnittelija)defect densityyn ja noihin muihin arvoihin voi ennustaa saavutettavat saannot kohtuullisen tarkasti.

Ja prossullahan noita krittisiä alueita on käytännössä joka ydin erikseen, eli sellaisen osuessa kohdalle prosessori on pelastettavissa käyttöön vähäisemmällä ydinmäärällä, ja GPU-puolella per CU.


Mutta siis saantojen laskeminen kertomalla piirin pinta-ala defect densityllä ei perusta yhtään mihinkään. Täysin huuhaa tuloksien viljely täytenä faktana ihmetyttää, varsinkin kun on lopulliset tuotteetkin selvästi edustavat sitä että tuotanto on kaukana virheettömistä lopputuloksista.
 
7nm prossussa noita tarkkoja metallikerroksia on kuitenkin useampia, otetaan yksinkertaisuuden vuoksi 11 jolloin saadaan 0.09 defect ratella neliösentin piirin yieldiksi noin nolla.

Huoh. Mistä lähin defect density laskettais jokaiselle valotukselle erikseen, kun kyseinen arvo on annettu koko prosessille? Luonnollisesti joka osavaiheelle prosessissa on oma lukunsa, mutta TSMC ei niitä ilmoita sillä niistä ei ole niiden asiakkaille mitään hyötyä.

Mutta siis saantojen laskeminen kertomalla piirin pinta-ala defect densityllä ei perusta yhtään mihinkään. Täysin huuhaa tuloksien viljely täytenä faktana ihmetyttää, varsinkin kun on lopulliset tuotteetkin selvästi edustavat sitä että tuotanto on kaukana virheettömistä lopputuloksista.
Mitään parempaakaan statsia ei oikein ole. Jos kerran tiedät alasta niin paljon enemmän, niin näytäppä jollain laskukaavalla mitä se oikea yieldi sitten on ja kuinka paljon se on pielessä verrattuna tuohon defect density * chip size lukuun.

Kovasti esität että se olisi jotain muuta, mutta mitään konkreettista et tänne saa kirjoitettua. Viittaa vaikka johonkin aikaisempiin prosesseihin ja miten tilanne silloin on mennyt, niin saadaan edes jotain vertailudataa.

Ja siis mitkä lopulliset tuotteet, viittaat noihin neljään tuotteeseen ikään kuin että ne olisivat merkittävä osajoukko koko tuoteperheestä? Onko sulla esittää jotain aiheesta? Siis että montako ehjää/rikkinäistä chiplettiä on myyty kokonaisuutena. Zen2 vastaavat luvut riittäis hyvin vertailukohdaksi. 3600 on myyny hyvin, mutta montako 8:n chipletin epyc prossua (tai 8 ytimisiä kuluttajaprossuja) on myyty jokaista tollasta kohden?

Jokaikinen kellotaajuus käyrällä on korkeammalla SMT disabloituna. Vain hyvin pieni osa piireistä on riittävän hyviä että ne kelpaavat mobiilikäyttöön SMT enabloituna,
Mä oon varmaan nyt käsittäny jotakin pahasti väärin, mutta SMT nimenomaan parantaa prosessorin energiatehokkuutta käytännössä aina. V/f käppyrä menee vähän jyrkemmäksi ehkä, mutta samalla sähkömäärällä saadaan laskettua enemmän.
 
Viimeksi muokattu:
Huoh. Mistä lähin defect density laskettais jokaiselle valotukselle erikseen, kun kyseinen arvo on annettu koko prosessille? Luonnollisesti joka osavaiheelle prosessissa on oma lukunsa, mutta TSMC ei niitä ilmoita sillä niistä ei ole niiden asiakkaille mitään hyötyä.

Jos luet em. artikkelin niin siinä selitetään kuinka defect densityn mukaan voidaan jokainen prosessorin metallikerros suunnitella niin että critical area prosessorissa saadaan mahdollisimman pieneksi. Joka piirissä osa alueesta, kuten esimerkkinä ne cache-arrayt saadaan rakennettua liki 100-prosenttisesti virheensietäväksi, osa logiikasta saadaan myös virheensietäväksi suunnittelemalla transistori-arrayt niin että mahdolliset oikosulut ja puuttuvat portit pystytään korvaamaan - tälläinen suunnittelu vain ei ole mahdollista jossain alueilla kuten CPU:n kriittisillä poluilla joilla riittävän nopea tominta vaatii optimoinnin sataprosenttisesti mahdollisimman tehokkaalle toiminnalle. Hyvien saantojen perässä piiriä suunnitellaan ja optimoidaan sen perään että nuo kriittiset alueet saataisiin mahdollisimman pieniksi - ja jaettua niin että vaikka kriittiselle alueelle sattuu virhe suurin osa piiristä saadaan kuitenkin pelastettua käyttöön. Piirivalmistajat käyttävät tähän optimointiin tuhottomasti aikaa ja rahaa ja 7nm designista tulee sen myötä aivan hävyttömän kallis.


Mutta sehän on kuitenkin kaikki aivan turhaa kun piirien saannot voi suoraan laskea foundryn defect ratesta ja piirin koosta - itse piirillä ja sen suunnittelulla ei ole minkäänlaista merkitystä saantoihin kun riittävästi yksinkertaistetaan ja tuotteiden leikkely on tietysti tehty vain markkinoinsegmentoinnin takia......
 
Jos luet em. artikkelin niin siinä selitetään kuinka defect densityn mukaan voidaan jokainen prosessorin metallikerros suunnitella niin että critical area prosessorissa saadaan mahdollisimman pieneksi. Joka piirissä osa alueesta, kuten esimerkkinä ne cache-arrayt saadaan rakennettua liki 100-prosenttisesti virheensietäväksi, osa logiikasta saadaan myös virheensietäväksi suunnittelemalla transistori-arrayt niin että mahdolliset oikosulut ja puuttuvat portit pystytään korvaamaan - tälläinen suunnittelu vain ei ole mahdollista jossain alueilla kuten CPU:n kriittisillä poluilla joilla riittävän nopea tominta vaatii optimoinnin sataprosenttisesti mahdollisimman tehokkaalle toiminnalle. Hyvien saantojen perässä piiriä suunnitellaan ja optimoidaan sen perään että nuo kriittiset alueet saataisiin mahdollisimman pieniksi - ja jaettua niin että vaikka kriittiselle alueelle sattuu virhe suurin osa piiristä saadaan kuitenkin pelastettua käyttöön. Piirivalmistajat käyttävät tähän optimointiin tuhottomasti aikaa ja rahaa ja 7nm designista tulee sen myötä aivan hävyttömän kallis.
Eli kiteytettynä defect density kerrotaan critical area prosentilla (kerroskohtaisilla luvuilla) ja piirin koolla ja ulos tulee toimivien piirien yieldi? Julkisesti ei noita kerroskohtaisia defect density lukuja tulla näkemään, sillä siitä olisi merkittävää hyötyä kilpailijoille.

Nämä toimivat piirit sitten testataan V/f käppyrän osalta ja sitten jaetaan käytettäväksi eri tuotteissa. Viallisten tuotteiden osalta taas tarkistetaan että saataisiinko ne toimimaan jossain rajoitetussa konfiguraatiossa, jos tälläinen löydetään niin sitten taas testataan V/f ja jaetaan käytettäväksi eri tuotteissa.

Niin kauan kuin matalimman binnin tuote voi olla maksimikelloiltaan ja hyötysuhteeltaan melko kehno, niin jotakuinkin kaikki piirit saadaan käytettyä.

tuotteiden leikkely on tietysti tehty vain markkinoinsegmentoinnin takia
Hyvin suurelta osin näin on tehty intelin leirissä pieni ikuisuus. Nyt saatavilla olevien tietojen perusteella myös AMD on hommaan lähtenyt.
 
Palaten aikaisempaan keskusteluun 7nm yieldeistä, tässä taas yksi esimerkki, eli selkeästi hinnoittelun kautta on nähtävissä että AMD haluaa myydä pääasiassa 6-ytimen versioita Zen3:sta. Jos piirien yieldit olisivat tosiaan 93% tässä ei olisi mitään järkeä vaan piirit kannattaisi hinnoitella niin että myynti koostuisi pääosin 8-ytimen piireistä ja noita rampautettuja versioita myytäisiin sen verran mitä niitä luonnostaan syntyy. -> todelliset toteutuvat saannot 8-ytimen chipleteille on paljon huonommat ja AMD hinnoittelullaan koittaa pitää huolen siitä että pääosa myytävistä piireistä voidaan valmistaa pelastetuista 6-ytimisistä versioista.

Aivan, Zen 2:ssa AMD sai hitosti hyötyä siitä että ne voi ottaa yhdestä CCXs kolme toimivaa ydintä unohtaen sen yhden, ja "liimailla" näistä eri konfiguraation prossuja.

Nyt kun AMD myös tekee isoja 8 ytimen CCX:siä niin tilanne on hyvin eri. Mielestäni mä mainitsin aiemmin että se chiplet systeemi(käytin kai väärää termiä tai en selittänyt täsmällisesti mihin vittasin) oli halpa mutta tulevat eivät tule olemaan, ja joku väitti että nää tulevat eivät tule olemaan sen kalliimpia kuin Zen 2.

Tässä on paljon ollut juttua noista saannoista joista en ymmärrä tuon taivaallista. Mutta, kannattaa muistaa että hintat on kuitenkin vähemmän riippuvainen tuotantokustannuksista.

Zen 3:n hintoihin vaikuttavista tekijöistä:
Ymmärtääkseni Zen 2:sta ei juurikaan käytetty OEM pöytäkoneissa. OEM valmistajat myyvät lähes kaikki tietokoneet. Pienet nyrkkipaja OEM:t ja komponetteina koneensa hankkivat ovat pieni vähemmistö. JOS Zen 3 pääsee nyt kunnolla OEM valmistajien koneisiin, sinne menee valtavasti hieman huonompia piirejä. Se muuttaisi sitä asetelmaa minkä verran ja millaisia Zen 3 piirejä voidaan myydä Ryzeneinä, mitkä Epyc:nä ja TR vielä lopuksi, luulen kyllä ettei TR ole kovin merkittävä näistä kolmesta/neljästä segmentistä.

Teho: Zen 3 nyt selvästi vastaa 10 gen Inteliä. 11th gen tulee olemaan Intelille merkittävä edistysaskel, muttei, uskoisin, niin suuri happaus suorituskyvyssä. Kilpailutilanteen kautta tulee se hinta. R5 5600x ei kilpaile jotain kerroinlukittua i5:sta vastaan, vaan nyt suoraan 10600K:ta. Jne. Joten nää on kaikki sitä myöten kalliimpia. Ei se pelkkä R5 määrittele hintaa tai segmenttia, vaan sen R5:n suorituskyky.

Kolmatta unohtamatta:
AMD-Mindfactory-Market-Share-November-2019-mMr8FET.png


73040_03_mindfactory-data-amd-is-outselling-and-smashing-intel-87-to-just-13_full.png


Jätän tarkoituksella nämä sen tarkemmin selittämättä. Sanotaan vain että Mindfactory on tarpeeksi iso myyntimääriltään että heidän tilastonsa kertovat tilanteesta yleisesti. Mutta tuossa näkyy aika selkeästi jotain joka hyvin voi nostaa Zen 3:n hintaa ellei jokin muu sitä estäisi. (siis nostaa suhteessa Zen 2:een) Siis käytännössä tuo olisi ilmoitetuissa hinnoissa jo mukana.


Pitäisikö yhtälöön ottaa myös se, että kuinka kauan prosessori olisi käytössä? Eikö nyt ole jo pelejä joissa esim. 6C6T prosessorit alkavat pahimmillaan tukehtua? Kysyn ihan sen vuoksi etten tiedä vastausta :)

Tällä hetkellä on muutamia pelejä joissa 6/12 toimii selvästi nopeammin kuin 6/6. Itse ostin just tuossa pari kuukautta sitten 9600k:n. Paras mahdollinen valinta olisi mulle ollut 3300X. Maksimaalisen vähän rahaa kiinni sekä prossuun että emoon. Joku tuossa edelliselläkin sivulla sanoi saman. Sillä olisi helposti pärjännyt 4k peleissä monta vuotta, ja sitten päivittää pelkkä prossu vaihtamalla johonkin 6 tai mahdollisesti 8 ytimiseen Zen 2 tai Zen 3, riippuen hinnoista. Mä en silloin keväällä/kesällä enkä vieläkään edes haaveile mistään 8 ytimisestä, en usko että suhteellisen vaatimattoman budjetin luokassa sille saa mitään hyötyä peleissä, verrattuna jos pitää ne rahat ja laittaa ne näyttiksen päivitykseen 3 vuoden päästä.
Mutta AMD ei halunnut mun rahojani kun ei valmista tai kertonut mitään tuon prosessorin tulevaisuudesta. Luultavasti se on pysyvästi lopetettu, mutta AMD ei ilmoittele tuollaisista. Joten 9600k:n sain parempaa vastinetta rahalle kuin ainosta järkevästä verrokista eli se R5 3600. Jos en olisi hieman enakkoon tuota hankkinut kun tässä vielä odotellaan 3070:as, niin en ihan äkkiseltään tiedä mikä tässä hetkessä ja nyt olisi valintani. Zen 3 on silti aika kallis, en haluaisi laittaa 300 euroa pelkkään prosessoriin.

6/6 suorituskyky ei ole kovin relevanttia enää, kun mahdollisia malleja joita voi ostaa on niin vähän. Jos joku miettii jonkun 8 ytimisen Zen 2:n ja 6 ytimisen Zen 3:n välillä, olen aika varma että seuraavat 4 vuotta jälkimmäinen antaa paremman vastineen rahoille peleissä. Toki noiden vanhojen 8 ytimisten ja isompienkin hinnat tippuvat nyt Zen 3:n alla, ja se porukka joka aina tykkää uusimmasta suht high end kamasta päivittää Zen 3:een, niin voi saada käytettynä edullisemmin parempia 8 ja 8+ malleja, siis erityisesti näitä X ja XT malleja. Toki laskennallisesti joku R5 2600 tai myös 3600 antaa enemmän suorituskykyä per euro, mutta ei niitä enää kenekään kannata hetkeäkään harkita, ellei budjetti ole todella vaatimaton.

Eli syy miksi esim. 2600K oli niin hyvä prosessori ja käytännössä osa vasta nyt noin 10 vuoden käytön jälkeen (otaksuen että hankkivat uuden prosessorin 2021 alkuvuodesta) siirtyy AMD:n uusiin prosessoreihin/emoihin tai kuten itse tein vasta 2017 hankin seuraavan prosessorini johtui ihan siitä että Intel nysväsi ja jopa tahallaan esti useamman ytimen käyttöönoton peruskuluttajamalleissa.
Todella valtava ajatusvirhe.

AMD:stä se nimenomaan johtui. Jokainen yritys tietää että sisäinen kilpailu on todella huono. Jokunen firma on mennut konkurssiin sitä yrittäessä. Ei ole mitään järkeä alkaa kilpailemaan omien tuotteiden kanssa. Suurille yrityksille se ei olisi edes helpolla laillista.

AMD oli kyvytön kilpailemaan Intelin kanssa. Verrattain hidas kehitys johtui tästä ja vain tästä.

jolloin ostamalla 5950X prosessorin ja kellottamalla sen (jos se onnistuu) esim. ~5GHz se riittäisi oikein hyvin seuraavat ~10 vuotta käyttöä vaikka uudemmat prosessorit ehtisivät saada noin 20% tehonlisäystä (2600K vs 7700K).

Kuten yllä mainittu, ne olosuhteet eivät ole enää olemassa mitä jollain Sandy Bridgellä oli. Ne olosuhteet ovat hyvin dramaattisesti muuttuneet.

Kymmenen vuoden päästä 5950X tulee olemaan välttävä suorituskyvyltään, monet uudet läppärit ovat siinä aikana menneet jo sen ohi.

Ehkä 10 vuoden jälkeen myös kokonaismyynnissä näkyy muutos joka lisää kilpailua ja siten kehityksen nopeutta(Kiina ja Intia). Mutta sitä ei vielä tule näkymään 5 vuoden jälkeen.

6- ja 8-ydin mallien hintatasossa näkyy selvästi tarve pitää zen2:set pois polkumyynnistä. Zen2:sia ei kannata puoli-ilmaiseksi myydä kun niiden kysyntä ei ole vähentynyt tämän vuoden aikana.

Jep, Zen 2 voi edelleen olla tuotannossa. Zen 2 palvelee paikkaansa alemmassa hintaluokassa. Mutta Zen 3:lla täytyy olla jotain millä se voi olla kalliimpi kuin Zen 2. Suorituskyky, ja sitä sillä on.
 
Uusia vuotoja Zen 3 -suorituskyvystä:
AMD's Ryzen 5000 Zen 3 CPUs Crush Zen 2 In Live Benchmark Database With Jaw-Dropping Scores

SiSoftware Sandra processor multimedia benchmark:
- 5950X vs. 3950X -> +25%
- 5900X vs. 3900X -> +35%
- 5800X vs. 3800X -> +42%

Nautitaan suolarakeiden kanssa.
Jos se +19% IPC oli "keskiarvo", niin jossain asioissa nousun pitää olla reippaasti isompaa. Sinällään ei siis olisi mahdottomia lukuja nuokaan. Suolaa toki, kun ei voida varmistaa järjestelmiä.
 
Eikös noissa kaikissa ollut sama TDP?
Se varmaan selittää sen miksi pienemmällä coremäärällä hyppt on isompi...
 
Hyvä että tuo yleinen prosessorinvalmistuskeskustelu näyttäisi laantuneen lopulta itsestään. Alkoi mennä jo vahvasti offtopicin puolelle tässä ketjussa, vaikka mielenkiintoista settiä taas olikin :thumbsup:
 
Jos se +19% IPC oli "keskiarvo", niin jossain asioissa nousun pitää olla reippaasti isompaa. Sinällään ei siis olisi mahdottomia lukuja nuokaan. Suolaa toki, kun ei voida varmistaa järjestelmiä.
Ko. testivuodossa oli mukana myös Sandran aritmeettiset testitulokset, joissa erot odotetut 15-19%. Tulokset olivat myös Zen 2 -prossujen osalta oikeassa haarukassa. Zen 2 vs. 3 vertailut olisi suoraviivaista tehdä samalla testipenkillä CPUta vaihtamalla.

Eikös noissa kaikissa ollut sama TDP?
Se varmaan selittää sen miksi pienemmällä coremäärällä hyppt on isompi...
Juu 105W kaikissa. Yksittäisessä semi-yleisessä benchmarkissa yli 40% parempi tulos peräkkäisten generaatioiden välillä olisi todella iso parannus, joten eipä tuota suorilta pysty nielemään.
 
Juu 105W kaikissa. Yksittäisessä semi-yleisessä benchmarkissa yli 40% parempi tulos peräkkäisten generaatioiden välillä olisi todella iso parannus, joten eipä tuota suorilta pysty nielemään.
Jos joku working set mahtuu kokonaan sinne L3 välimuistiin, mutta ei zen2 prossulla mahtunut, niin jopa yli 40% parempia tuloksia on periaatteessa mahdollista saavuttaa. Tietämättä tarkemmin että mitä kyseisessä testissä tehdään on vaikea arvioida että kuinka luotettava kyseinen tulos on.

edit: esimerkiksi jos ohjelma tekee paljon satunnaisia muistihakuja muistiavaruudesta jonka koko on tasan tuo 32M, niin välimuistiin (RAM) ei tarvitse mennä koskaan, siinä missä Zen2 joutuu keskimäärin joka toisen haun tekemään välimuistin kautta. Niin kauan aikaa kun varsinainen luvuilla tehtävä laskenta ei ole ollenkaan raskasta niin suorituskyky moisen ohjelman osalta rajautuu täysin muistiviiveiden mukaan. Jos zen3:n lantenssit pysyvät suht samanlaisina, niin edellä kuvattu ohjelma pyörisi n. 200% nopeammin zen3:lla kuin zen2:lla. Esimerkki on vain hypoteettinen ja minkään oikeaa ongelmaa ratkaisevan hyvin optimoidun ohjelman kohdalla moinen nopeutus ei ole missään määrin realistista. 40% nopeutus taas voi jossain tilanteissa olla jopa ihan mahdollinenkin.
lat3900linear_575px.png
 
Viimeksi muokattu:
Osittain tuota parannusta voi myös sekin selittää että jos nuo (keskimääräisen) 19% parannukset on käsittääkseni laskettu 100% "samoilla" asetuksilla (eli taisi olla 4GHz kellot, 3200 DDR4 muistit samoilla asetuksilla + tietysti näytönohjain samoilla käsinasetetuilla asetuksilla).

"Oikeassa" käytössä ainakin huhujen mukaan muistit menisivät entiset 3600 sijaan 4000 (ja osalla yksilöistä ehkä enempi) jolloin IF myös nousisi nopeammaksi.

Tällä hetkellä nuo buustit ovat lähes 100% ajasta lähemäpänä 4GHz kaikilla ytimillä rasituksen aikana ja jopa satunnaisessa ns. peli tai muussa käytössä noin 4.3GHz tms. Ainakin 3900X prosessorilla, automaattikelloilla ja ilmajäähyllä. Kun taasen tuolla 5000 sarjalla ilmeisesti myös nuo buustit ovat sitten järjestään parempia ja ehkä myös oikeasti pysyvät niissä pidempiä aikoja.

Käsin laittaen itselläni on CCX 1-2 4325MHz, CCX3 4275MHz ja CCX4 4225MHz 1256mV, muistien ollessa 3200MHz prosessorin ollessa 3900X.
Mikäli 5900X pääsee muisteissa 3800MHz, kellot saa esim. CCX 1-2 4.7GHz, CCX3 4.6GHz ja CCX4 4.55GHz 1.25mV luulisin että tuo keskimääräinen 19% ja suurempi L3 välimuisti + kellot ja muistit voisi keikauttaa tuon helposti joissakin sovelluksissa jopa sen +40%.

Toki sekin täytyy muistaa että kun nyt on käytössä CHVI emolevy mikä on toki hyvä mutta X370 sarjaa tulevassa 5000 kivessä alle tulee myös X570 emolevy mikä voi parantaa esim. muistien ja miksei myös prosessorin kulkua.
 
Jos joku working set mahtuu kokonaan sinne L3 välimuistiin, mutta ei zen2 prossulla mahtunut, niin jopa yli 40% parempia tuloksia on periaatteessa mahdollista saavuttaa. Tietämättä tarkemmin että mitä kyseisessä testissä tehdään on vaikea arvioida että kuinka luotettava kyseinen tulos on.
Ilmeisesti tuo sandran multimediatesti on puhdas laskentayksikkötesti ja datasetti on niin pieni ettei välimuisteja tarvita. Se indikoisi että laskentaresursseja on 50% enemmän FPU:ssa.
 
Onkos 3700X:n seuraajasta ollut vielä mitään tietoa/huhua? (Sori en lukenut ketjua)
Tuo 5800X on vaan suhteellisen kallis, jos vertaa 5900X:n kanssa.
Itselle varmaan riittäisi jo tuo 6-ytiminenkin, mutta jos 65W 8-ytiminen on myös tulossa, niin mieluummin ostaisin sellaisen.
 
Onkos 3700X:n seuraajasta ollut vielä mitään tietoa/huhua? (Sori en lukenut ketjua)
Tuo 5800X on vaan suhteellisen kallis, jos vertaa 5900X:n kanssa.
Itselle varmaan riittäisi jo tuo 6-ytiminenkin, mutta jos 65W 8-ytiminen on myös tulossa, niin mieluummin ostaisin sellaisen.
Amd ei ole paljastanut julkaisun jälkeen oikeastaan yhtään mitään lisätietoa mistään. Eli ne mallit on ne mitän nyt on. Huhupajatkaan ei ole jauhaneet oikein mitään lisätietoa mistään.
 
Uusia vuotoja Zen 3 -suorituskyvystä:
AMD's Ryzen 5000 Zen 3 CPUs Crush Zen 2 In Live Benchmark Database With Jaw-Dropping Scores

SiSoftware Sandra processor multimedia benchmark:
- 5950X vs. 3950X -> +25%
- 5900X vs. 3900X -> +35%
- 5800X vs. 3800X -> +42%

Nautitaan suolarakeiden kanssa.

Sandra on mikrobenchmark. Sen testit mittaa yksittäisiä hyvin pieniä rutiineja.


Sandran multimediatesti laskee käsittääkseni mandelbrottia SIMD-vektoreilla kokonaisluvuilla. Mandelbrotin ydin on kompleksiluvun korottaminen toiseen potensssiin sekä tämän jälkeen yhteenlasku. Ja tulos muodostetaan vertaamalla kompleksiluvun itseisarvoa vakioon

Eli koostuu kolmesta kertolaskusta, yhdestä shiftauksesta ja n. neljästä yhteenlaskusta, sekä vertailusta, ja vertailun jälkeen tuloksen valitsemisesta.
Siitä, millä käskysekvenssillä tuo tuloksen valitseminen saadaan kätevämmin tehtyä en ole nyt ihan varma, en tunne AVX2sta tarpeeksi hyvin.

Zen2ssa on vain yksi kokonaislukujen kertolaskuun kykenevä yksikkö SIMD-puolella, ja vain yksi shiftausyksikkö SIMD-puolella.

Eli jos zen3ssa tulee kaksi SIMD-kokonaisluku-kertolaskijaa, se voisi nopeuttaa tätä inner looppia vähintään kellojaksolla. Tosin yksin ei ehkä ihan riitä, ehkä sen lisäksi vielä joku joka nopeuttaa esim. tuota tuloksen valitsemista.
 
Onkos 3700X:n seuraajasta ollut vielä mitään tietoa/huhua?...
Nyt jos kristallipallooni katson, niin se olisi 8c16t, mutta 65w versio, jossa kellot olisivat pienemmät ilman kovaa kellotusvaraa (olettaen että ovat vähemmän vuotavia yksilöitä), mutta joita ei ole ainakaan ihan heti tulossa, koska tuommoiset 8c16t chipletit taidetaan mieluummin laittaa tuplina 3950x:iin.

...elikkä, ei mitään tietoja, ainoastaan semmosta mitä itse kukin voi spekuloida päässään.
 
Amd ei ole paljastanut julkaisun jälkeen oikeastaan yhtään mitään lisätietoa mistään. Eli ne mallit on ne mitän nyt on. Huhupajatkaan ei ole jauhaneet oikein mitään lisätietoa mistään.
5600:sta on ollut huhu, mutta 5700:sta ei.
 
Onkos 3700X:n seuraajasta ollut vielä mitään tietoa/huhua? (Sori en lukenut ketjua)
Tuo 5800X on vaan suhteellisen kallis, jos vertaa 5900X:n kanssa.
Itselle varmaan riittäisi jo tuo 6-ytiminenkin, mutta jos 65W 8-ytiminen on myös tulossa, niin mieluummin ostaisin sellaisen.
Jos pitäisi vetoa lyödä, niin veikkaisin että tulevat samaan aikaan 400 sarjan emolevytuen kanssa tammikuussa.
 
Hyötyykö amd prosessorit/muisti tai näytönohjain ssd muistin nopeudesta, jos puhutaa pelaamisesta? Esim voiko vaikuttaa fps droppeihin, jos lukunopeus on paljon suurempi tms? Vai onko kaikki tehty valmiiksi siinä vaiheessa ku olet jo serverillä?

Että onko tuo vaan rahan tuhlausta jos lyön tämän sijasta:


Tämän 5900x ryzenin kylkeen:

 
Hyötyykö amd prosessorit/muisti tai näytönohjain ssd muistin nopeudesta, jos puhutaa pelaamisesta? Esim voiko vaikuttaa fps droppeihin, jos lukunopeus on paljon suurempi tms? Vai onko kaikki tehty valmiiksi siinä vaiheessa ku olet jo serverillä?

Että onko tuo vaan rahan tuhlausta jos lyön tämän sijasta:


Tämän 5900x ryzenin kylkeen:

Ei ole hyötyä. Tästä oli muistiketjussa juuri joku vähän aikaa sitten julkaistu testikin. Ylipäätään on aika turhaa laittaa koneeseen mitään hillittömän nopeita ssd-levyjä, jos ei editoi niillä jotain videotiedostoja tms.
 
Ei ole hyötyä. Tästä oli muistiketjussa juuri joku vähän aikaa sitten julkaistu testikin. Ylipäätään on aika turhaa laittaa koneeseen mitään hillittömän nopeita ssd-levyjä, jos ei editoi niillä jotain videotiedostoja tms.
Okei eli sitte vaa tommonen halvempi kitti ku jimmsiltä tulee kaikki osat :) Haluatko linkata kyseisen testin? En itse nopealla haulla löytänyt :l
 
Ei ole hyötyä. Tästä oli muistiketjussa juuri joku vähän aikaa sitten julkaistu testikin. Ylipäätään on aika turhaa laittaa koneeseen mitään hillittömän nopeita ssd-levyjä, jos ei editoi niillä jotain videotiedostoja tms.

Juurikin näin. SATA-SSD on peleille täysin riittävä, toki M.2 asema on mukavaa kun ei tarvitse piuhoja vedellä.

Ota toki vähintään teran asema, ei 500GB ole oikein moderniin koneeseen riittävä asema kun pelkkä cod vie puolet siitä :D

FPS ei vaikuta levy pätkän vertaa, ainoastaan latausaikoihin. Ja näissä SATA levy häviää n. 1-10% nvme asemalle ja PCIe 3.0 levy häviää n. 0-3% PCIe 4.0 levylle. Kun puhutaan ajoista luokkaa 20-30 sek, niin puhutaan eroista kuten sekuntti tai äärimillään jopa kolme, eli et tule eroja huomaamaan.
 
Okei eli sitte vaa tommonen halvempi kitti ku jimmsiltä tulee kaikki osat :) Haluatko linkata kyseisen testin? En itse nopealla haulla löytänyt :l



Tuossa testi. FPS ei toki testata, mutta siihen ei minkäänlaista eroa eri asemilla tule.

Useamman vuoden päästä voi olla käytössä assettien striimaaminen suoraan levyltä, mutta siihen on turha nyt etukäteen varautua. Sitten kun sitä aletaan käyttämään, niin voi ostaa isomman ja nopeamman levyn nykyisiä halvemmalla... Ja tuskin edes tulee PC-puolelle koskaan, vaan PC:llä hyödynnetään suurta RAM-muistia, eli jää pelkäksi konsolien kikaksi.
 
Okei eli sitte vaa tommonen halvempi kitti ku jimmsiltä tulee kaikki osat :) Haluatko linkata kyseisen testin? En itse nopealla haulla löytänyt :l
Tosta vielä lisää varmistusta:



Henkilökohtaisesti säästäisin lisää ja ottaisin ihan vaan perinteisen, nopean SSD:n.
 
Hyötyykö amd prosessorit/muisti tai näytönohjain ssd muistin nopeudesta, jos puhutaa pelaamisesta? Esim voiko vaikuttaa fps droppeihin, jos lukunopeus on paljon suurempi tms? Vai onko kaikki tehty valmiiksi siinä vaiheessa ku olet jo serverillä?
Nykypeleissä SSD nopeus vaikuttaa ainoastaan latausnopeuksissa. Aikoinaan peleissä kuten esim. Gothic 3 vaikutti alueiden streamaukseenkin kun moottori ei ollut vielä tarpeeksi kehittynyt, ja nyki sitä vähemmän mitä nopeampi kovo oli. Käsittääkseni "lautaushitaus" nyky SSD:llä on johtunut siitä, että pelit on pakattu tilansäästön takia, ja pullonkaulaksi muodostuu tällöin CPU. Tämän videon mukaan NVME ja SATA SSD ero on keskimäärin 16%, mutta esim GTA V:ssä 37%. Se vaatiikin 72GB tilaa, joten tiedostoformaatti on varmaan kohtuu vähän pakattu. Ja tämä varmaan aikoinaan siksi, että peliä on voitu streamata ilman pop-uppeja.



Luulen, että uusien konsolien myötä pelit tulevat tukemaan nopeampaa lukunopeutta, joten itse ottaisin NVME:n jo peleihinkin. Ja ton aikaisemman Linusin videon voi tunkea syvimpään suohon.
 


Tuossa testi. FPS ei toki testata, mutta siihen ei minkäänlaista eroa eri asemilla tule.

Useamman vuoden päästä voi olla käytössä assettien striimaaminen suoraan levyltä, mutta siihen on turha nyt etukäteen varautua. Sitten kun sitä aletaan käyttämään, niin voi ostaa isomman ja nopeamman levyn nykyisiä halvemmalla... Ja tuskin edes tulee PC-puolelle koskaan, vaan PC:llä hyödynnetään suurta RAM-muistia, eli jää pelkäksi konsolien kikaksi.

FPS-eroja ei pitäisi muutenkaan olla, koska engine on ladattu keskusmuistiin (RAM), jolloin SSD:sta ladataan lähinnä tekstuurit. Perus-SSD:n nopeuksien ollessa jo näinkin nopeita yksittäisten tekstuurien lataamiseen ei pitäisi kulua montaakaan mikrosekunttia muutenkaan.

Tällä hetkellä perustason NVMe-levy on paras valinta. Koko sitten oman lompakon mukaan. SATA-levyt ovat hyviä jos tarvitsee useita teroja peli- tai varastotilaa esim projektitiedostoille yms.

Jos oikein hurjaksi haluaa ryhtyä, niin voihan sitä pystytellä RAM Diskiä. Käyttäen siis RAM-muistia nopeana levynä. :)
 
FPS-eroja ei pitäisi muutenkaan olla, koska engine on ladattu keskusmuistiin (RAM), jolloin SSD:sta ladataan lähinnä tekstuurit. Perus-SSD:n nopeuksien ollessa jo näinkin nopeita yksittäisten tekstuurien lataamiseen ei pitäisi kulua montaakaan mikrosekunttia muutenkaan.

Tällä hetkellä perustason NVMe-levy on paras valinta. Koko sitten oman lompakon mukaan. SATA-levyt ovat hyviä jos tarvitsee useita teroja peli- tai varastotilaa esim projektitiedostoille yms.

Jos oikein hurjaksi haluaa ryhtyä, niin voihan sitä pystytellä RAM Diskiä. Käyttäen siis RAM-muistia nopeana levynä. :)

Pieni villi kortti tässä on kuitenkin toi uusien konsoleiden mukana tuleva uusi tapa SSD:n hyödyntämiseen peleissä, joka Windowsin puolella on tulossa Direct Storage nimellä: DirectStorage is coming to PC | DirectX Developer Blog
Nvidian puolella puhutaan RTX IO:sta: NVIDIA RTX IO: GPU Accelerated Storage Technology

Toki toinen asia on sitten kannattaako tuohon varautua vielä tässä kohtaa kun todellista nopeusvaikutusta ei vielä tiedetä ja toi todellisesti näkyy pc-peleissä varmaan yli vuoden päästä jolloin saa todennäköisesti taas nopeampaa ja isompaa ssd:tä halvemmalla. Ehkä harkittavissa kuitenkin jos on m2-paikat on muutenkin vähissä eikä aio pariin vuoteen uutta ssd:tä ostaa.
 

Statistiikka

Viestiketjuista
258 101
Viestejä
4 484 152
Jäsenet
74 172
Uusin jäsen
Käppänä

Hinta.fi

Back
Ylös Bottom