Virallinen: NVIDIA vs AMD (vs Intel) keskustelu- ja väittelyketju

  • Keskustelun aloittaja Keskustelun aloittaja Sampsa
  • Aloitettu Aloitettu
Tottakai se vie aikaa, mutta kun palikat on olemassa niin varsin nopeasti (kuukausia testeineen yms.) niistä sitten lopullinen kortti muodostuu. Selvästi AMD on todennut, että tuo olisi ajan tuhlaamista koska Nvidian vastine olisi liian kilpailukykyinen. Mehän emme oikeastaan edes tiedä paljonko 2080Ti:ssä olisi teknologisesti vielä varaa repiä irti. Titanin tiedämme, mutta onko niissäkään vielä vedetty edes kaikkea irti niin vastaus on varmaankin tuskin. Ainakin Titan V nähden esim. lämmöissä olisi pelivaraa eli kyllä siellä on vielä jätetty nykyisissäkin korteissa sitä pelivaraa, tai sitten jostain syystä Nvidian kortit ei kestäisi lämpöjä, mitä epäilen.
Mulla on vähän sellainen kutina että aliarvioit ajan aika radikaalisti, tässä vähän valotusta mitä askelia perus ASICin suunnitteluprosessissa ylipäätään on
Täällä on muutama ammatikseen noita suunnitteleva, ehkä he voivat valaista lisää.
AMD taas on joutunut jo nykyisellään repimään oikeastaan kaiken irti kellottamalla korteistaan.
Kuten jokaista RTX-mallia energiatehokkaammat RX 5600 XT ja 5700 selvästi osoittavat? Se että 5700 XT ja pari muuta huippumallia viritettiin liian korkealle ei tarkoita että kaikki olisi.

"Minä taas vertailemassa referenssin arvoja koska se näyttää paremmalta ja puoltaa omaa agendaani eli näyttää AMD osalta paremmalta"

Niin paistaa taas läpi tämä puolueellisuus.
Amd referenssin kulutus luonnollisesti pienempi ihan pelkän paskan jäähynkin takia.
vähän kun otetaan parempaa mallia vertailuun niin alkaa erot 2080Ti olemaan melkoisen pienet.
Mutta tätähän ei voi sanoa koska se näyttäisi Amd kannalta huonolta, hieno homma perus touhua taas että jätetään faktat kertomatta.
Mitä ihmettä nyt taas? Tietenkin puhe on referensseistä jollei erikseen muuta mainita, sehän on ihan itsestäänselvyys.
Customeita löytyy moneen lähtöön, esimerkiksi EVGA:n yksi 2080 Ti -malli näyttäisi TPU:n testeissä rikkovan 300 watin rajapyykin averagessakin, piikkiarvon noustessa 342 wattiin. EVGA GeForce RTX 2080 Ti FTW3 Ultra 11 GB Review
 
RX 5700 ja RX 5600 XT tarjoavat parempaa energiatehokkuutta kuin yksikään NVIDIAn RTX-malli 4K-resoluutiota lukuunottamatta. .
Nyt kannattaa olla AMD tuotoksista ylpeä niin kauan kunnes Nvidian 7nm tulee jolloin kippo kääntyy ja osalla se tulee menemään täysin nurin.

Tosin energiatehokkuus Nvidia HighEnd ei lähde käsistä toisin kuin jo esim Amd 5700XT.llä.
Ja tuota Amd HighEnd saakin sitten odotella sen n.2vuotta ja tuloksena jotain 2080Ti tasoista ja taas osotusta seuraavat 2vuotta että päästäisiin vuonna 2022 samaan mihin nvidia pääsee jo vuonna 2020.

Säälittävää touhua kun ei AMD.lla mitään millä kilpailla HighEnd luokassa, ei edes 7nm myötä pystynyt saamaan 2080Ti haaatajaa, säälittävä suoritus mielestäni.
 
Mulla on vähän sellainen kutina että aliarvioit ajan aika radikaalisti, tässä vähän valotusta mitä askelia perus ASICin suunnitteluprosessissa ylipäätään on
Täällä on muutama ammatikseen noita suunnitteleva, ehkä he voivat valaista lisää.

Kuten jokaista RTX-mallia energiatehokkaammat RX 5600 XT ja 5700 selvästi osoittavat?


Mitä ihmettä nyt taas? Tietenkin puhe on referensseistä jollei erikseen muuta mainita, sehän on ihan itsestäänselvyys.
Customeita löytyy moneen lähtöön, esimerkiksi EVGA:n yksi 2080 Ti -malli näyttäisi TPU:n testeissä rikkovan 300 watin rajapyykin averagessakin, piikkiarvon noustessa 342 wattiin. EVGA GeForce RTX 2080 Ti FTW3 Ultra 11 GB Review
Jep jep.. referenssiä verrataan kun puhutaan kulutuksesta koska se näyttää paremmalta vaikka porukasta suurinosa käyttää ihan muita kuin Amd referenssejä ja syystäkin.
Toki Nvidia 2080Ti pultattuna paska bloweri jäähy kuluttaisi yhtälailla vähemmän, mutta nykyinen jäähy ei rajoita suorituskykyä eikä myöskään sitä myötä kulutusta.

Keskimäärin kun tarkastelee kaikkia custom ohjaimia niin 5700XT kulutus on melkoisesti enemmän kuin referenssissä ja nousee siis reilusti enemmän kuin 2080Ti customilla verrattuna FE malliin

2080Ti FE myös kovemmat kellot kuin vakiona eli käytännössä custom malli johon siis vertaat Amd referenssiä jotta erot näyttäisi isommilta.
Hyvin vedetty ja luulet että kukaan ei huomaisi? :lol:
 
Ja tuota Amd HighEnd saakin sitten odotella sen n.2vuotta ja tuloksena jotain 2080Ti tasoista ja taas osotusta seuraavat 2vuotta että päästäisiin vuonna 2022 samaan mihin nvidia pääsee jo vuonna 2020.
Otan vain tämän talteen ja muistutan, että AMD on suunnitellut jo konsoliin APU-piirin minkä iGPU on 2080 Super -tasoa ellei ylikin :)
 
Tottakai se vie aikaa, mutta kun palikat on olemassa niin varsin nopeasti (kuukausia testeineen yms.) niistä sitten lopullinen kortti muodostuu. Selvästi AMD on todennut, että tuo olisi ajan tuhlaamista koska Nvidian vastine olisi liian kilpailukykyinen. Mehän emme oikeastaan edes tiedä paljonko 2080Ti:ssä olisi teknologisesti vielä varaa repiä irti. Titanin tiedämme, mutta onko niissäkään vielä vedetty edes kaikkea irti niin vastaus on varmaankin tuskin. Ainakin Titan V nähden esim. lämmöissä olisi pelivaraa eli kyllä siellä on vielä jätetty nykyisissäkin korteissa sitä pelivaraa, tai sitten jostain syystä Nvidian kortit ei kestäisi lämpöjä, mitä epäilen. AMD taas on joutunut jo nykyisellään repimään oikeastaan kaiken irti kellottamalla korteistaan.

No en kyllä usko että siinä Titanissa niin kauheasti löysää on ilman että tehonkulutus alkaa karata.

Tosin energiatehokkuus Nvidia HighEnd ei lähde käsistä toisin kuin jo esim Amd 5700XT.llä.

Moni 5700XT custom on säädetty piloille. Ne ei tuo todellakaan riittävästi suorituskykyä vs tehonkulutuksen nousu. 2080Ti taas hakkaa vasten virtabudjettia pahasti ellei sitten ole joku 400W biossi kortissa jolloin se ei kyllä ole enää todellakaan mikään energia tehokas kortti.
AMD:n ja nvidian ero on siinä että AMD:llä virtabudjetin nosto onnistuu suhteellisen helposti kun taas nvidialla pitää säätää shunttimodien kanssa jollei jostain löydy biossia jossa huomattavasti anteliaampi virtabudjetti jolloin voidaan sitten samalla heittää hyvästit sille paljon ylistetylle energiatehokkuudelle.

Ja tuota Amd HighEnd saakin sitten odotella sen n.2vuotta ja tuloksena jotain 2080Ti tasoista ja taas osotusta seuraavat 2vuotta että päästäisiin vuonna 2022 samaan mihin nvidia pääsee jo vuonna 2020.

Lähdettä tälle väittämälle kiitos. Minä väitän että RDNA2:lla julkistettava iso Navi 2 joka on siis vahvistettu jo AMD:n toimesta että sellainen julkaistaan, tulee olemaan SELVÄSTI 2080Ti tehokkaampi. Ja se tulee myyntiin enne vuotta 2022, todennäköisesti tämän vuoden lopulla.
Se miksei vielä ole 2080Ti:lle haastajaa on jo moneen kertaan perusteltu joten sitä on enää turha jauhaa.
 
Otan vain tämän talteen ja muistutan, että AMD on suunnitellut jo konsoliin APU-piirin minkä iGPU on 2080 Super -tasoa ellei ylikin :)
Pääseeköhän sillä konsolilla peliin asti ihan julkaisussa, vai pitääköhän tehä shamaanimaisia salatansseja piuhakasan, yhteensopivien SSDeiden ja biospäivityksien kanssa, että homma lähtee rullaamaan? :geek:
 
Tämäkin pitää kyllä ottaa talteen :rofl2:
Ota toki.
Odotellessa suosittelen tätä videota:


Gears 5 portattuna XSX:lle kahdessa viikossa, PC 4K Ultra -asetukset ja vähän päälle, ei hyödynnä vielä konsolin uusia ominaisuuksia kuten DirectStoragea jne, pyörii lukittuna 60 FPS:n nopeudella. Threadripper + RTX 2080 ylsi suurinpiirtein samaan tulokseen (tosin videossa on myös RTX 2080 Ti + 3900X tulos samoilla tietämillä, mutta se on vissiin eri kohdasta peliä tms)
 
Tämäkin pitää kyllä ottaa talteen :rofl2:
Ihan realistinen arviohan tuo on.

-2080S FE on n. 30% nopeampi kuin refu 5700XT.
-XSX GPU:ssa on tasan 30% enemmän ytimiä kuin 5700XT:ssä.
-Kelloiltaan XSX GPU ja refu 5700XT lähes samat.

Muistirakenteen erojen ja arkkitehtuuriparannusten vaikutusta 5700XT vs XSX GPU:n väliseen eroon on vaikeampi arvioida. Negatiivisia ne tuskin ovat, ainakaan jälkimmäinen.

Mihinkäs GPU:hun itse veikkaisit, että XSX GPU:n suorituskyky vertautuu parhaiten?
 
RDNA2 highend kortin pitäisi peitota helposti joku 2080Ti, joka on vanhaa tekniikkaa, vanhalla prosessilla valmistettuna.

Ongelma vain AMD:n kannalta on se, että maalitolpat siirtyvät ilmeisesti hyvinkin samoihin aikoihin ja se, jolle pitää pärjätä onkin 3080Ti, jos aikoo highendissä kilpailla. Ja 3080Ti saa edun VS 2080Ti sekä valmistusprosessin selkeästä kehitysaskeleesta, että itse arkkitehtuurin kehittymisestä.. Tuskimpa Nvidiakaan on paria vuotta peukalo haitarissa ihmetellyt hienoa arkkitehtuuriaan, vaan sitä on kehitetty jonkinlainen askel myös arkkitehtuurina eteenpäin..

Tällähetkellä en ole nähnyt mitään edes semiluotettavaa tarkempaa tietoa tulevan 30xx:n suorituskyvystä ja muista arvoista. Siitä on selkeästi vähemmän tietoa liikkeellä, kuin RDNA2:sesta, jolla ajettuja konsolibetoja peleistä jo nähty..
 
No kyllä se olisi tehty, jos siitä olisi oikeasti saatu järkevä ilmajäähyllä toimiva piiri, josta olisi voinut saada voittoakin.

Ei mitään takeita että jollain ''RX 5900'' :lla olisi tehty voittoa. Markkinaosuuden ollessa mitä se on, moni olisi silti ostanut Nvidiaa ''koska Nvidia''. Suunnittelupöydältä sinne julkaisuun kuluu hemmetisti rahaa, eikä AMD:lla ole Nvidian tavoin talous siinä kunnossa, että on hirveästi varaa tehdä tappiollisia julkaisuja. Toki olisi sillä voitu tehdä voittoakin, tämä on ihan spekulatiivista.

Minusta ei mikään maailman huonoin veto AMD:lta satsata resurssit siihen RDNA2:seen, kun ei nuo aiemmat VII:t yms. ole tainneet olla kovin suuria menestyksiä. Ne jotka haluaa highest endiä, voi ostaa sitä saatanan ylihintaista Nvidiaa. Laittakaa Nvidialaiset sormet ristiin, että AMD RDNA2:sella pärjää myös highest endissä, tai saatte maksaa seuraavastakin kortistanne sitä Nvidia-lisää. @Lepakomäyrä erityisesti. Toki sinä varmaan maksat ilomielin ekstraa, kunhan AMD vain epäonnistuisi?
 
Ihan realistinen arviohan tuo on.

-2080S FE on n. 30% nopeampi kuin refu 5700XT.
-XSX GPU:ssa on tasan 30% enemmän ytimiä kuin 5700XT:ssä.
-Kelloiltaan XSX GPU ja refu 5700XT lähes samat.

Muistirakenteen erojen ja arkkitehtuuriparannusten vaikutusta 5700XT vs XSX GPU:n väliseen eroon on vaikeampi arvioida. Negatiivisia ne tuskin ovat, ainakaan jälkimmäinen.

Mihinkäs GPU:hun itse veikkaisit, että XSX GPU:n suorituskyky vertautuu parhaiten?

Ei ainakaan Nvidian omaan 2080 MAX-Q piiriin, vaikka presentaatio toista väittikin. Notebookcheck testasi tuon kannettavan, valikoista saa kaivettua muita näytönohjaimia rinnalle. Esim witcher 3 1080p resolla 14% hitaampi mitä desktopin 5700XT.

max-q-edit.jpg
 
Ei ainakaan Nvidian omaan 2080 MAX-Q piiriin, vaikka presentaatio toista väittikin. Notebookcheck testasi tuon kannettavan, valikoista saa kaivettua muita näytönohjaimia rinnalle. Esim witcher 3 1080p resolla 14% hitaampi mitä desktopin 5700XT.
NVIDIA tehnyt sopimuksen Nintendon kanssa seuraavan sukupolven Switchistä mihin menee taas joku muutaman vuoden vanha off-the-shelf tegra niin ei edes valehtelisi tuo kuva :btooth:
 
NVIDIA tehnyt sopimuksen Nintendon kanssa seuraavan sukupolven Switchistä mihin menee taas joku muutaman vuoden vanha off-the-shelf tegra niin ei edes valehtelisi tuo kuva :btooth:

Jos en väärin muista lukeneeni niin tintento hyppää AMD kelkkaan, ovat ilmeisesti tulevan simsungin SoC:n perässä.
 
Tottakai se vie aikaa, mutta kun palikat on olemassa niin varsin nopeasti (kuukausia testeineen yms.) niistä sitten lopullinen kortti muodostuu. Selvästi AMD on todennut, että tuo olisi ajan tuhlaamista koska Nvidian vastine olisi liian kilpailukykyinen. Mehän emme oikeastaan edes tiedä paljonko 2080Ti:ssä olisi teknologisesti vielä varaa repiä irti. Titanin tiedämme, mutta onko niissäkään vielä vedetty edes kaikkea irti niin vastaus on varmaankin tuskin. Ainakin Titan V nähden esim. lämmöissä olisi pelivaraa eli kyllä siellä on vielä jätetty nykyisissäkin korteissa sitä pelivaraa, tai sitten jostain syystä Nvidian kortit ei kestäisi lämpöjä, mitä epäilen. AMD taas on joutunut jo nykyisellään repimään oikeastaan kaiken irti kellottamalla korteistaan.
Mulla on vähän sellainen kutina että aliarvioit ajan aika radikaalisti, tässä vähän valotusta mitä askelia perus ASICin suunnitteluprosessissa ylipäätään on
Täällä on muutama ammatikseen noita suunnitteleva, ehkä he voivat valaista lisää.
No niin, pääsin jutustelemaan pari sanaa asiasta piirejä ammatikseen suunnittelevan kaverin kanssa, arvioi että GPU-puolella riittäisi noin vuosi siihen fyysiseen suunnitteluun (että saadaan ne maskit sinne valmistajalle tehtyä)
 
No niin, pääsin jutustelemaan pari sanaa asiasta piirejä ammatikseen suunnittelevan kaverin kanssa, arvioi että GPU-puolella riittäisi noin vuosi siihen fyysiseen suunnitteluun (että saadaan ne maskit sinne valmistajalle tehtyä)
Tämän lisäksi vielä kuukausia testausta ennenkuin piiri on matkalla kaupanhyllylle tuotteessa. Minulla on yli 20 vuotta kokemusta ASIC piirien suunnittelusta ja testaamisesta. Eivät nämä ole viikkojen juttuja. Suunnittelu ja testaus maksaa rahaa, ottaa aikaa ja konekapasiteettia.
 
Tämän lisäksi vielä kuukausia testausta ennenkuin piiri on matkalla kaupanhyllylle tuotteessa. Minulla on yli 20 vuotta kokemusta ASIC piirien suunnittelusta ja testaamisesta. Eivät nämä ole viikkojen juttuja. Suunnittelu ja testaus maksaa rahaa, ottaa aikaa ja konekapasiteettia.
Ja itse piikiekon matkakin siellä tehtaassa kiekosta siruksi kestää nykypäivänä kuulemma sen 1,5 - 3kk, sen jälkeen ensimmäisistä valmiista sirusta kauppojen hyllyille kuten sanoitkin vie kuukausia, jopa yli vuoden.
 
Ja itse piikiekon matkakin siellä tehtaassa kiekosta siruksi kestää nykypäivänä kuulemma sen 1,5 - 3kk, sen jälkeen ensimmäisistä valmiista sirusta kauppojen hyllyille kuten sanoitkin vie kuukausia, jopa yli vuoden.

Lisätään siihen parit revisiot kun testauksessa havaittiin ongelmia niin puhutaan äkkiää yli parin vuoden projektista.
 
No niin, pääsin jutustelemaan pari sanaa asiasta piirejä ammatikseen suunnittelevan kaverin kanssa, arvioi että GPU-puolella riittäisi noin vuosi siihen fyysiseen suunnitteluun (että saadaan ne maskit sinne valmistajalle tehtyä)
Sen verran olen eri mieltä kanssasi, että ei noita maskeja ihan puhtaalta pöydältä lähdetä enää suunnittelemaan silloin kun ne "leegopalaset" on jo kunnossa ja niille maskit tehtynä. Kysyppäs nyt kaveriltasi paljonko vaatii aikaa, että se homma tehdään jonkun olemassa olevan projektin päälle esim. lisäämällä siihen jotain (kuten nyt vaikka lisää niitä samoja ytimiä mille on jo maski olemassa). Väitän, että on vähän eri aikataulut. Oliskin ihan uus juttu jos skaalaaminen vaikka 1x -> 2x vaatisi muka vuosien työn. En ihan heti usko. Kun tuntuu nyt aika hyvin skaalautuvan kaikessa muussa. Tokikaan piikiekkoja en ole koskaan valmistellut.

Vähän kuitenkin epäilen ihan niiden kokemuksien pohjalta mitä ihan tietotekniikasta on firmoilla esittää. Ei ole mennyt firmoilla kahta vuotta tai edes vuotta, että on pystytty olemassa olevaa parantamaan esim. lisäytimillä. Vähän nyt sotii todellisuus vastaan väitteitä. Tai sitten on kyllä esim. AMD ollut melkoisen nerokas kun se on jo vuosia sitten tehnyt kaikki mahdolliset ja helekutin kalliit maskit valmiiksi kaikille eri mahdollisuuksille mitä tänään puskee ulos.
 
Viimeksi muokattu:
Sen verran olen erimieltä kanssasi, että ei noita maskeja ihan puhtaalta pöydältä lähdetä suunnittelemaan silloin kun ne "leegopalaset" on jo kunnossa ja niille maskit tehtynä.
Se on otettu tuossa arviossa huomioon että on valmiiksi (piirin fyysisen latomisen näkökulmasta) helposti skaalattavia elementtejä mistä ne GPU:t tehdän.
 
Se on otettu tuossa arviossa huomioon että on valmiiksi (piirin fyysisen latomisen näkökulmasta) helposti skaalattavia elementtejä mistä ne GPU:t tehdän.
No en silti usko. En varsinkaan ilman lähteitä kun sen verran nopeasti on pystyneet markkinoilla firmat vastaamaan toisten toimintaan. Olkoon vaikka mitä purkkavirityksiä niin sun mukaan pitäisi mennä aina yli vuosi tai mahdollisesti kaksi, mutta niin vain on paljon paljon nopeampaan tullut myyntiin asti tavaraa. Ja nyt pitää huomioida vielä kaikki testaukset yms. No jos sinusta niillä on siellä hyllyt täys turhia maskeja valmistettuna vain koska, ehkä, kenties kilpailija keksii jotain, niin mikäs minä olen tuomitsemaan.
 
No en silti usko. En varsinkaan ilman lähteitä kun sen verran nopeasti on pystyneet markkinoilla firmat vastaamaan toisten toimintaan. Olkoon vaikka mitä purkkavirityksiä niin sun mukaan pitäisi mennä aina yli vuosi tai mahdollisesti kaksi, mutta niin vain on paljon paljon nopeampaan tullut myyntiin asti tavaraa. Ja nyt pitää huomioida vielä kaikki testaukset yms. No jos sinusta niillä on siellä hyllyt täys turhia maskeja valmistettuna vain koska, ehkä, kenties kilpailija keksii jotain, niin mikäs minä olen tuomitsemaan.
Mitä ihmettä sinä nyt selität turhista maskeista ja ties mistä? Tai "vastaamisesta toisen toimintaan"? Ainoat "vastaamiset toisen toimintaan" mitä voidaan tehdä nopealla aikataululla on kellotaajuuksien säätö ja mahdollisten käytöstä poistettujen yksiköiden otto käyttöön (jos on tarpeeksi binnattuja siruja), itse siru pysyy kuitenkin samana eikä sillä ole mitään tekemistä minkään maskien kanssa. Eikä siellä mitään siruja varmuuden vuoksi suunnitella, vaan ne mitä suunnitellaan on päätetty kauan aiemmin. Joskus toki käy niinkin, että pitkällekin, jopa valmiiksi siruksi asti ehtinyt tuote ei ikinä päädy markkinoille asti, mutta se ei johdu ikinä siitä että se olisi liian hyvä kilpailijaan nähden.
 
No en silti usko. En varsinkaan ilman lähteitä kun sen verran nopeasti on pystyneet markkinoilla firmat vastaamaan toisten toimintaan.

Näistä kelpaisi esimerkki. En muista yhtään näyttis enkä prossupuolelta yhtään alle puolen vuoden reagointia mihinkään.

AMD:n haluja julkaista iso navi varmaan hillitsi Vega VII kokemukset, eikä varmaan ole sattumaa sekään että nVidia on pantannut uuteen valmistusprosessiin siirtymistä. 7nm tuskin vaan on ollut riittävän valmis kovin pitkään
 
Näistä kelpaisi esimerkki. En muista yhtään näyttis enkä prossupuolelta yhtään alle puolen vuoden reagointia mihinkään.

AMD:n haluja julkaista iso navi varmaan hillitsi Vega VII kokemukset, eikä varmaan ole sattumaa sekään että nVidia on pantannut uuteen valmistusprosessiin siirtymistä. 7nm tuskin vaan on ollut riittävän valmis kovin pitkään
Ei VII:llä mitään tekemistä asian kanssa ole, se oli "sivutuote" mikä tehtiin Radeon Instincteiksi kelpaamattomista (ja päätökset RDNA-siruista oli tehty jo kauan ennen sen valmistumista)
 
Ei VII:llä mitään tekemistä asian kanssa ole, se oli "sivutuote" mikä tehtiin Radeon Instincteiksi kelpaamattomista (ja päätökset RDNA-siruista oli tehty jo kauan ennen sen valmistumista)

Riippumatta siitä millä nimellä millekin markkinalle myytiin niin Vega 20 kokemuksilla varmasti on osansa siihen, että 7nm isot piirit saadaan kuluttajamarkkinoille vasta myöhään 2020.

Tuon valmistaminen kuitenkin on aloitettu loppukesästä 2018. Sillloin on huomattu, että 330 neliömillimetrin piirin valmistaminen takkuaa pahasti. Tyhmähän AMD ei ole, joten tästä kokemuksesta ihan varmasti on JOTAIN oppia otettu. Onko se oppi sitten ison rdna1 navi-projektin lakkautus, ison rdna2 navin ajoittaminen 2020 loppuvuoteen vai mikä niin sitähän me ei netissä tiedetä, mutta isosta navista oli huhuja, joten sopisi aikatauluun että se on peruttu 2018 kesällä n. vuosi ennen julkaisua. Siinä vaiheessa ei vielä olisi masiiivisia kustannuksia projektista syntynyt, kun suurin osa työstä olisi vielä täällä esitettyjen aika-arvioiden valossa tekemättä
 
Näistä kelpaisi esimerkki. En muista yhtään näyttis enkä prossupuolelta yhtään alle puolen vuoden reagointia mihinkään.

AMD:n haluja julkaista iso navi varmaan hillitsi Vega VII kokemukset, eikä varmaan ole sattumaa sekään että nVidia on pantannut uuteen valmistusprosessiin siirtymistä. 7nm tuskin vaan on ollut riittävän valmis kovin pitkään
No vaikka Skylake-X ja Kaby Lake-X on hyvä esimerkki asiasta. Kun oikeasti firmalla on kiire, niin kyllä ne pystyvät painamaan varsin ripeällä aikataululla muutaman maskin kasaan, se miten muut toiminnot ehtii mukaan onkin sitten toinen tarina. Coffee Lakenkin varmasti voi laskea mukaan tähän.
 
No vaikka Skylake-X ja Kaby Lake-X on hyvä esimerkki asiasta

En ymmärrä mitä nuo osoittavat. Niiden edeltäjän oli ollut vuoden pihalla siinä vaiheessa kuin nuo tulivat ulos, joka on ihan normaali aika tuolla alustalla (sandy-e --> 2v ivy-e --> 1v haswell-e --> alle 2v broadwell-e --> 1v Kaby/Skylake-e)

Kaby Lake X on Intelin työpöytäalustan prosessori paketoituna LGA2066 kantaan, eli ei todellakaan mikä uusi piiri. Siinä ei tarvinnut yhtään maskia tehdä, sen kun vaan paketoi piirin eri tavalla. Melko triviaali homma prosessorituotannossa, täysin eri tasolla kuin uuden piirin suunnittelu.
 
Riippumatta siitä millä nimellä millekin markkinalle myytiin niin Vega 20 kokemuksilla varmasti on osansa siihen, että 7nm isot piirit saadaan kuluttajamarkkinoille vasta myöhään 2020.

Tuon valmistaminen kuitenkin on aloitettu loppukesästä 2018. Sillloin on huomattu, että 330 neliömillimetrin piirin valmistaminen takkuaa pahasti. Tyhmähän AMD ei ole, joten tästä kokemuksesta ihan varmasti on JOTAIN oppia otettu. Onko se oppi sitten ison rdna1 navi-projektin lakkautus, ison rdna2 navin ajoittaminen 2020 loppuvuoteen vai mikä niin sitähän me ei netissä tiedetä, mutta isosta navista oli huhuja, joten sopisi aikatauluun että se on peruttu 2018 kesällä n. vuosi ennen julkaisua. Siinä vaiheessa ei vielä olisi masiiivisia kustannuksia projektista syntynyt, kun suurin osa työstä olisi vielä täällä esitettyjen aika-arvioiden valossa tekemättä
Millä ihmeen perusteella Vega20:n valmistaminen on takunnut missään vaiheessa?
 
Millä ihmeen perusteella Vega20:n valmistaminen on takunnut missään vaiheessa?

Eikö Vega VII julkaistu kuluttajamarkkinoille, koska laskentakäyttöön kelpaamattomia piirejä kasaantui tarpeeksi?
Toki tästä syystä tuote oli markkinoilla alle puoli vuotta, kun pienimutoisessa (vrt. kuluttajaohjaimet) tuotannossa sekundaa ei syntynyt enää myöhemmin tarpeeksi.

Myöskin "jostain" syystä tuo oli helposti isoin piiri vuodelta 2018 tuolla prosessilla ainakin mitä itse löysin, muut olivat luokkaa 100 neliömillimetrin mobiilisiruja.
Eli vaikka saannot olivatkin odotettulla tasolla, niin se oli se tieto mitä AMD tarvitsi siihen, että isoa piiriä ei kiirehditty ulos ASAP, kun prosessi ei ollut valmis. Tuskin se mitenkään sattuumaa on, että sekä nVidia että AMD siirtyy isoihin (luokkaa 500 neliömillimetriä) piireihin tuolla prosessilla vasta nyt samoihin aikoihin.
 
Eikö Vega VII julkaistu kuluttajamarkkinoille, koska laskentakäyttöön kelpaamattomia piirejä kasaantui tarpeeksi?
Toki tästä syystä tuote oli markkinoilla alle puoli vuotta, kun pienimutoisessa (vrt. kuluttajaohjaimet) tuotannossa sekundaa ei syntynyt enää myöhemmin tarpeeksi.

Myöskin "jostain" syystä tuo oli helposti isoin piiri vuodelta 2018 tuolla prosessilla ainakin mitä itse löysin, muut olivat luokkaa 100 neliömillimetrin mobiilisiruja.
Eli vaikka saannot olivatkin odotettulla tasolla, niin se oli se tieto mitä AMD tarvitsi siihen, että isoa piiriä ei kiirehditty ulos ASAP, kun prosessi ei ollut valmis. Tuskin se mitenkään sattuumaa on, että sekä nVidia että AMD siirtyy isoihin (luokkaa 500 neliömillimetriä) piireihin tuolla prosessilla vasta nyt samoihin aikoihin.
Kyllä, mutta se ei tarkoita että saannoissa olisi ongelmia. Kaikista piireistä tulee yksilöitä missä kaikki ei toimi, mutta koska meillä ei tietenkään ole mitään lukuja AMD:n saannoista on mahdotonta sanoa että valmistus olisi takunnut.

Huawein Ascend 910 tuli viime vuoden elokuussa ja yksi sen siruista on 456mm^2. Saman firman Kungpen 920 tuli saataville ennen Vega 20:tä, sen sirujen koosta ei ole tarkkaa tietoa mutta pieniä nekään ei ole.
 
Eihän tästä ole olemassa mitään muuta kuin spekulaatiota?
Juuri niin, siksi sanoin että on mahdotonta sanoa mitään varmaa siitä millaiset saannot on ja VII:n olemassaolo ei tarkoita automaattisesti että ne olisivat huonot.
 
Jos sieltä on tulossa AMD:ltä se 80CU kortti niin eiköhän se kilpaile 3080 ja 3080 ti kanssa.

Voi olla että tulee jopa enemmän kuin 80. Jos ne liikit lastujen koosta pitää yhtään paikkaansa niin sieltä olis tulossa about 240, 340 ja 500mm2 kokoiset kikkareet. 240 = 40CU, 340 = 60CU ja sitten tuo 500 niin jos se olis 80 niin se kasvaa suhteessa noihin 2 muuhun yllättävän paljon, joten voipi olla että AMD nakkaa sinne hiukan enemmän, jemmailee alkuun täysin toimivia ja sitten kun alkaa varastoja olla niin nakkaa ulos täyden piirin kortin. Eli se mitä nvidia on harrastellut Ti:n kanssa paitsi RTX sarjassa.


Miksi näistä pitää tapella etukäteen kun kukaan ei tiedä mutua enempää? Katsotaan sitten kun molemmat valmistajat ovat julkaisseet korttinsa.

Pitäähän sitä vääntää kun eräillä on sellainen märkä päiväuni että koko AMD menis konkkaan. Ilmeisesti herroilla on massia niin paljon että ei tunnu missään vaikka keskiluokan kortti maksaisi parin all inclusive etelänmatkan verran.
 
Voi olla että tulee jopa enemmän kuin 80. Jos ne liikit lastujen koosta pitää yhtään paikkaansa niin sieltä olis tulossa about 240, 340 ja 500mm2 kokoiset kikkareet. 240 = 40CU, 340 = 60CU ja sitten tuo 500 niin jos se olis 80 niin se kasvaa suhteessa noihin 2 muuhun yllättävän paljon, joten voipi olla että AMD nakkaa sinne hiukan enemmän, jemmailee alkuun täysin toimivia ja sitten kun alkaa varastoja olla niin nakkaa ulos täyden piirin kortin. Eli se mitä nvidia on harrastellut Ti:n kanssa paitsi RTX sarjassa.
Mikäli se perustuu 7nm EUV-prosessiin noi voivat olla jopa mahdollisia kokoja, mutta jos se on N7P 40CU ei todellakaan tule olemaan noin pieni, kun 40CU RDNA1:kin on isompi ja RDNA2 tulee samalla prosessilla aika taatusti olemaan isompi per CU (ihan jo säteenseurannan vuoksi)
 
Mikäli se perustuu 7nm EUV-prosessiin noi voivat olla jopa mahdollisia kokoja, mutta jos se on N7P 40CU ei todellakaan tule olemaan noin pieni, kun 40CU RDNA1:kin on isompi ja RDNA2 tulee samalla prosessilla aika taatusti olemaan isompi per CU (ihan jo säteenseurannan vuoksi)


Tuota referenssinä käyttäen kun karkeasti laskee tuon 40CU:n Navin + Zen 2 chipletin + 64-bit muistikaistaa + 8kpl workgrouppeja niin saadaan about 378mm2 ja kun tiedetään että xboxin lastu on 360mm2 niin aika samoissa ellei jopa kutistumista tapahtunut. Toki tuolla on varmaan jotain roskaa, IO ei varmaan tartte ihan nuin paljoa, mutta pitää siellä kuitenkin jonnii verran sitäkin olla.
 

Tuota referenssinä käyttäen kun karkeasti laskee tuon 40CU:n Navin + Zen 2 chipletin + 64-bit muistikaistaa + 8kpl workgrouppeja niin saadaan about 378mm2 ja kun tiedetään että xboxin lastu on 360mm2 niin aika samoissa ellei jopa kutistumista tapahtunut. Toki tuolla on varmaan jotain roskaa, IO ei varmaan tartte ihan nuin paljoa, mutta pitää siellä kuitenkin jonnii verran sitäkin olla.
Se nyt ei ihan noin yksinkertaisesti toimi (vaikka jätettäisiin huomioitta kuvan tekemät oletukset) eikä ole mitenkään sanottu, että Xboxin siru ja AMD:n RDNA2-sirut tehtäisiin samalla prosessilla.
 
Se nyt ei ihan noin yksinkertaisesti toimi (vaikka jätettäisiin huomioitta kuvan tekemät oletukset) eikä ole mitenkään sanottu, että Xboxin siru ja AMD:n RDNA2-sirut tehtäisiin samalla prosessilla.
Miksi ne tehtäisiin eri prosesseilla? Ei AMD:llä ole varaa suunnitella tuotteita monelle eri prosessille. AMD haluaa julkaista tuotteet mahdollisimman vähällä lisäsuunnittelulla. Tämä nähdään mm. Ryzenin chiplet mallissa.
 
Miksi ne tehtäisiin eri prosesseilla? Ei AMD:llä ole varaa suunnitella tuotteita monelle eri prosessille. AMD haluaa julkaista tuotteet mahdollisimman vähällä lisäsuunnittelulla. Tämä nähdään mm. Ryzenin chiplet mallissa.
Ne tehdään sille prosessille, mille asiakas haluaa (tietyin rajoin tietenkin, mutta ne rajat ei ole yksi tietty prosessi). Esimerkiksi viime konsolisukupolvessa sekä Microsoftin että Sonyn siruista tehtiin versiot TSMC:n 16nm prosessille mitä ei käyttänyt yksikään AMD:n oma siru.
edit: Eikä se porttaus ole AMD:n vaan asiakkaan pussista pois, tietenkin.
edit2: itseasiassa ne alkuperäisetkin oli eri, ne oli TSMC:n 28nm kun AMD käytti GloFon 28nm itse.
 
Miksi ne tehtäisiin eri prosesseilla? Ei AMD:llä ole varaa suunnitella tuotteita monelle eri prosessille. AMD haluaa julkaista tuotteet mahdollisimman vähällä lisäsuunnittelulla. Tämä nähdään mm. Ryzenin chiplet mallissa.

Eiköhän niitten konsoli piirien suunnittelun ole maksanu pääosin sony ja ms.

Se nyt ei ihan noin yksinkertaisesti toimi (vaikka jätettäisiin huomioitta kuvan tekemät oletukset) eikä ole mitenkään sanottu, että Xboxin siru ja AMD:n RDNA2-sirut tehtäisiin samalla prosessilla.

Ei toki. Ja jätin tuossa huomioimatta kuvan tekemät oletukset. Ton 378 jos vääntää sitten N7+ prosessille niin kokoa olisi 315mm2 mikäli mennään tuolla 1,2x joka löytyy wikichipistä. Että kyllä siinä alkaa jo olla aika tavalla alaa sitten RT törylle.
 
Viimeksi muokattu:
Siirretty muualta..

kyllä 7 vuotta pitäisi riittää hyvän suorituskykyisen gpun suunnitteluun tai on ollut tosi huono rekrytointi tiimi.

AMDn GPUt on vuosia ollut "suorituskykyisiä". NIillä on voinut piirtää pikseleitä todella nopeasti ja suorittaa todella suuren määrän laskutoimituksia aikayksikköä kohden.

Ongelma vaan on ollut se, että nVidian GPUt on olleet vielä suorituskykyisempiä.

On ihan eri asia ottaa kiinni se, missä kilpailija oli silloin kun oman piirin suunnittelu aloitettiin, kuin päästä edelle kilpailijasta, joka tekee koko ajan omaa kehitystyötään ja julkaisee sen aikana paljon nopeampia mallejaan.

Mutta on aina kiva sivusta huudella, kun itse ei näitä piirejä kehitä. Nykyaikaiset GPUt ovat todella monimutkaisia piirejä jotka tekevät todella monimutkaisia temppuja pitääkseen shader-ytimet mahdollisimman hyvin työllistettyinä pitäen silti sähkönkulutuksen pienenä. Ja kaistanleveydet millä siellä GPUn sisällä data liikkuu ovat todella suuria.


Ja ei, jollain "rekrytointitiimin taidolla" ei ole tämän kanssa mitään tekemistä. Oikeita ammattilaisia tällaisiin vaikeisiin hommiin ei palkkaa jotkut "rekrytointitimiläiset" jotka on pihalla siitä itse tekniikasta, vaan niiden työhaastattelut hoitaa ne asiasta perillä olevat tekniset tyypit itse, jotka oikeasti pystyvät haastattelussa selvittämään, osaako työnhakija jotain. Ja vaikka "rekrytointitiimi" olisi kuinka hyvä tahansa, se ei (ainakaan toivottavasti) voi pakottaa niitä osaajia tulemaan töihin siihen firmaan.

Ja kun mennään näihin hyvin erikoistuneisiin asioihin kuten GPU-arkkitehtuurien kehitykseen eikä joidenkin tusina-webbikilkkeiden tekemiseen, maailmassa ei yksinkertaisesti ole niitä oikeita ammattilaisia "vapaana"; Kaikki on jo töissä jossain.
 
Viimeksi muokattu:

Tuota referenssinä käyttäen kun karkeasti laskee tuon 40CU:n Navin + Zen 2 chipletin + 64-bit muistikaistaa + 8kpl workgrouppeja niin saadaan about 378mm2 ja kun tiedetään että xboxin lastu on 360mm2 niin aika samoissa ellei jopa kutistumista tapahtunut. Toki tuolla on varmaan jotain roskaa, IO ei varmaan tartte ihan nuin paljoa, mutta pitää siellä kuitenkin jonnii verran sitäkin olla.

Lasket nyt 16 megan L3-kakun chiplet-kokoja sille zen2lle, sekä vielä IFoP-linkkien viemää tilaa siltä CCDltä. Tämä vääristää laskusi todella pahasti.

Xbox360ssä on paljon todennäköisemmin 4 megan L3-kakut kuin 16 megan L3-kakut. 4 megan L3-kakuilla se CCX ei on 31.3 mm^2 vaan n. 19 mm^2, eli kaksi CCXää tekee vain n. 38mm^2, ei 74 mm^2. Ja mitään IfOP-linkkejä ei tarvita.

Eli lasketaanpa uusiksi:

Navi 10 = 251mm^2.
CPU = 38 mm^2
ylim. muistiohjain = 16 mm^2
8* WGP/DCU = 36 mm^2

Summa on 341 mm^2, ei 378 mm^2.

16x PCI expressiä ei myöskään tarvita ja pienempi määrä TMDS-lähettimiä riittää kuin PC-näyttiksessä, toisaalta tarvitaan jonkin verran USB-portteja ja muutama PCIe-linja mm. NVME-massamuistille. Nämä kuitenkin vievät helposti vähemmän tilaa kuin se 16x PCIe.

Eli, tällä laskulla saadaan tulokseksi että piirillä on n. 20mm^2 "ylimääräistä" koon kasvamista, koko näyttisosan kokoon suhteutettuna n. 8%, tai itse shader-prosessorien kokoon suhteutettuna n .15%.
 
Lasket nyt 16 megan L3-kakun chiplet-kokoja sille zen2lle, sekä vielä IFoP-linkkien viemää tilaa siltä CCDltä. Tämä vääristää laskusi todella pahasti.

Kuten kirjoitin niin se oli karkeasti laskettu koska en jaksanut alkaa selvittämään mitä kakut vie ja toisaalta ei ole tietoa siitä paljonko kaakkua xboxissa on. IO:ta kuitenkin tarttee olla 4x väylä nvme:lle ja olikos xboxissa myös nvme laajennuspaikka, ps5:ssa ainakin on eli varmaan toinen 4x linkki sinne. Ja sitten usbit ja optinen asema niin kyllä sitä IO:ta varmaan joku 20mm2 on.

Jokatapauksessa kuten itse laskit niin 15% olisi varaa kasvaa RT:n myötä, ei varmaan ihan niin paljoa RT tartte.
 
Kuten kirjoitin niin se oli karkeasti laskettu koska en jaksanut alkaa selvittämään mitä kakut vie ja toisaalta ei ole tietoa siitä paljonko kaakkua xboxissa on. IO:ta kuitenkin tarttee olla 4x väylä nvme:lle ja olikos xboxissa myös nvme laajennuspaikka, ps5:ssa ainakin on eli varmaan toinen 4x linkki sinne. Ja sitten usbit ja optinen asema niin kyllä sitä IO:ta varmaan joku 20mm2 on.

Jokatapauksessa kuten itse laskit niin 15% olisi varaa kasvaa RT:n myötä, ei varmaan ihan niin paljoa RT tartte.
RT nyt ei kuitenkaan ole se ainut uudistus siinä RDNA2:ssa, siinä on tuki kaikille muillekin DX12U-ominaisuuksille, mitä ei RDNA1:stä löydy.
 
Kuten kirjoitin niin se oli karkeasti laskettu koska en jaksanut alkaa selvittämään mitä kakut vie

Meneehän siihen zen2n die-kuvan löytämiseen googlen kuvahaulla jopa n. 10 sekuntia. Siitä näkyy aika hyvin se keskellä olevä välimuisti, joka on niin valtava, että paljaalla silmälläkin näkee, sen pudottaminen neljäsosaan pudottaisi koko pinta-alaa alle kahteen kolmasosaan.

"karkeasti laskettu" luku voisi olla 50mm^2 luokkaa, 74mm^2 on ihan vaan vääriin oletuksiin pohjaava.

Ja tuo johtaa tulokseen joka on täysin päin honkia, kun lopputuloksena tarkastelet tuosta käytännössä vähennyslaskun tulosta. Ja tällä täysin päin honkia olevalla luvullasi yritit sitten perustella asioita, joista kaikki muu logiikka ja matematiikka sanoo että väitteissäsi ei ole perää.

Mutta kun sinä yhdellä (rikkinäisellä) tavalla laskettuna saat mieleisesi luvun, niin tietysti sen täytyy olla oikea ja muiden väärässä.

ja toisaalta ei ole tietoa siitä paljonko kaakkua xboxissa on.

Aivan varmaa tietoa ei ole.

Mutta Renoirista voidaan päätellä aika paljon. En näe mitään hyvää syytä, miksi näihin konsolipiireihin haluttaisiin sitä laittaa enemmän kuin Renoiriin; Se L3-kakku oikeasti maksaa ja sen vaikutus suorituskykyyn konsoleissa jäisi melko pieneksi, ja ylivoimaisesti tärkein syy zen2-CCDn suureen L3-välimuistiin on EPYC.

Ja konsoleissa vielä kun L3-välimuistin määrä on softankehittäjille tiedossa, voidaan joidenkin tietorakenteiden kokoja tai kerralla laskettavien datamäärien kokoja peleissä viilata siten että ne mahtuvat siihen 4 MiB L3-kakkuun, ja lisäksi DRAM on nopeampaa, sen kakun koon merkitys jää vielä pienemmäksi kuin PCissä.

Jokatapauksessa kuten itse laskit niin 15% olisi varaa kasvaa RT:n myötä, ei varmaan ihan niin paljoa RT tartte.

Se, paljonko se vie tilaa riippuu aivan täysin siitä, kuinka nopea siitä tehdään. paljonko sinne sitä laskentarautaa laitetaan, missä ajassa se saa tehtyä yhden törmäystarkastelun ja montaako se tekee rinnakkain.

Se, että nVidialla ekan sukupolven piireissä niihin yksiköihin menee x % piirin pinta-alasta ei kerro yhtään mitään suuntaan tai toiseen siitä paljonko AMDn eritehoiset ja aivan eri tavalla integroidut yksiköt vie tilaa.


Ja itseasiassa, AMDn säteenjäljitysyksiköiden laskenteteho tiedetään kohtalaisen hyvällä tarkkuudella, niissä säteenjäljitysyksiköissä sitä vääntöä on n. 13 teraflopsiin edestä, eli enemmän kuin niissä normaaleissa shader-prosessoreissa:


eurogamer.net sanoi:
"Without hardware acceleration, this work could have been done in the shaders, but would have consumed over 13 TFLOPs alone," says Andrew Goossen. "For the Series X, this work is offloaded onto dedicated hardware and the shader can continue to run in parallel with full performance. In other words, Series X can effectively tap the equivalent of well over 25 TFLOPs of performance while ray tracing."

Se, että jokaisen shaderytimen kyljessä on yksikkö, jossa on enemmän laskentatehoa kuin siinä itse shader-ytimessä ei ole ihan halpaa pinta-alan suhteen. Ja kun säteenjäljitys käytännössä pitää vielä tehdä fp32-tarkkuudella, matalammat tarkkuudet ei kelpaa kuten neuroverkoille kelpaa.

TMUissa on ennestäänkin jo jonkin verran kertolaskimia, mutta niistä suurin osa (ehkä kaikki) on paljon matalamman tarkkuuden kertolaskimia, ja kertolaskimien koko skaalautuu aika lailla bittimäärän toiseen potenssiiin. Käytännössä nuo säteenjäljitysyksiköt on integroitu sinne TMUihin kaistan takia, ei niiden siellä ennestään olevien kertolaskimien takia; säteenjäljitys sekä teksturointi molemmat vaativat hyvin paljon lukukaistaa, nyt voidaan hyödyntää TMUn latausyksiköitä, väyliä ja välimuisteja.
 
ylivoimaisesti tärkein syy zen2-CCDn suureen L3-välimuistiin on EPYC.
Menee vähän (tai oikeastaan aika paljonkin) ohi otsikon aiheen, mutta kysyn silti:
Miksi? Mikä tekee isosta L3 välimuistista tärkeän palvelimissa, mutta työpöydällä ei niin merkityksellisen.
 
Menee vähän (tai oikeastaan aika paljonkin) ohi otsikon aiheen, mutta kysyn silti:
Miksi? Mikä tekee isosta L3 välimuistista tärkeän palvelimissa, mutta työpöydällä ei niin merkityksellisen.

Softien (aktiivisten) datamäärien koot.

Palvelimet saattavat palvella satoja tai tuhansia käyttäjiä yhtä aikaa. Jokaisesta näistä saattaa olla talletettu suuri määrä dataa tietokantaan. Esim tällä forumilla on melkein 40000 jäsentä, yli 90000 viestiketjua, joissa yhteensä melkein kaksi miljoonaa viestiä, ja viestin keskimääräinen koko lienee kaikkien muotoilujensa ja metadatojensa kanssa useita kilotavuja => viestejä on siis monen gigatavun verran. Jokaisen käyttäjän avatar-kuva voi vielä viedä parikymmentä kilotavuja, niin 40000 käyttäjällä niistäkin saadaan n. gigatavu dataa lisää.

Koska tahansa voi tulla request lukea mikä tahansa viesti, mutta viimeiset viestit luetaan todennäköisemmin. Mitä suurempi osa viimeisiä viestejä (ja viimeksi näytettyjä avatarkuvia) mahtuu välimuistiin, sitä nopeammin palvelin toimii.



Pelikin saattaa kyllä kuluttaa useamman gigatavun muistia, mutta huomattava osa siitä muistista on esim. tekstuureita , joita CPUn ei tarvi koskaan käsitellä, ne saattaa olla keskusmuistissa vain, jotta ne voidaan siirtää sieltä GPUlle.

Myöskään tarkkaa geometriadataa CPUn ei tarvi kovin usein itse käsitellä, lähinnä se vaan lähettää sen näyttikselle piirretäväksi.

Se datamäärä, mitä oikeasti käsitellään siten että sitä luetaan ja kirjoitetaan suurinpiirtein joka framessa on usein peleissä todella paljon pienempI;

Monissa peleissä esim. aktiivisia hahmoja on tyypillisesti ehkä joitain kymmeniä, korkeintaan satoja, ehkä joskus tuhansia kappaleita. Ja vaikka meillä olisi massiivinen open world-peli jossa hahmoja on olevinaan vaikka tuhansia tai kymmeniä tuhansia, kauimmamiset hahmot usien feikataan ja ne idlaavat "perustilassa" kun ovat liian kaukana ja aktivoituvat vasta kun pelaaja tulee tarpeeksi lähelle. (Joissain peleissä on näitä glitchejä että joku NPC-hahmo teleporttaa oletuspaikkaan kun itse käväisee juuri jossain tietyssä pisteessä tarpeeksi kaukana siitä, mutta se paikka missä tämä "resetointi" tehdään onkin joskus niin lähellä, että pelaaja voi huomata sen)

Eikä siellä välttämättä tarvi olla kovin montaa kymmentä numeroa muuttuvaa /usein accessoitavaa dataa per hahmo:

Pelienginen tarvii ehkä laskea fysiikkaa ja tehdä törmäystarkasteluita kaikille (aktiivisille) hahmoille, mutta tämä voidaan usein tehdä karkealla tasolla koko hahmolle kerrallaan, tai vaan esim. määrittelemällä laatikot päälle, käsille, torsolle ja jaloille, ja simuloimalla näiden tarkkuudella, jolloin ei tarvi ladata sen yksityiskohtaista geometriadataa; vain jos huomataan, että nyt osutaan boksiin jonka sisällä hahmo on, ladataan tarkempi data hahmon muodoista tarkempaa törmäystarkastusta varten.

Se "paljon accessoitu" datamäärä voi oikeasti jossain pelissä olla esim megatavun luokkaa, vaikka peli kuluttaisikin gigatavuittain muistia.


Odottelen muuten sitä, että pelit alkavat harrastamaan "bullet tracingiä" säteenjäljitysraudalla, että ammusten ja sirpaleiden osumantarkastus tehdään CPUn sijasta säteenjäljitysraudalla. Ongelmana tässä toki on se, että säteenjäljitysrauta osaa jäljittää vain suoraan meneviä säteitä ja realistisessa pelimoottorissa luodit ja sirpaleet lentävät ballistisessa kaaressa, eivätkä osu kohteeseensa samalla hetkellä kun ne ammutaan vaan niiden lentomistä simuloidaan oikealla fysiikalla sen ajan mitä ne lentävät. Mutta joissain peleissä on myös laseraseita, joiden käytös mäppää suoraan säteenjäljitysrautaan, ja myös luodin lentorata voidaan pätkiä esim. joka framelle erikseen, laskea luodin lentoradasta aina yhden framen mittanen pätkä suorana säteenä ja sen jälkeen kääntää sitä alaspäin seuraavalle framelle.

Mutta oikeastaan pelkkien luotien kanssa tähän ei ehkä ole tarvetta, koska yhtäkaisten luotien määrä ei ihan helpolla ole niin suuri, että CPU tästä pahasti kyykkäisi. Mutta jos halutaan simuloida tarkasti suurta määrää sirpalekranaatin sirpaleita, tästä voisi olla iloa.
Tai jos meillä on joku todella järeä massiivinen multiplayer, ja sitä kuulaa on koko pelimaailmassa oikeasti ilmassa todella paljon kerralla.


Muut työpöytäsoftat kuin pelit..

Jälleen kerralla käsiteltävät datamäärät on usein melko pieniä. Tässä selaimessa tällä hetkellä aktiivisesti CPU tekee töitä siihen että käsitellään yhden tekstikentän dataa, ja rendataan sen tekstikentän sisältöä. Sivun HTML-koodin koossa puhutaan todennäköisesti kymmenistä tai sadoista kilotavuista, ei suuremmasta. Rendattu valmis sivu pikselimuodossa sitten vienee muutaman megan, mutta rendauksen loppupää tehdään GPUlla siten että koko kuva ei päädy keskusmuistiin ollenkaan ellei sitä eriksee näyttikseltä haeta takaisin.

Yksi sähköpostiviesti joka on pekkää tekstiä on headereineen usein pair kilotavua.

Se, että taustalla on auki vaikka mitä joka kuluttaa paljon muistia ei vaikuta välimuistiin niin kauan kun ne softat vaan idlaa eikä CPUn tarvi käsitellä niiden dataa.
 
Mutta kun sinä yhdellä (rikkinäisellä) tavalla laskettuna saat mieleisesi luvun, niin tietysti sen täytyy olla oikea ja muiden väärässä.

Ihan yhtä rikkinäinen tapa se sinunkin on jos taas kerran lähdetään tähän hiustenhalkomiseen. Edelleen kumpikaan meistä ei tiedä tarkkoja lukemia, edes siihen kuvaan ei voi luottaa 100% että siinä olisi mitat oikein. Joten aika turhaa touhua tuollainen pauhaaminen että sää olet väärässä ja mää olen oikeessa.
 

Statistiikka

Viestiketjuista
257 261
Viestejä
4 471 368
Jäsenet
73 912
Uusin jäsen
The Bear

Hinta.fi

Back
Ylös Bottom