NVIDIA-spekulaatioketju (Lovelace ja tulevat sukupolvet)

Vuonna 2020

Radeon RX 6800 $579
-13056 Gflops single
-16 GB VRAM
-512 GB/s (128Mb cache 1432.6Gb/s)
-250 W

Ja tuo pyöritää edelleen pelejä

Samaan aikaan nVidia:

GeForce RTX 3070 $499
-17660 Gflops single
-8Gb VRAM
-448Gb/s
-220 W

GeForce RTX 3080 $699
-25060 Gflops single
-12Gb VRAM
-760Gb/s
-350 W

GeForce RTX 3090 $1499
-29280 Gflops single
-24Gb VRAM
-935.8GB/s
-350 W


Ja vastaava linja jatkui nVidialla 4xxx sarjassa. AMD tuntuu balansoivan korttia paremmin pelisuorituskykyyn.

Ja siis itsehän olin nVidia fani sieltä Geforce 2 MX:stä saakka mutta sitten kun RTX:t tuli niin pelikäyttöä silmällä pitäen ei oikein ole vakuuttanut speksit. Minulla siis vielä nVidia mutta tarkoitus olisi uusia tietokone kohta.
Vertaat nvidian ja amd:n liikevoittoa niin löytyy juurisyy. Nvidia optimoi voittoa niin paljon kuin pystyy. Amd kompensoi heikkoa säteenseurantakykyä muistimäärillä, että on kulma missä parempi. Näillä ei mitään tekemistä ai markkinan kanssa.
 
Itse vähän peilaan pelikortteja sitten siitä vinkkelistä että minkälaiset speksit konsoleista löytyy. Konsoleissa toki jakavat muistin mutta voi sitten tilanteesta riippuen olla hyvinkin optimoitu melkein kaikki saatavilla oleva muisti grafiikalle.

Sen lisäksi, konsoleilla pelataan yleensä sohvalta. On helposti sen verran enemmän katseluetäisyyttä verrattuna isoon monitori käsivarren mitan päässä. Konsoleissa sitten voidaan, ja käytetäänkin helpommin upscalea ilman että kukaan tajuaisi.

Ja mitä niillä konsoleilla väliä niin vaativat pelit tehdään näille, ja sitten siirretään PC:lle. Olisi hyvä olla hardware sinne päin vastaavilla spekseillä ja vähän enemmänkin.

Kieltämättä tuo segmentointi 1080p / 1440p / 2160p kyllä kiinnostaa. Voisin periaatteessa hyvin tyytyä 1080p speksattuun GPU:n nauttien vähemmästä wattilukemasta, kunhan joka hemmetin peli sitten pyörii sillä yhtä pitkään kuin PS6 konsolisukupolvi on hengissä.

Noin vertailun vuoksi sitä kyllä on jo PS5:lle on pelejä vain 900p resolla jolle upscale että toistaiseksi vaikuttaa turvalisemmalta seurata konsoliraudan kykyjä jos niitä pelejä joutuu sitten ruuvaamaan myös upscalelle että toimivat.
 
Vertaat nvidian ja amd:n liikevoittoa niin löytyy juurisyy. Nvidia optimoi voittoa niin paljon kuin pystyy. Amd kompensoi heikkoa säteenseurantakykyä muistimäärillä, että on kulma missä parempi. Näillä ei mitään tekemistä ai markkinan kanssa.

Ei sillä säteenseurannalla ole väliä kun se ei ole sen parempi konsoleissakaan. Niin kauan kun konsoleissa ei enempää ole säteenseurantaa niin sitä ei peleissäkään sen enempää vaadita.

Ja minua ei varsinaisesti kiinnosta nVidian liikevoitto-optimoinnit. Hinnallakaan ei ole väliä. Minä optimoin seuraavan tietokonekokoonpanon käyttöikää ja wattilukemia pitäen ominaisuudet sellaisina mitä haluan. Eli kyllä nVidian ohjain saa minun puolesta maksaa mitä haluavat mutta jos sähkötehon tarve kasvaa saman asian tekemiseen niin se ei ole niin hyvä.
 
Ei sillä säteenseurannalla ole väliä kun se ei ole sen parempi konsoleissakaan. Niin kauan kun konsoleissa ei enempää ole säteenseurantaa niin sitä ei peleissäkään sen enempää vaadita.

Ja minua ei varsinaisesti kiinnosta nVidian liikevoitto-optimoinnit. Hinnallakaan ei ole väliä. Minä optimoin seuraavan tietokonekokoonpanon käyttöikää ja wattilukemia pitäen ominaisuudet sellaisina mitä haluan. Eli kyllä nVidian ohjain saa minun puolesta maksaa mitä haluavat mutta jos sähkötehon tarve kasvaa saman asian tekemiseen niin se ei ole niin hyvä.
Jatkot tänne Virallinen: NVIDIA vs AMD (vs Intel) keskustelu- ja väittelyketju tai Säteenseuranta, RTX, DirectX - Uusi turha hype vai oikeasti toimiva?

pidetään tämä ketju nvidian seuraavan generaation spekulaatioissa
 
Ihan todella todella vaikea uskoa mihinkään 72GB 5090-kortteihin, kun Nvidia on työasemakorteissakin pantannut muistimäärien lisäyksiä yli 48 GB:n nyt jo 3 sukupolvea. Sille puolelle alkaa olla "pakko" julkaista järeämpiä kortteja, mutta epäilen että yli 32 GB pelikortteja saataisiin 5000-sarjaan.
Hyvin mahdollista ettei ainakaan heti julkkarissa mennä tuota 32 gigaa korkeammalle. Ja jos AMD & Intel yrittävät iskeä helppoon saumaan tarjoamalla kuluttajille isompaa muistia esim. 48 gigaa, on Nvidialla tarpeen tullen mahdollisuus vastata Super refreshillä jossa kasvatettu muistikoko.

Todella isoa osaa malleista pyörittelee jopa 12 GB korteilla, eli ihan älytöntä puhua siitä ettäkö AI-devaajien tarvitsemat muistimäärät olisi aina siellä sadoissa gigoissa.
Tää on sinänsä totta, mutta toisaalta uusia, entistä ihmeellisempiä kuvageneraattoreita ja kielimalleja tupsahtelee aika tiuhaa tahtia ulos ja ne kasvattavat muistivaatimuksia jatkuvasti mikä lisää kysyntää. Esim. Stable Diffusion 3 julkaistaan pian ja sen suurimman variantin (8B) käyttö vaatii jo 20 Gt muistia. Missä lie mennään vuoden päästä kun uusi näyttissukupolvi on uunituoretta.

Vaikea kyllä arvioida kuinka merkittävä markkina tekoälymallien kotipyörittely on. Voi olla että pelaamiseen verrattuna niin pieni, ettei näytönohjainvalmistajia kamalasti kiinnosta kilpailla siitä siivusta.
 
Yli 16GB korteilla ei tee juuri mitään pelikäytössä ellei pelaa todella korkeilla resoilla vielä vuosiin koska konsolit rajoittavat menoa vähänkään isommissa peliprojekteissa. Eli 4090-tason 24GB riittää todennäköisesti vielä oikein hyvin 5090-sarjalaisessa. Kenties nostavat hieman että semipro-hyötykäyttäjät saadaan ostamaan uudempaa, mutta en jaksa uskoa yli 32GB malliin. Se jätetään ammattilaissarjan kortteihin.
 
Hyvin mahdollista ettei ainakaan heti julkkarissa mennä tuota 32 gigaa korkeammalle. Ja jos AMD & Intel yrittävät iskeä helppoon saumaan tarjoamalla kuluttajille isompaa muistia esim. 48 gigaa, on Nvidialla tarpeen tullen mahdollisuus vastata Super refreshillä jossa kasvatettu muistikoko.

Sellaista spekulaatiota että seuraavassa konsolisukupolvessa olisi 32 gigaa että olettaisi vastaavaa löytyvän nVidialtakin, mutta tuohon on vielä aikaa kun olisi kaupan hyllyllä 2027.

Silloin varmaan olisi jotain 16-36, ja sitten joku ultra X titaani superturbo missä 48.
 
Sellaista spekulaatiota että seuraavassa konsolisukupolvessa olisi 32 gigaa että olettaisi vastaavaa löytyvän nVidialtakin.
Noi konsolit tosin taitaa olla tulossa sen verran pitkän ajan päästä että tuskin PC näyttisvalmistajat vaivaavat niillä vielä päätään. Vai meinaatko jotain PS5 Pro tyyppisiä välimalleja?
 
JEDEC:in GDDR7 speksi sisältää muistipiirejä aina 64Gb (8GB) asti, joten jännä nähdä mitä kaikkea tullaan ajan saatossa näkemään

337767


512bit muistiväylällä alkupään 2GB piireillä saadaan max 32/64GB, myöhemmin sitten 3GB piireillä tarkoittaisi 48/96GB, 4GB piireillä 64/128GB jne.
Jos piirilevy pysyy Adan kanssa suurin piirtein samanlaisena, niin melko ahdasta tulee asennella 16 muistipiiriä ja suunnitella linjavedot GPU:n ympärille.. "Quadrojen" kohdalla sitten 16kpl per puoli.
 
Noi konsolit tosin taitaa olla tulossa sen verran pitkän ajan päästä että tuskin PC näyttisvalmistajat vaivaavat niillä vielä päätään. Vai meinaatko jotain PS5 Pro tyyppisiä välimalleja?

En tarkoita välimallia, että PS6:sta ja vastaavaa. Ja onhan näidenkin suunnittelu jo aloitettu.

Sellainen epäilys minulla, että näihin tulisi RDNA5 pohjaiset sisukset ja ensimmäiset piirit olisi jo ensi vuoden puolella mutta kun halutaan merkittävästi lisää tehoja mutta halutaan wattilukemat sellaiseksi että EU:n vihreät byrokraatit eivät hermostu niin tulee valmistusprosessissakin parannus välissä / lisää laskentayksiköitä jne. ja optimoivat sitä, että ne konsolit on sitten tulossa vasta joskus 2027 joulumarkkinoille. Ehkä varmaan myös vähän valmistavat tarpeeksi niitä myyntiin että ei ole eioota kuten PS5:n aikoihin.

Sen lisäksi minusta on merkillepantavaa, että AMD tavallaan skippasi yhden näytönohjainsukupolven. RX 6000->RX7000 olivat erillisohjaimina mutta se arkkitehtuuri mikä oli 8000 sarjassa on vain APU:ssa.

Eli se RDNA5 sukupolvi lienee melkoinen satsaus AMD:ltä kun se sitten jossain konsoleissa ja Tesloissa ja myös erillisohjaimissa. Sen jälkeen todennäköisesti on taas sukupolvi mistä ei tehdä erilliskortteja pöytäkoneisiin.
 
kopite7kimi huhuilee, että isoin kuluttajablackwell tulisi 512bit gddr7 muistiväylällä. En tiedä pitäisikö uskoa tuota, mutta kai se on mahdollista ottaen huomioon AI puolen kysynnän ja miten tuollainen 512bit muistiväyläkortti(muistin määrä) voisi myydä erittäin kalliilla ai-devaajille/inferenssiin jne.

Tosiasiallinen kysymys on sitten, onko tässä 32GB (2GB moduulit) vai 64GB (4GB moduulit)? Vai onko ne 3GB muistimoduulit löytäneet tiensä oikeaan tuotteeseen ja tässä on 48GB?

Itse edelleen veikkaan, että kärkimalliin tulee kuluttajapuolelle se 32GB ja sitten samaa piiriä myydään paremmilla muistikonfiguraatiolla niille AI-devaajille ja jopa palvelimiin. Ne on sitten Tesloja tai Quadroja, eikä Geforce RTX for Gaming -kortteja.
 
Tosiasiallinen kysymys on sitten, onko tässä 32GB (2GB moduulit) vai 64GB (4GB moduulit)? Vai onko ne 3GB muistimoduulit löytäneet tiensä oikeaan tuotteeseen ja tässä on 48GB?

Itse edelleen veikkaan, että kärkimalliin tulee kuluttajapuolelle se 32GB ja sitten samaa piiriä myydään paremmilla muistikonfiguraatiolla niille AI-devaajille ja jopa palvelimiin. Ne on sitten Tesloja tai Quadroja, eikä Geforce RTX for Gaming -kortteja.
Huhut on, että ei alkuvaiheessa nähdä 3GB moduuleita. Mä veikkaan, että pelipuolella 3GB moduuleita 2026 super tuotteisiin, Jos tuollainen 512bit kortti tulee niin veikkaan, että se on tehty konesali ja pro käyttäjät edellä vaikka joku leikattu esim. 32GB muistiversio tulisi pelaajillekin tarjolle. Saako tuollaisen alle 2500e vai meneekö pelikortinkin hinta yli 3ke niin ei voi kuin arvailla. Tietty ne kortit missä aikaisemmin oli 8GB tai 16GB muistit vaihtoehtoina niin voi julkaisussakin tulla 3GB piireillä ja 12GB muisteilla.
 
Viimeksi muokattu:
Herättäkää mut kun pelit tarvii yli 24gb VRAM, ja pliis ei mitää 16k näyttö fantasioita.

8k näytön kanssa voi ehkä tulla vastaan jossain extreme-tilanteissa. Ei siis kovin realismia. Ja siis vain jos yrität natiivi 8k resoa.

Käytännössä palataan asiaan 4k reso kaman osalta ehkä 3-5 vuoden päästä. Eli kun uudet konsolisukupolvet ovat ajankohtaisia. Sitä ennen voi ehkä paukkua joku yksittäinen "NVIDIA sponssas tarpeeks"-julkaisu jotta voidaan näyttää että hei 16GB ei riitä enää tappisettareihin.
 
Herättäkää mut kun pelit tarvii yli 24gb VRAM, ja pliis ei mitää 16k näyttö fantasioita.

Aikaisintaan 2027 lopussa saattaisi näin olla jos jossain kyhäillään megapeliä jota tähdätään seuraavan sukupolven konsoleiden julkaisuun. Jos silloinkaan. Ja joku 4k elämys.

Mutta siis itsehän ostan raudan aina future proof meiningillä, että kun uuden tietokoneen ostan niin se saisi riittää sitten seuraavan sukupolven konsoleiden elinkaaren loppuun. Eli pelikäytössä johonkin vuoteen 2035 saakka.

Ei tämän pitäisi olla mikään ongelma kun PS4/Xbox One speksit ylittävä kone riitti niin hyvin vuoteen vuoden 2020 loppuun saakka ja pidemmällekin kun seuraavan sukupolven pelejä sai odottaa, ja PS5/Xbox series speksit ylittävä kone riittää jokseenkin varmasti sinne saakka kunnes PS6 ja seuraava Xbox julkaistaan.

Ei pelaajan enää tarvitse kovinkaan usein uusia näytönohjainta kun enää ei tehdä mitään Crysistä mikä vaatisi parhaimmat osat mitä rahalla saa.

Olisihan se melkoista jos joku tekisi next gen pelin mikä vaatisi jonkun 50000-100000€ nVidian kaluston mitä tarkoitettu AI devailuun. Ei sellaisen kehittäminen kannata.
 
8k näytön kanssa voi ehkä tulla vastaan jossain extreme-tilanteissa. Ei siis kovin realismia. Ja siis vain jos yrität natiivi 8k resoa.

Käytännössä palataan asiaan 4k reso kaman osalta ehkä 3-5 vuoden päästä. Eli kun uudet konsolisukupolvet ovat ajankohtaisia. Sitä ennen voi ehkä paukkua joku yksittäinen "NVIDIA sponssas tarpeeks"-julkaisu jotta voidaan näyttää että hei 16GB ei riitä enää tappisettareihin.

Itseasiassa minulle riittää ihan hyvin vaikka pelaisi vaan 1080p resolla mutta tässä nyt vaan on sellainen juttu, että en ole yhtään varma miten tulevaisuudessa pelikehittäjät onnistuvat sössimään.

Kun tilanne on se, että PS5:n kaltaisessa tehomyllyssä ajetaan peliä 1600x900 josta tehdään upscalea niin kyllä joku onnistuu tunkemaan pelin niin täyteen optimoimatonta photogrammetry assettia ja raytrace valaistusta, että se 4k näytöille speksattu PS6 tasoinen kone on kyykyssä ja sisältö piirretään oikeasti 1920x1080 josta upscale. Silloin se tehomylly tarvitaan siihen että toimisi edes se 1080p kunnolla.
 
Herättäkää mut kun pelit tarvii yli 24gb VRAM, ja pliis ei mitää 16k näyttö fantasioita.

Ei tarvitse vielä moneen vuoteen.

Pelit osaa käyttää 24GB VRAM vuoden sisään siitä, kun näytönohjain, joka tukee tätä, tulee markkinoille. Vaikka 64GB kortti saadaan kyllä täyteen tekstuureita ja pelidataa, jos halutaan. Tällä hetkellä on pelejä, jotka vaatii sen 12GB, että toimii maksimidetaljeilla. Mutta toimivat kyllä huonommillakin asetuksilla, ja vähemmällä muistilla. Eikä tämä ole välttämättä edes resoluutioriippuvainen juttu, vaan assetit vie vaan enemmän tilaa, kun ovat tarkempia.

Resoluutio määrittää rasteroinnissa ensisijaisesti renderöintinopeuden, eikä muistinkäyttöä. Tietenkin pienin poikkeuksin, kun buffereiden koko nousee, mutta ei se ikinä nouse niin paljoa, että esim. 8GB -> 16GB nousisi vaatimukset, vaikka olisi se 16K.

edit: tuossa video:

Videolla tarkastellaan VRAM:in käyttöä. Siellä se iloisesti pomppaa erään pelin kanssa 20GB/24GB, eikä se peli tarvitse niin paljoa muistia vaatimuksissaan, mutta käyttää, jos on saatavilla.
 
Viimeksi muokattu:
4060:sta on 16GB versio. Sai aika tyrmäkysen arvosteluissa. GDDR7 tarjoaa 1GB, 2GB ja 3GB moduulit. 3GB moduuli mahollistaa 50% muistimäärän lisäyksen versus gddr6x kortit samalla muistikaistan leveydellä. Huhuissa on ollut, että julkaisussa olisi vain 1GB ja 2GB moduuleita käytössä. Ehkä super malleissa saadaan 3GB moduuleilla 50% muistimäärän lisäys.



RTX 4060 ti 16Gt sai tyrmäyksen arvosteluissa, koska se maksaa satasen enemmän eikä se ole sen arvoista. Mutta 8 gigaa GDDR6-muistia ei todellakaan maksa satasta, vaan kyse oli nVidian hinnoitteluvalinnasta. Esim. tuon artikkelin mukaan kustannus olisi ollut viime kesänä $27. Veikkaisin kovasti, että arvostelut olisivat olleet positiivisempia jos 8Gt ja 16Gt mallien hintaero olisi ollut esim. $50, jossa olisi siinäkin ollut melkoinen kate nVidialle.

 
Ei tarvitse vielä moneen vuoteen.

Pelit osaa käyttää 24GB VRAM vuoden sisään siitä, kun näytönohjain, joka tukee tätä, tulee markkinoille. Vaikka 64GB kortti saadaan kyllä täyteen tekstuureita ja pelidataa, jos halutaan. Tällä hetkellä on pelejä, jotka vaatii sen 12GB, että toimii maksimidetaljeilla. Mutta toimivat kyllä huonommillakin asetuksilla, ja vähemmällä muistilla. Eikä tämä ole välttämättä edes resoluutioriippuvainen juttu, vaan assetit vie vaan enemmän tilaa, kun ovat tarkempia.

Itseasiassa resoluutioriippuvaisuuskin löytyy. Kun framebufferin reso nousee, tarvitaan käyttää enemmän tarkempia LOD tasoja tekstuureista ja malleista mitä pidetään enemmän muistissa.

Mitä enemmän VRAM:ia löytyy niin sitä enemmän tavaraa pysyy näytönohjaimella suoraan saatavilla, ettei sitä tarvitse keskusmuistista siirtää enste sinne.

Se mikä VRAM tarpeet räjäyttää helposti on Unreal Enginen 5 nanite assetit kun näistä kehittäjillä valmiit kirjastot tarkasti skannattuja assetteja ja sitten läiskivät niitä sinne sceneen miten tykkää optimoimatta kun säästävät aikaa sillä, että engine työskentelee lennossa.

Eli kun graafikot laiskottelevat peliä tehtäessä niin se on se mikä räjäyttää VRAM:n ja tallennustilan käytön.

Itseasiassa toivoisin että joku Steam, Epic, Sony ja Microsoft tekisi sellaisen tempun että ottaisivat storessa isommat prosentit kun peli kooltaan iso. Nuo jättipelit nimittäin eivät nimittäin ole halpoja jaella kun porukka uninstalloi ja asentaa uusiksi miten sattuu. Kaista oikeasti maksaa. Tuossa olisi sitten pieni kannustin optimoida sisältöä.
 
Itseasiassa resoluutioriippuvaisuuskin löytyy. Kun framebufferin reso nousee, tarvitaan käyttää enemmän tarkempia LOD tasoja tekstuureista ja malleista mitä pidetään enemmän muistissa.

Mipmap nyt vie 33.3% enemmän tilaa, riippumatta muusta kuin tekstuuriresoluutiosta. Ei siis riipu näytön resosta.

Mitä enemmän VRAM:ia löytyy niin sitä enemmän tavaraa pysyy näytönohjaimella suoraan saatavilla, ettei sitä tarvitse keskusmuistista siirtää enste sinne.

No shit, Sherlock. Arvaa nyt vielä, miksi ne hidastuu silmittömästi, kun näytönohjaimen muisti loppuu..

Se mikä VRAM tarpeet räjäyttää helposti on Unreal Enginen 5 nanite assetit kun näistä kehittäjillä valmiit kirjastot tarkasti skannattuja assetteja ja sitten läiskivät niitä sinne sceneen miten tykkää optimoimatta kun säästävät aikaa sillä, että engine työskentelee lennossa.

Eli kun graafikot laiskottelevat peliä tehtäessä niin se on se mikä räjäyttää VRAM:n ja tallennustilan käytön.

Itseasiassa toivoisin että joku Steam, Epic, Sony ja Microsoft tekisi sellaisen tempun että ottaisivat storessa isommat prosentit kun peli kooltaan iso. Nuo jättipelit nimittäin eivät nimittäin ole halpoja jaella kun porukka uninstalloi ja asentaa uusiksi miten sattuu. Kaista oikeasti maksaa. Tuossa olisi sitten pieni kannustin optimoida sisältöä.

Mielestäni on ihan hyvä asia, että graafikot ja kehittäjät tekevät pelejä, jotka käyttävät näytönohjaimen kapasiteettia. Lisäksi Unrealissa voi vaikka siirtyä käyttämään naniitteja ja jättää optimoinnin niiden huoleksi. Täysin terve kehityssuunta, että peliengine tekee ne optimoinnit, eikä käyttäjät.
 
Mielestäni on ihan hyvä asia, että graafikot ja kehittäjät tekevät pelejä, jotka käyttävät näytönohjaimen kapasiteettia. Lisäksi Unrealissa voi vaikka siirtyä käyttämään naniitteja ja jättää optimoinnin niiden huoleksi. Täysin terve kehityssuunta, että peliengine tekee ne optimoinnit, eikä käyttäjät.

Et nyt ymmärtänyt.

Kun pelissä sen kilometrin päässä olevan naakanpoikasen mikä vie ruudulta pari pikseliä ei tarvitse olla mikään gigan assetti olkoot se naniitti tai ei. Assettien tarkkuuden parantaminen ruudun pikselien tarkkuutta paremmaksi ei vaan paranna laatua. Se ei tee muuta kuin syö resurssia.

Ja pelien graafikot kyllä voivat olla niin laiskoja, tai jopa tyhmiä, että eivät säädä mitään. Jotain pelikehittäjien blogia luin ja nauroin joskus vuonna 00 -luvulla kun kertoi tarinaa että olivat ihmettelleet miksi joku auton 3D-malli pisti pelin kyykkyyn niin oli sitten artisti tehnyt sen laittamalla 15kpl 1024x1024 tekstuureja siihen ja siksi 1024x1024 koska isompia ei saanut.

Graafikot voivat siis tosiaankin olla niin tyhmiä että pelistudioiden tarvitsee miettiä jotain automatiikkaa siihen että chekkaillaan onko assetti järjellinen että se pääsee buildiin mukaan, eli vastaavia mitä kehittäjille on koodia varten. Tosiasia kuitenkin on se, että pelimoottorit ratkoivat suorituskykyasiat ajat sitten ja suorituskyky on aika pitkälti kiinni grafiikka-asseteista draw callien määrästä.

Terve kehityssuunta olisi se, että digitaalinen jakelu veisi isompaa siivua mitä enemmän dataa peli käyttää ja pelin laittaminen jakeluun ja updated siihen maksaisi myös sitä enemmän mitä enemmän dataa käytetään.

En tarkoita sitä, että haluaisin pelien olevan huonompia vaan että optimoisivat assetit tarkkuudelle mitä lähemmäksi kamera ei niitä mene, että peli veisi siellä Steamissa, kiintolevyllä ja VRAM:ssa 100 gigaa vähemmän mutta näyttää edelleen samalta. Maksun laittaminen datan määrän mukaan olisi reilua ja olisi se kannustin optimoida ne ennen julkaisua.

Tämä pelien optimointi kyllä voitaisiin laittaa ihan omaan threadiin jos tästä keksii puhuttavaa.
 
Et nyt ymmärtänyt.

Kun pelissä sen kilometrin päässä olevan naakanpoikasen mikä vie ruudulta pari pikseliä ei tarvitse olla mikään gigan assetti olkoot se naniitti tai ei. Assettien tarkkuuden parantaminen ruudun pikselien tarkkuutta paremmaksi ei vaan paranna laatua. Se ei tee muuta kuin syö resurssia.

Niin eikös se naniten idea ole siinä, että devaajan ei tartte alkaa luomaan assetista lukuisia eri lod malleja, vaan se automaattisesti osaa etäisyyden mukaan lisätä/vähentää tarkkuutta. Näin olen sen käsittänyt. Miksi tätä ominaisuutta ei sitten saisikaan käyttää.
 
Niin eikös se naniten idea ole siinä, että devaajan ei tartte alkaa luomaan assetista lukuisia eri lod malleja, vaan se automaattisesti osaa etäisyyden mukaan lisätä/vähentää tarkkuutta. Näin olen sen käsittänyt. Miksi tätä ominaisuutta ei sitten saisikaan käyttää.
UE5:ssa on virtuaalinen geometria ja virtuaaliset tekstuurit. UE5 striimaa resoluutioon ja kappaleen näytöllä olevaan kokoon optimoidun versio geometriasta ja tekstuurista. UE5 käyttää keskusmuistia assettien cachettamiseen gpu:n muistin lisäksi. Levyllä ja cachessa oleva data pakattu mistä se puretaan gpu muistiin siirrettäessä. Devaajan kannalta voit käyttää source tason 8k tekstuureita ja geometeriaa ilman että muisti ja suorituskyky loppuu. Ongelmaksi tulee kuitenkin levytila. Jos yksi peli vie teratavuja levyllä niin kenen ssd:lle mahtuu kasa pelejä? Assetteja joudutaan optimoimaan ue5-peleihin levytilan vuoksi. Yksi tapa "optimoida" on valita suurin lod taso mikä peliin jätetään mukaan ja engine poistaa dataa levyltä.

Arvailen, että blackwellissä tulee olemaan rautaoptimoitu directstorage yhteensopiva purkulogiikka. Nykyinen directstorage toteutus on "vain" compute shader. Löytyy varmastikin pieniä mahdollisuuksia optimoida purkua ja datan käsittelyä dedikoidulla purkuyksiköllä compute shaderin sijaan.

Olettaen, että pelit on edelleen 4k ja 4090:en oli/on osassa peleistä cpu rajotteinen julkaisussa niin paljonko tarvitaan raakaa raster-suorituskykyä lisää? Mielenkiintoista nähdä aletaanko blackwell sukupolvessa olemaan sen äärellä että rasteria ei tarvitse enää kovinkaan paljoa lisää ja painopiste siirtyy yhä enemmän säteenseurantaan/tensoriyksiköihin/compute shadereihin jne.
 
Viimeksi muokattu:
Niin eikös se naniten idea ole siinä, että devaajan ei tartte alkaa luomaan assetista lukuisia eri lod malleja, vaan se automaattisesti osaa etäisyyden mukaan lisätä/vähentää tarkkuutta. Näin olen sen käsittänyt. Miksi tätä ominaisuutta ei sitten saisikaan käyttää.

Periaatteessa miksei käyttäisi mutta se tarkkuus minkä tunkee peliin mukaan ei tarvitse olla parin pikselin objektia varten gigan assetti. Kyllä tuolla voi haaskata paljon tallentamalla assetit korkeammalla tarkuudella mitä naniitti voi hyödyntää.

Käytännön tasolla Nanite ei sitten vielä ole ollut mielekäs kun se on vain staattisiin mesheihin, että on pitänyt olla niin hahmot kuin mikä tahansa liikkeessä oleva, tyyliin puiden oksat jotenkin muuten.

Mielekkyyttä vie sitten tämä pois että voi tulla kontrastia Nanite objektien ja muiden välillä, kun se grafiikka näyttää paremmalta kun on texel/vertex density jokseenkin samanlaista niin se paistaa silmään jos jokin on erilainen. Se näyttää nimittäin ihan kauhealta jos on photogrammetry Nanite objekteina rakennettu tarkkaan kivet, kannot ja staattinen pusikko ja niiden päällä sitten hyppii joku 3rd person näkymästä hahmo missä erilainen tarkkuus, eikä pusikkokaan yhtään heilu tuulessa.

Muita harmeja sitten on se, että Nanite toimii toistaiseksi vain deferred renderöinnissä jossa sitten antialiasoinnit ovat huonoja. On sitten sitä TAA blurria kuvassa ja tosiaankin aika möhköjä ne assetit jos optimoimattomina laittavat sinne. Nanite + deferred renderöinti sitten yhdessä tehnyt sen, että on kovinkin kaistariippuvaista että Steam Deck on kyykyssä näiden kanssa.

Toistaiseksi ilman Nanitea saanut paremman lopputuloksen peleissä. Leffoissa ym. tuo Nanite sitten on oikein kätevä jos tekee virtuaalisia taustoja mutta Epic olisi ilmeisesti seuraavassa Unreal Engine versiossa tuomassa sitä Nanitea hahmomalleihin yms. tilanteisiin, että poistaa melkoisesti tuon rajoitteita.

Eli PS6 yms. tason vehkeillä kun PC:ssä 32 gigaa VRAM:ia, toimii myös mm. hahmoissa, opeteltu optimoimaan ne Nanitet myös ettei tarpeettomasti tallenneta detaljia mikä ei näy, opeteltu tekemään pelireleaset niin että ei tarvitse tehdä samoja pelejä uudestaan tai segmentoitu sellaiset 4k elämykset ja Steam Deck yhteensopivat eri kategorioihin design vaiheessa, että ei edes yritetä tuoda Steam Deckkiin niitä möhköjä vaan samoja mitkä vaikka Xboxin 1080p versiolla.

Minusta on muuten ihan jännä tämä kun Microsoft teki uusimmasta konsolisukupolvesta kaksi versiota, että jos tuollainen vaikka tekisi standardisointia pelien tarkkuudelle. Sillä tavalla että vaikka olisi mikä tahansa Nanite niin peli silti toimisi 1080p laitteella täysipainoisesti missä vähemmän VRAM:ia, kaistaa ja flopseja ja 4k laitteella sitten ero olisi ruudun pikseliresoluutiossa eikä vaikka assettien laadussa. Nykyinen konsolisukupolvi ei ihan tätä tee kun PS5:lla pelejä ajetaan 1600x900 kun ei jaksa pyörittää.
 
Joo tallennustilan suhteen toki järjetöntä laittaa ylitarkkaa assettia, mikä "ei ikinä" lähelle kameraa eksy.
 
En kysynyt tätä, vaan sitä että miksi tämä ei olisi mahdollista esim 24GB VRAM määrällä?
gddr7 piiri käyttää 32bit väylää. Speksin mahdollistamat moduulikoot 1GB,2GB ja 3GB. tuosta voi laskea, että 24GB muistin voisi toteuttaa 24, 12 tai kahdeksalla piirillä mitkä tarkoittaisi 24x32=768bit, 12x32=384bit tai 8x32=256bit muistiväylää. Jos teet esim 512bit muistiväyläisen tuotteen niin siitä voidaan toteuttaa leikattuja versioita missä on yksi tai useampi muistipiiri otettu pois käytöstä ts. 32GB muistilla oleva versio 512bit piiristä olisi kaksi muistipiiriä pois käytöstä eli käytännössä olisi 448bittinen muistiväylä. Olettaisi, että täydelliset 512bit piirit menee konesaliin/pro kortteihin ja leikattuja versioita pelaajille.
 
Viimeksi muokattu:
Viittasin Gandalffin viestiin jossa hän selitti miten 32GB VRAM mahdollistaa naniitin käytettäväksi hahmo malleihin myös, miksi tämä ei olisi mahdollista vähemmällä VRAM määrällä.
 
Viittasin Gandalffin viestiin jossa hän selitti miten 32GB VRAM mahdollistaa naniitin käytettäväksi hahmo malleihin myös, miksi tämä ei olisi mahdollista vähemmällä VRAM määrällä.
Tuollaisissa väitteissä nyt ei ole mitään järkeä kun fortnite käyttää nanitea ja toimii myös konsoleissa. Esim. talojen seinän laudat nykyään geometriaa eikä tekstuuria. Ylipäänsähän naniten eka demot oli ps5:lla aikoinaan. Ihan lähdöstä asti ollut konsolit tuettuna. Koko pointti demota ps5:lla aikoinaan oli striimaussysteemi nopealta ssd:lta + nanite lod + tekstuuri striimaus.



pubg kans siirtymässä ue5:een PUBG: Battlegrounds Is Upgrading to Unreal Engine 5 and Getting Destructible Maps
 
Viittasin Gandalffin viestiin jossa hän selitti miten 32GB VRAM mahdollistaa naniitin käytettäväksi hahmo malleihin myös, miksi tämä ei olisi mahdollista vähemmällä VRAM määrällä.

Tarkoitinkin koko pelin kaikkia assetteja, että jos ne vetää tarkimmalla mahdollisella ja piirtää ruudulle 4K:na niin tarvitsee enemmän mukavaan toimintaan. Saahan sitä tarkan assetin vaikka 2Gb VRAM:lla kun ruudulla niitä on vain yksi.
 
Tarkoitinkin koko pelin kaikkia assetteja, että jos ne vetää tarkimmalla mahdollisella ja piirtää ruudulle 4K:na niin tarvitsee enemmän mukavaan toimintaan. Saahan sitä tarkan assetin vaikka 2Gb VRAM:lla kun ruudulla niitä on vain yksi.
UE5 pitää vain sen koon tekstuuria ja geometriaa muistissa mikä tarvitaan näytön pikseleiden peittämiseen. Jos piirretään vaikka 32x32 kohde 4k näytölle niin ue5 ei pidä 32x32pikseliä kohteelle 8k tekstuuria ja miljardin kolmion lähdegeometriaa muistissa. UE5 striimaa tarpeen mukaan levyltä. UE5 cachettaa pakattuja assetteja myös keskusmuistissa, jotta striimaustarvetta ja gpu muistin tarvetta saataisiin vähennettyä.
 
Tuollaisissa väitteissä nyt ei ole mitään järkeä kun fortnite käyttää nanitea ja toimii myös konsoleissa.

Fortnite sattuu myös olemaan Epicin oma peli että ovat voineet kehittää sitä samalla kun on talon sisäistä tietoa mitä siihen engineen tulossa, on samalla näyteikkunana muille mihin Unreal Engine 5 pystyy ja sen lisäksi Fortniten grafiikka on hyvinkin pelkistetyn näköistä.

Ylipäänsähän naniten eka demot oli ps5:lla aikoinaan. Ihan lähdöstä asti ollut konsolit tuettuna. Koko pointti demota ps5:lla aikoinaan oli striimaussysteemi nopealta ssd:lta + nanite lod + tekstuuri striimaus.

Ei sillä mitään väliä ole vaikka olisi tuettuna jos siihen ei ole juuri mikään kunnolla pystynyt.

Ramnant II näyttää mielestäni paremmin sen mitä se Nanite käytännössä on. 1600x900 framebufferista upscale, ei pyöri täysin pehmeästi 4k:na PS5:lla, Steam Deckillä jos samaa koittaa ajaa niin on ihan koomisen surkean näköinen. Eikä tämä edes ole siitä teknologiasta suoraan kiinni vaan siitä miten sitä käytetään. Eikä ole mitenkään selvää että homma toimisi jatkossakaan hyvin jos graafikot heittävät hyvät käytännöt pois ja laittavat Nanite assetit raakana sinne peliin niin helposti se on sitä, että 32Gb VRAM nopealla väylällä kiitos kun noita aletaan enemmän käyttämään seuraavan sukupolven konsoleilla.
 
Fortnite sattuu myös olemaan Epicin oma peli että ovat voineet kehittää sitä samalla kun on talon sisäistä tietoa mitä siihen engineen tulossa, on samalla näyteikkunana muille mihin Unreal Engine 5 pystyy ja sen lisäksi Fortniten grafiikka on hyvinkin pelkistetyn näköistä.



Ei sillä mitään väliä ole vaikka olisi tuettuna jos siihen ei ole juuri mikään kunnolla pystynyt.

Ramnant II näyttää mielestäni paremmin sen mitä se Nanite käytännössä on. 1600x900 framebufferista upscale, ei pyöri täysin pehmeästi 4k:na PS5:lla, Steam Deckillä jos samaa koittaa ajaa niin on ihan koomisen surkean näköinen. Eikä tämä edes ole siitä teknologiasta suoraan kiinni vaan siitä miten sitä käytetään. Eikä ole mitenkään selvää että homma toimisi jatkossakaan hyvin jos graafikot heittävät hyvät käytännöt pois ja laittavat Nanite assetit raakana sinne peliin niin helposti se on sitä, että 32Gb VRAM nopealla väylällä kiitos kun noita aletaan enemmän käyttämään seuraavan sukupolven konsoleilla.
FPS mihin konsoli X pystyy on täysin irrallinen asia striimausteknologiasta. Pointtihan ue5:ssa on, että muistinmäärä ei ole enää ongelma kun muistissa pidetään vain tarpeellinen. Ongelmaksi tulee laskentateho, ssd:n nopeus/kapasiteetti jne. UE5 imenyt mukaan about kaikki isot talot joilla ennen oli oma engine. Esimerkiksi cdprojectred(witcher, cp2077) ue5 kelkassa.

jatkot vaikka tänne, kun ei tällä enää ole mitään tekemistä uusien korttien ja esim. korttien muistimäärän kanssa: Säteenseuranta, RTX, DirectX - Uusi turha hype vai oikeasti toimiva? Linkatussa ketjussa on ue5:stakin käsitelty melko laajasti.
 
Joo tallennustilan suhteen toki järjetöntä laittaa ylitarkkaa assettia, mikä "ei ikinä" lähelle kameraa eksy.

Tallennustilaa enemmän tässä on myös se digitaalisen jakelun kustannus. Se ei ole ihan halpaa jakaa 100 miljoonaa kpl 100 gigan peliä digitaalisella jakelulla. Ja tämä että pelaaja voi uninstalloida ja installoida uudestaan vaikka ahtaan levytilan takia että ladataan uudestaan. Tuon maksaa tällä hetkellä digitaalista jakelua ylläpitävä kaistakuluissaan. Tai pelaa vartin verran ja toteaa että on ihan surkea ja poistaa.

Että jos pelit siirretään sieltä 50-150Gb luokasta johonkin 500-1500Gb luokkaan niin öh.. Helposti johtaa siihen, että pelillä on hinta mutta jokainen lataus maksaa lisäksi ja veloitetaan luottokortilta, että jengi ei uninstalloi ja installoi uudestaan.

Olisi nyt jo tarvetta enemmän striimata myös peliä sieltä servereiltä, että ladataan sen verran kiintolevylle kuin tarvitsee ja cachettaa siellä eikä heti alussa kaikki kartat ja assetit.

Google Play nyt on tässä tavallaan edellä kun digitaalisen jakelun speksit peleille on sitä, että pelillä on 2Gb base lataus, ja sitten voi pätkissä ladata esim. leveliä vaihtaessa 150Mb palasissa lisää. Cutscenet yms. voi striimata. Toki on huomattavan kireä datavaatimuksiltaan verrattuna Steamiin vaikka mutta pelikehittäjä toki joutuu miettimään aikaisessa vaiheessa että mitä kautta jakelee ja mille yleisölle että peli menee oikealle yleisölle.

Eikä tuo edes estä tekemästä tarkkoja assetteja kun tekstuurit voi välittää proceduraalisina, että ne lasketaan client puolella. Samoin jotkut lightmapit jos sellaisia on niin nekin voi laskea clientissä eikä siirrellä kallista nettikaistaa käyttäen, mutta onhan tuo kireä.
 
Tallennustilaa enemmän tässä on myös se digitaalisen jakelun kustannus. Se ei ole ihan halpaa jakaa 100 miljoonaa kpl 100 gigan peliä digitaalisella jakelulla. Ja tämä että pelaaja voi uninstalloida ja installoida uudestaan vaikka ahtaan levytilan takia että ladataan uudestaan. Tuon maksaa tällä hetkellä digitaalista jakelua ylläpitävä kaistakuluissaan. Tai pelaa vartin verran ja toteaa että on ihan surkea ja poistaa.

Että jos pelit siirretään sieltä 50-150Gb luokasta johonkin 500-1500Gb luokkaan niin öh.. Helposti johtaa siihen, että pelillä on hinta mutta jokainen lataus maksaa lisäksi ja veloitetaan luottokortilta, että jengi ei uninstalloi ja installoi uudestaan.

Olisi nyt jo tarvetta enemmän striimata myös peliä sieltä servereiltä, että ladataan sen verran kiintolevylle kuin tarvitsee ja cachettaa siellä eikä heti alussa kaikki kartat ja assetit.

Google Play nyt on tässä tavallaan edellä kun digitaalisen jakelun speksit peleille on sitä, että pelillä on 2Gb base lataus, ja sitten voi pätkissä ladata esim. leveliä vaihtaessa 150Mb palasissa lisää. Cutscenet yms. voi striimata. Toki on huomattavan kireä datavaatimuksiltaan verrattuna Steamiin vaikka mutta pelikehittäjä toki joutuu miettimään aikaisessa vaiheessa että mitä kautta jakelee ja mille yleisölle että peli menee oikealle yleisölle.

Eikä tuo edes estä tekemästä tarkkoja assetteja kun tekstuurit voi välittää proceduraalisina, että ne lasketaan client puolella. Samoin jotkut lightmapit jos sellaisia on niin nekin voi laskea clientissä eikä siirrellä kallista nettikaistaa käyttäen, mutta onhan tuo kireä.
Tää nyt on ihan väärä ketju tän aiheen puimiseen. Josko jatkot jonnekin muualle niin pysyy nvidian next gen hw spekulaatio paremmin aiheessa. Vaikka se mun edellisen postauksen linkin ketju missä on melko laajasti keskusteltu siitä mikä on tulevaisuuden suunta pelienginekehityksessä

----------------

Blackwelliin liittyen huhuavat 28Gbps muistinopeuksia julkaisuun. Ei mitenkään yllätä, että ei nopeimpia muisteja näy julkaisussa. Ei näkynyt ada-julkaisussakaan nopeimpia julkaistuja muisteja.

Voi spekuloida, että olisiko nvidia pienentänyt isoa cachea blackwellissa? Cache ei skaalannu oikein 3nm prosessia käytettäessä. Nopeampaa muistia ja leveämpää muistiväylää kompensoimaan kun cachen kokoa ei saada kasvatettua/pidettyä ennallaan?
 
Viimeksi muokattu:
Jos 5000 sarjassa ei tule 32GB muistia, niin on todella syvältä. RTX6000 kortit toki paranee kun niiden rauta siirretään Blackwell aikaan mutta se 8000 euron hinta on hirmuinen vrt 2700 euron 32GB 5090. Numeroiden 3 ja 5 julkistukset on aina merkittävämpiä numeerista perspektiivistä kuin epäonnen nelonen. Lisäksi nyt kuluva päivitys sykli on ollut normaalia pidempi, että ollaan todella syvällä odottamisen hanurissa jos Nvidia köyhäilee muistin määrän kanssa yhä. Itsellä käyttö 32GB ja isommalle muistille on toki muualla kuin peleissä. Voihan olla, että 5000 sarjaan ollaan köyhäilty erikseen Titan joka ei ole 48GB vaan 32GB 512 bit kortti. Tää kirjoittaja on yhtä hymyä jos tulee 48GB 5000-sarjan titan, joka kuluttaa alle 700 wattia.
 
Jos 5000 sarjassa ei tule 32GB muistia, niin on todella syvältä.

Hmm.. PS6 tulossa 2027 lopulla ja siinä GPU varmastikin näkee parhaimmillaan koko 32Gb muistin niin olisi se hölmöä jos kohta ostaisi nyt parhaan ja kalleimman peliohjaimen nVidialta ja se ei sitten kunnolla vastaisi mitä saa pian halvalla konsolilla. Se olisi todella noloa.

Tosin, voihan ne ajatella myyvänsä vastaavat ohjaimet uudestaan 6xxx sarjana vähän optimoituna 2027 joulumarkkinoille jossa muistimäärät nostettu.
 
Hmm.. PS6 tulossa 2027 lopulla ja siinä GPU varmastikin näkee parhaimmillaan koko 32Gb muistin niin olisi se hölmöä jos kohta ostaisi nyt parhaan ja kalleimman peliohjaimen nVidialta ja se ei sitten kunnolla vastaisi mitä saa pian halvalla konsolilla. Se olisi todella noloa.

Tosin, voihan ne ajatella myyvänsä vastaavat ohjaimet uudestaan 6xxx sarjana vähän optimoituna 2027 joulumarkkinoille jossa muistimäärät nostettu.
PS6 2027? Varma tieto? Vuodoissa target ollut 2028 lopussa. Siihen mennessä Blackwell lippulaivalle nauraa PC puolella Intelin mid-range näyttiksetkin. Puhumattakaan 2028 tulevasta Blackwellin pojan pojasta jossa arviolta 128GB muistia.
 
Eilen esiteltiin konesali blackwell piiri. Pari ainakin minulle isoa yllätystä mukana. Käyttää tsmc 4np prosessia eikä 3nm. Blackwell gpu koostuu kahdesta maksimikokoisesta tsmc 4np piiristä jotka niitattu yhteen 10TB/s väylällä. Ilmeisesti 10TB/s väylän pitäisi riittää siihen, että piiri toimii kuten monoliitti ilman että piirienvälinen kommunikaatio tulee pullonkaulaksi.

Herää kysymys, että viittaako 4np ja kahden piirin ratkaisu jotain peligpu puolen suhteen? Mikä on tsmc 3 prosessin hinta ja suorituskyky ja tuleeko pelipiiri 4np:lla vai tsmc 3:lla? Voisiko huhuttu 512bit blackwell peligpu olla 2x256bit tsmc 4np piiriit jotka on niitattu yhteen erittäin nopealla väylällä?
 
Kopiten mukaan Geforce -piiri GB202 olisi samalla N4P prosessilla. Transistoritiheydessä kuitenkin ihan tuntuva 30% parannus.

 
Onhan toi 10TB/s aika hurja kaista. Toki vaatimukset suorituskyvyllekin on kovat.
Jos en ihan väärin ole rivienvälistä lukenut niin 10TB/s on myös sisäisen cachen nopeus eikä pelkästään väylän nopeus. Piirienvälinen väylä kiinnittää piirit yhteen cachen kohdalta. Piirien kannalta puolelta toiselle hyppääminen menee cachen ja väylän kautta. Edelläoleva on mun oletus perustuen tulkintaan nvidian työntekijän twiitistä. Pelipiirissä voisi toimia sama idea olettaen että piirienvälinen väylä saadaan yhtä nopeaksi kuin cache. Olisi kyllä melkoinen paukku mun kirjoissa jos 512bit blackwell onkin 2x256bit tsmc 4np piirit jotka niitattu yhteen. tsmc 4np käytöllä välttäisi sen ettei sram(cachet) skaalannu enää pienempiin valmistusprosesseihin mentäessä.

1710844728589.png



edit. kopite7kimi väittää peli blackwellin tulevan tsmc 4np prosessilla. 30% tiiviimpi kuin adan käyttämä tsmc 4 variantti. https://videocardz.com/newz/nvidia-...ly-features-the-same-tsmc-4np-process-as-b100 ja NVIDIA Blackwell GB202 Gaming GPUs To Utilize TSMC 4NP Node, Significant Improvement To Cache & SM Throughput

edit2. B100:ssa myös decompression engine datan purkamiseen. Lienee aika hyvä arvaus, että decompression engine löytää tiensä peligpu:hun ja kiihdyttää entisestää direct storagea.
 
Viimeksi muokattu:
edit2. B100:ssa myös decompression engine datan purkamiseen. Lienee aika hyvä arvaus, että decompression engine löytää tiensä peligpu:hun ja kiihdyttää entisestää direct storagea.
Eikö niissä ole jo? RTX I/O lupaa 2:1 ratiota eli kun SSD:ltä tulee 7GB/s datastream niin GPU purulla dataa siirtyy 14GB/s. Suhdeluku lähinnä riippuvainen materiaalista eli pelidata ei pakkaannu järkevästi tiiviimmäksi samalla pysyen 100% rinnakkaistuvana. Samalla tietenkin pakatun pelidatan pitää olla yhteensopiva viimeisen 10v raudan kanssa.
 
Eikö niissä ole jo? RTX I/O lupaa 2:1 ratiota eli kun SSD:ltä tulee 7GB/s datastream niin GPU purulla dataa siirtyy 14GB/s. Suhdeluku lähinnä riippuvainen materiaalista eli pelidata ei pakkaannu järkevästi tiiviimmäksi samalla pysyen 100% rinnakkaistuvana. Samalla tietenkin pakatun pelidatan pitää olla yhteensopiva viimeisen 10v raudan kanssa.
Ei ole dedikoitua purkuengineä PC gpu puolella vielä. Purku tehdään nykyisissä pc-piireissä compute shaderilla. Pleikkarissa ja xboxissa on dedikoitu rautapurku, mutta ne on konsolivalmistajien omia viritelmiä.
 
Samalla tietenkin pakatun pelidatan pitää olla yhteensopiva viimeisen 10v raudan kanssa.
Tuo ei ole ongelma, kun softapurku on käytännössä pakko olla kaikille noille GPU:n tukemille pakatuille formaateille, että saa konesalin CI/CD-koneilla käsiteltyä noita assetteja. Eli vanhemmilla näytönohjaimilla varustetuissa pelikoneissa CPU-purkaa sen häviöttömän pakkauksen aluksi pois ja siirtää vasta sitten häviöllisesti pakatun datan näytönohjaimelle.
 

Statistiikka

Viestiketjuista
258 314
Viestejä
4 491 032
Jäsenet
74 194
Uusin jäsen
Juhisti

Hinta.fi

Back
Ylös Bottom