VRAM:in määrästä?

Mä olen järkyttynyt jos tuo 10gb riittää edes 2 vuotta. Uusilla konsoleilla on nyt 16gb josta 4 on OS ja 10+2 käytännössä peleille, joten pelit optimoidaan tuon mukaan, tämä jo on semmonen asia joka takaa että 10gb ei tule riittämään loputtomiin.
Muistisplitti menee eri tavalla eri konsoleilla. XSX:llä jako on 10GB VRAM tai "GPU Optimized" memory ja 6GB general purpose memory. GP:stä 2.5GB menee käyttikselle ja 3.5GB peleille. Käytännössä kuitenkin nopeuserosta johtuen "VRAM käyttö" ei voi realistisesti kasvaa yli tuon 10GB rajan, sen sijaan pelit voivat joutua kasvamaan VRAM:n puolelle ja syömään tuota 10GB lohkoa. Täten siis maksimi realistisesti käytettävissä oleva VRAM olisi 10GB, mutta käytännössä se tulee menemään alle tuon koska tuo 3.5GB ei mitenkään tule riittämään kaikille peleille.

PS5:lla ei ole tällaista jakoa vaan on vain yksi muisti joka on hitaampi kuin Xbox:n GPU Optimized ja nopeampi kuin GP. Ongelma on kuitenkin sama kun 16GB "kynttilää" yritetään polttaa molemmista päistä. Jokatapauksessa 3080 muisti on selvästi nopeampi kuin mikään kummankaan konsolin muisteista eikä noilla tule olemaan mitään saumaa 16/32GB RAM + RTX 3080 PC:tä vastaan pelisuorituskyvyssä.

Kun puhutaan 5 vuotta niin lyön pääni pantiksi että ei riitä ellet pelaa 1080p, ja jos pelaat niin miks hankkia edes 3080 kun 1000 sarjasetki jaksaa hyvin 1080p.
Ymmärrätkö nyt ihan mistä puhut? Mitä tarkoittaa ylipäätään 1080p pelaaminen tai 4K pelaaminen tai "riittäminen"? Nuo on vain buzzwordeja joilla sivutetaan se että valitun renderöintiresoluution suorituskyky on riippuvainen kaikista muista asetuksista ja peleistä mitä pelataan. Miksi ylipäätään päivittää vanhasta kunnon 760:sta kun silläkin voi "pelata ihan hyvin" 1080p:llä tai vaikka Voodoo 5:sta?

Tällä hetkellä ihan uusimissa peleissä ja todn tulevat ns Triple A games 1-2 vuoden sisällä käyttävät about tuon 10gb jos pelaat 4k resollta tai ehkä jopa 1440p Ultrawide.
Tai sitten ei. Tähän toki vielä DLSS ja RTX IO päälle niin tuskin realistisesti tullaa koko kortin elinkaaren aikana näkemään pullonkaulaa VRAM:n kohdalla tai ainakaan sitä ensimmäistä.

Kyllä toi 3080 VRAM määrä ajaa asiansa 2 vuotta kaikki nupit kaakossa, sen jälkeen en enään pidättäis henkeäni...
Edes tällä hetkellä mikään kortti ei kykene pyörittämään uusimpia top pelejä nupit kaakossa (Cyberpunk) eikä ole VRAM:sta kiinni joten siinä vaiheessa kun VRAM loppuu jos ikinä on "nupit kaakossa" aivan turha tavoite jo muutenkin.

Tällä hetkellä tosin ainoo joka oikeesti käyttää eik' vain "allocate" tuon koko 10 GB ja vähä yli on Watch Dogs Legion 4k kaikki täysillä ja Ray Tracing.
Eikä tämäkään pidä paikkansa.
Käyttö on n. 8.5GB.

On muutenkin hiukan huvittavaa tutkia 3080 VRAM käyttöä RTX päällä jos vertaillaan konsoleihin tai AMD näyttiksiin kun näiden RT-suorituskyky on aivan käyttökelvottomalla tasolla. Edes teoreettisella VRAM loppumisella ei olisi mitään merkitystä siihen nähden jos näille vastineille asetetaisiin samat RT ja FPS vaatimukset.
 
Että miten jaksetaan puhua tuossa 3080:n muistista kun suurin osa näytönohjaimista omaa vähemmän muistia kuin se. Toki tehokkaammilla näyttiksillä pelataan isommilla resoilla ja vaativimmilla asetuksilla, mutta silti...laittakaa testejä mitä löydätte aiheesta.

Onkos testejä tuolla Godfallilla tehty? Sen kun pitäisi olla täydellinen malliesimerkki. Ja olemassa olevasta raudasta on kaksi hemmetin hyvää verrokia olemassa, 3070 ja 2080 Ti. Suorituskyky on riittävän lähellä toisinaan mutta muistin määrä on reippaasti eri. Jolloin jos muistilla on merkitystä niin sen pitäisi näkyä noilla.

(googlettaa)


Voi ei, eicä :itku:

2080 Ti häviää verrokilleen, ja 4k reippaasti enemmän kuin 1440p. Se siitä ylimääräisen vramin hyödyllisyydesta. Tosin, jos muistelen oikein, niin tuossa godfallissa piti olla joku erikoisasetus sen suurelle muistinkäytölle jolle mukamas(ihan sen pelin kehittäjän mukaa) pitäisi viedä niin paljon muistia että ainoastaan big navi ja BFGPU riittäisi sille. (se asetus oli Amd FidelityFX LPM millä pelin benchmark vetää vramin yli 11 gigaa)
 
Ei kyse ole edelleenkään siitä, etteikö 10gb riittäisi JUST NYT.

Kyse on siitä, että se ei ehkä riitä kohta, tai kahden vuoden päästä. Se on heikko suoritus markkinoiden isoimpaan piiriin perustuvalta kortilta.

Toinen asia on se, miten muistin määrä on kehittynyt.

03/15 Titan X 12gb, 999$
06/15 980ti 6gb, 649$
05/16 1080 8gb, 599$
08/16 Titan X Pascal 12gb, 1199$
03/17 1080 Ti 11gb, 699$
09/18 2080 8gb, 699$
09/18 2080 Ti 11gb, 999$
12/18 Titan RTX 24gb, 2499$
09/20 3080 10gb, 699$
09/20 3090 24gb, 1499$

80-kortti on ollut nVidian markkinoinnin mukaan "tehokkain kuluttajakortti" aina ja sen muistimäärä ei ole noussut kolmessa sukupolvessa kuin 25%. Joko kolme sukupolvea taaksepäin muistia oli täysin yliampuva määrä tai sitten sitä on nyt aika vähän. Sanoisin, että jopa molemmat ovat totta ja jo 2015 julkaistussa tonnin kortissa on enemmän muistia kuin 2020 julkaistussa 700 kortissa

Ti:t, Titanit ja 90-kortit ovat sitten "prosumer" tai jopa "ammattilaiskäyttöön" suunnattuja kortteja ja niissä onkin sitten aika överit määrät muistia ollut usein
 
Että miten jaksetaan puhua tuossa 3080:n muistista kun suurin osa näytönohjaimista omaa vähemmän muistia kuin se. Toki tehokkaammilla näyttiksillä pelataan isommilla resoilla ja vaativimmilla asetuksilla, mutta silti...laittakaa testejä mitä löydätte aiheesta.

Onkos testejä tuolla Godfallilla tehty? Sen kun pitäisi olla täydellinen malliesimerkki. Ja olemassa olevasta raudasta on kaksi hemmetin hyvää verrokia olemassa, 3070 ja 2080 Ti. Suorituskyky on riittävän lähellä toisinaan mutta muistin määrä on reippaasti eri. Jolloin jos muistilla on merkitystä niin sen pitäisi näkyä noilla.


Godfallista löytyy youtubesta videoita, jossa sitä vedetään 3090:lla ja 6800XT:llä asetukset oikeasti tapissa. Techpowerup testaisi ilman fidelityfx:n tone mappingia:
"AMD FidelityFX LPM is supported according to the menu, but it has no effect on FPS or image quality—it may just be bugged."

Tuo asetus päällä peli haukkaa sen 12Gb. Voi olla, että sen toiminta on korjattu launchin jälkeen, tulihan se säteenseurantatukikin jälkikäteen patchina.
 
Hankala on mitata VRAM:n käyttöä ohjelmistolla. Mun mielestä paras mittari on kun VRAM yksinkertaisesti loppuu kesken jolloin FPS tippuu totaalisesti, mitä tapahtuu nyt jossain peleissä 4k ultra asetuksilla 4GB korteilla. Erinäisiä 4k ultra testejä katsellessa RTX 2060 kortilla, jossa on vain 6GB VRAM, ei ole mitään ongelmaa vielä.
 
Hankala on mitata VRAM:n käyttöä ohjelmistolla. Mun mielestä paras mittari on kun VRAM yksinkertaisesti loppuu kesken jolloin FPS tippuu totaalisesti, mitä tapahtuu nyt jossain peleissä 4k ultra asetuksilla 4GB korteilla. Erinäisiä 4k ultra testejä katsellessa RTX 2060 kortilla, jossa on vain 6GB VRAM, ei ole mitään ongelmaa vielä.
Ei se muistin loppuminen aiheuta ku satunnaisia katkoksia. Ennen muistin loppua loppuu grafiikkaprossulta tehot totaalisesti ja fps sukeltaa.
 
Ei se muistin loppuminen aiheuta ku satunnaisia katkoksia. Ennen muistin loppua loppuu grafiikkaprossulta tehot totaalisesti ja fps sukeltaa.

Njaa.. Marvel avengers hd tekstuuripaketilla dippasi 42 -> 17fps 2080TI:llä, mutta perffi palasi takaisin, jos otti vain tekstuurit pois ultralta. Eli kyllä ne kyllä ne fps:t voi sukeltaa rajusti muistin loppuessa, vaikka kortissa onkin vääntöä.

Osa peleistä hoitaa hommaa fiksummin, kerran muistissa on pari/kolme lod tasoa (kauempana olevat asiat piirretään yksinkertaisemmalla geometrialla ja paskemmilla tekstuureilla), niin jos muistissa ei ole tarkinta versiota, niin näytetään sitä heikkolaatuisempaa, kunnes se oikea lod on saatu ladattua. Tuosta tulee vähän frametimehäiriöitä, jotka ei näy keskiarvo fps:ssä ja pelaaja näkee texturepopuppia.
 
Njaa.. Marvel avengers hd tekstuuripaketilla dippasi 42 -> 17fps 2080TI:llä, mutta perffi palasi takaisin, jos otti vain tekstuurit pois ultralta. Eli kyllä ne kyllä ne fps:t voi sukeltaa rajusti muistin loppuessa, vaikka kortissa onkin vääntöä.

Osa peleistä hoitaa hommaa fiksummin, kerran muistissa on pari/kolme lod tasoa (kauempana olevat asiat piirretään yksinkertaisemmalla geometrialla ja paskemmilla tekstuureilla), niin jos muistissa ei ole tarkinta versiota, niin näytetään sitä heikkolaatuisempaa, kunnes se oikea lod on saatu ladattua. Tuosta tulee vähän frametimehäiriöitä, jotka ei näy keskiarvo fps:ssä ja pelaaja näkee texturepopuppia.
Ei ne tekstuurit sellaisenaan muistista tule vaan GPU hoitaa nekin ruudulle.
 
Ei ne tekstuurit sellaisenaan muistista tule vaan GPU hoitaa nekin ruudulle.

Ja jos ne ei mahdu muistiin ja peli on koodattu niin, että käytetään sitä tarkinta versiota, niin niitä swappaillaan pcie väylän yli keskusmuistista. Sitä odotellessa se gpu lähinnä pyörittelee peukaloitaan.
 
Ja jos ne ei mahdu muistiin ja peli on koodattu niin, että käytetään sitä tarkinta versiota, niin niitä swappaillaan pcie väylän yli keskusmuistista. Sitä odotellessa se gpu lähinnä pyörittelee peukaloitaan.
Ei sinne näyttiksen muistiin koko pelin tekstuureita tarvitse ladata ja neki on pakattuja
 
Ja jos ne ei mahdu muistiin ja peli on koodattu niin, että käytetään sitä tarkinta versiota

Ei pelejä koodata niin, että aina käytetään tarkinta versiota, vaan peleissä käytetään MIP-mappingiä eli tekstuureista käytetään aina sitä versiota, mikä on oikeankokoinen versio että skaalaus ei aiheuta ongelmia.

Aina tarkimman version käyttäminen olisi todella typerää, koska kuvanlaatu olisi vaan huonompi.

, niin niitä swappaillaan pcie väylän yli keskusmuistista. Sitä odotellessa se gpu lähinnä pyörittelee peukaloitaan.

Ei sen tarvi pyöritellä peukaloitaan, sillä on todella paljon järkevää tekemistä:

Nykynäyttiksissä on jokaisella shader-ytimellä n. parinkymmenen säikeen (work groupin tai warpin) monisäikeistys.

Jos yksi säe stallaa "pitkäksi aikaa" kun jotain tekstuuria ladataan keskusmuistista, siellä esim. 19 säiettä/warppia/work grouppia vielä jotka ei stallaa siihen. (tosin käytännössä muutama näistä on jatkuvasti lyhyessä stallissa kun ilman stallia voidaan tekstuuroida vain L0/L1-välimuistista, L2-välimuistista tai VRAMista hakeminen aiheuttaa myös jonkin aikaa kestävän stallin)

Ja järkevällä muistinhallinnalla ei tarvi swappailla mitään kokonaisia tekstuureita, vaan voidaan ladata tarvittavista tekstuureista pieni pala kerrallaan keskusmuistista näyttiksen muistiin. Siinä, että ladataan joku muutaman kilotavun pala ei mene kauaa.


Vois jättää koko vrammin pois, onhan gpu:ssa L1 ja L2 cachekin.

Melkoisen typerää olkiukkoilua
 
Viimeksi muokattu:
Osa peleistä hoitaa hommaa fiksummin, kerran muistissa on pari/kolme lod tasoa (kauempana olevat asiat piirretään yksinkertaisemmalla geometrialla ja paskemmilla tekstuureilla), niin jos muistissa ei ole tarkinta versiota, niin näytetään sitä heikkolaatuisempaa, kunnes se oikea lod on saatu ladattua. Tuosta tulee vähän frametimehäiriöitä, jotka ei näy keskiarvo fps:ssä ja pelaaja näkee texturepopuppia.

Tekstuurien tarkkuus ja LOD on täysin toisistaan erillä olevaa asiaa.

Ja MIP mapping (joka liittyy tekstuurien tarkkuuteen) ei tarkoita sitä että kaukana käytetään heikompilaatuista tekstuuria vaan MIP mappingin takia kaukana käytetty matalampiresoluutionen teksutuuri antaa paremman kuvanlaadun koska sillä vältetään tekstuurien aliasioitumisongelmat eikä ruudun resoluutiota (selvästi) suuremmasta tekstuurireosluutiosta olisi mitän hyötyä.
 
Ei pelejä koodata niin, että aina käytetään tarkinta versiota, vaan peleissä käytetään MIP-mappingiä eli tekstuureista käytetään aina sitä versiota, mikä onoikeankokoinen versio että skaalaus ei aiheuta ongelmia.

Tuo oli kyllä paskasti muotoiltu, mutta yritys oli viitata aikaisemma postauksen peleihin, jotka käyttää LOD:ia fiksusti. Esim uusin COD, jossa computerbasen testeissä pienempimuistisilla korteilla näkee tekstuurien uudelleen latausta, joka katoaa ökymalleilla. Eli jos muisti loppuu kesken, niin käytetään "väärää" versiota tekstuurista ja geometriasta, kunnes se oikea on saatu ladattua, eikä jäädä odottamaan sen oikean latautumista pcie väylän yli.

Elite Dangerous teki tosiaan vastaavaa. 3Gb kortilla mentiin diashowksi reson noustessa, mikäli tekstuureja ei tiputtanut heikommiksi. 4Gb oli sulava isoilla tekstuureilla, mutta headlookkia käyttäessä näki, että pilootti oli aina todella matalilla tekstuureilla ja detaililla hypyn jälkeen, mutta tekstuurit pamahti muutamassa sekunnissa näkyviin ilman havaittavaa fps droppia. 8Gb kortilla pilootti oli aina täysillä detaileilla hypyn jälkeen.
 
Tekstuurien tarkkuus ja LOD on täysin toisistaan erillä olevaa asiaa.

Ja MIP mapping (joka liittyy tekstuurien tarkkuuteen) ei tarkoita sitä että kaukana käytetään heikompilaatuista tekstuuria vaan MIP mappingin takia kaukana käytetty matalampiresoluutionen teksutuuri antaa paremman kuvanlaadun koska sillä vältetään tekstuurien aliasioitumisongelmat eikä ruudun resoluutiota (selvästi) suuremmasta tekstuurireosluutiosta olisi mitän hyötyä.

Tää tulikin luettua vasta oman vastauksen jälkeen. Ok. Olin pitäny virheellisesti tuota mip mappingin eri tekstuuriversioita sidottuna tuohon LOD:in eri tasoihin, mutta ne meneekin eri asteikolla.
 
Mitä mieltä te olette siitä, että 3080 Max Q (versio kannettaviin) on 16gb? Nvidia kuitenkin tietää paremmin mitä parin vuoden jälkeen on oletettavissa ja kannettaviin noita peruspulliaiset ei vaihdakaan. Jotenkin tälläsen markkinoijan mutulla (sen yhtään tietämättä enempää tekniseltä kannalta asioita) vähän epäilyttää tuo 10gb.

Mulla on asus tuf oc 3080 tulossa 849,99e hintaan ja tilattu 27.11. Hyvällä tsäkällä voisi saada nopeammin 3080TI:n (tuossa mun kortissa on jo vähän inflatoinnut tuo hinta). Siksi tyhmiä kyselen.

Toki hintaeroa käytettynä (näin ihan sinne päin heittona) satku non-ti ja tin välillä vuoden parin päästä ja uutena ostettuna pari satkua. Todennäköisesti parissa vuodessa ei ehdi huomaamaan mitään eroa, jos kellot ei ole TI:ssa korkeammalla (se voisi kääntää vaa'an siihen suuntaan). Toisaalta en ole myymässä muutamaan vuoteen, jos ei selvää harppausta tule kehityksessä (jolloin taas erot mallien välillä on mitättömiä) - ehkä en silloinkaan jos omat pelit pyörii siitä huolimatta.

Emmä toisaalta ostaisi sellaista autoakaan, jos se olis ihan paska muutaman vuoden päästä (jotenkin käytettyjen näyttisten markkinat ei toimi niin hyvin kun pienempi investointi kuitenkin kyseessä ja menee monella ihansama rahaksi, lisäksi toki käyttöikä huomattavasti pienempi).
 
Viimeksi muokattu:
Mitä mieltä te olette siitä, että 3080 Max Q (versio kannettaviin) on 16gb? Nvidia kuitenkin tietää paremmin mitä parin vuoden jälkeen on oletettavissa ja kannettaviin noita peruspulliaiset ei vaihdakaan. Jotenkin tälläsen markkinoijan mutulla (sen yhtään tietämättä enempää tekniseltä kannalta asioita) vähän epäilyttää tuo 10gb.

Mulla on asus tuf oc 3080 tulossa 849,99e hintaan ja tilattu 27.11. Hyvällä tsäkällä voisi saada nopeammin 3080TI:n (tuossa mun kortissa on jo vähän inflatoinnut tuo hinta). Siksi tyhmiä kyselen.

Toki hintaeroa käytettynä (näin ihan sinne päin heittona) satku non-ti ja tin välillä vuoden parin päästä ja uutena ostettuna pari satkua. Todennäköisesti parissa vuodessa ei ehdi huomaamaan mitään eroa, jos kellot ei ole TI:ssa korkeammalla (se voisi kääntää vaa'an siihen suuntaan). Toisaalta en ole myymässä muutamaan vuoteen, jos ei selvää harppausta tule kehityksessä (jolloin taas erot mallien välillä on mitättömiä) - ehkä en silloinkaan jos omat pelit pyörii siitä huolimatta.

Emmä toisaalta ostaisi sellaista autoakaan, jos se olis ihan paska muutaman vuoden päästä (jotenkin käytettyjen näyttisten markkinat ei toimi niin hyvin kun pienempi investointi kuitenkin kyseessä ja menee monella ihansama rahaksi, lisäksi toki käyttöikä huomattavasti pienempi).

Muistiväylän leveys määrittää muistimäärää joissain tapauksissa enemmän kuin varsinainen muistitarve. Ts. mobiilipiirissä on 256-bit väylä, joten sen perään menee joko 8GB tai 16GB. Desktop-3080:ssä piiri on 320-bit, joten vaihtoehdot on käytännössä 10GB tai 20GB. Mobiilipiiri on muutenkin aivan eri kuin varsinaisessa 3080:ssä, joten vertailu on turhaa.

Tuo muistiväylä oli yksi asia, mikä 3080:ssä määräsi muistimäärän vähän alakanttiin siihen nähden, mikä olisi ollut optimi. Nvidia olisi toki voinut tehdä 3080:n 384-bit väylällä ja 12GB muistilla, mutta silloin suorituskykyeroa ei olisi tullut 3090:iin käytännössä lainkaan. Mutta silti: high end -näyttisten markkinoilla on viime ajoilta kolme ankkuria, jotka tulevat vaikuttamaan PC-pelien muistimäärän käyttöön vielä pitkään: 1080Ti, 2080Ti ja 3080. Kaikki ovat aika suosittuja verrattuna mihinkään näytönohjaimiin, joissa olisi tuota 10-11GB enempää muistia. Menee käytännössä ainakin vuosi ennen kuin pelikoneissa ympäri maailmaa on missään määrin merkittävästi näytönohjaimia, joissa on yli 11GB muistia. Väitän, että n. 10GB tulee olemaan se ultra-asetusten target mitä VRAM-käyttöön tulee vielä parin vuoden ajan. Sen jälkeen alkaa ehkä vähän useammin ilmestyä sieltä täältä pelejä, joissa joissain tilanteissa yli 10GB on eduksi. Joitain poikkeustapauksiahan on jo, mutta vaatii harrastuneisuutta niihin törmätä koska vähänkään suositummat pelit optimoidaan markkinoiden suosiman raudan mukaan.
 
Muistiväylän leveys määrittää muistimäärää joissain tapauksissa enemmän kuin varsinainen muistitarve. Ts. mobiilipiirissä on 256-bit väylä, joten sen perään menee joko 8GB tai 16GB. Desktop-3080:ssä piiri on 320-bit, joten vaihtoehdot on käytännössä 10GB tai 20GB. Mobiilipiiri on muutenkin aivan eri kuin varsinaisessa 3080:ssä, joten vertailu on turhaa.

Tuo muistiväylä oli yksi asia, mikä 3080:ssä määräsi muistimäärän vähän alakanttiin siihen nähden, mikä olisi ollut optimi. Nvidia olisi toki voinut tehdä 3080:n 384-bit väylällä ja 12GB muistilla, mutta silloin suorituskykyeroa ei olisi tullut 3090:iin käytännössä lainkaan. Mutta silti: high end -näyttisten markkinoilla on viime ajoilta kolme ankkuria, jotka tulevat vaikuttamaan PC-pelien muistimäärän käyttöön vielä pitkään: 1080Ti, 2080Ti ja 3080. Kaikki ovat aika suosittuja verrattuna mihinkään näytönohjaimiin, joissa olisi tuota 10-11GB enempää muistia. Menee käytännössä ainakin vuosi ennen kuin pelikoneissa ympäri maailmaa on missään määrin merkittävästi näytönohjaimia, joissa on yli 11GB muistia. Väitän, että n. 10GB tulee olemaan se ultra-asetusten target mitä VRAM-käyttöön tulee vielä parin vuoden ajan. Sen jälkeen alkaa ehkä vähän useammin ilmestyä sieltä täältä pelejä, joissa joissain tilanteissa yli 10GB on eduksi. Joitain poikkeustapauksiahan on jo, mutta vaatii harrastuneisuutta niihin törmätä koska vähänkään suositummat pelit optimoidaan markkinoiden suosiman raudan mukaan.
Toki muistaa nyt kun AMD:llä on varteenotettavat kortit ja tarjoavat 16gb suurimpaan osiin malleistaan niin silläkin voi olla merkitystä mihin suuntaan pelintekijät tuota kelkkaa vetää. Lisäksi muistetaan että näiden kaikkien tuotteiden valmistajat on pörssiyhtiöitä jotka haluu tehdä rahaa. Mikäs sen mukavempaa kun tehdä tuote joka on kiva 2 vuotta ja sitten "pitää jo kovasti" harkita päivittämistä..

...samalla nahkatakki nauraa matkalla pankkiin....
 
Muistiväylän leveys määrittää muistimäärää joissain tapauksissa enemmän kuin varsinainen muistitarve. Ts. mobiilipiirissä on 256-bit väylä, joten sen perään menee joko 8GB tai 16GB. Desktop-3080:ssä piiri on 320-bit, joten vaihtoehdot on käytännössä 10GB tai 20GB. Mobiilipiiri on muutenkin aivan eri kuin varsinaisessa 3080:ssä, joten vertailu on turhaa.

Tuo muistiväylä oli yksi asia, mikä 3080:ssä määräsi muistimäärän vähän alakanttiin siihen nähden, mikä olisi ollut optimi. Nvidia olisi toki voinut tehdä 3080:n 384-bit väylällä ja 12GB muistilla, mutta silloin suorituskykyeroa ei olisi tullut 3090:iin käytännössä lainkaan. Mutta silti: high end -näyttisten markkinoilla on viime ajoilta kolme ankkuria, jotka tulevat vaikuttamaan PC-pelien muistimäärän käyttöön vielä pitkään: 1080Ti, 2080Ti ja 3080. Kaikki ovat aika suosittuja verrattuna mihinkään näytönohjaimiin, joissa olisi tuota 10-11GB enempää muistia. Menee käytännössä ainakin vuosi ennen kuin pelikoneissa ympäri maailmaa on missään määrin merkittävästi näytönohjaimia, joissa on yli 11GB muistia. Väitän, että n. 10GB tulee olemaan se ultra-asetusten target mitä VRAM-käyttöön tulee vielä parin vuoden ajan. Sen jälkeen alkaa ehkä vähän useammin ilmestyä sieltä täältä pelejä, joissa joissain tilanteissa yli 10GB on eduksi. Joitain poikkeustapauksiahan on jo, mutta vaatii harrastuneisuutta niihin törmätä koska vähänkään suositummat pelit optimoidaan markkinoiden suosiman raudan mukaan.

Eikö se olisi Nvidian tai ainakin AMD:n preferensseissä noihin "yhteistyö" peleihin laittaa ihan tahalleen, vaikka 12gb muistivaatimusta (kunhan pystyy jollain asetuksilla pelaamaan 10gblläkin)? Siinä voi olla joidenkin pelien kohdalla suurempi raha saatavissa myytyjen näytönohjaimien kautta vs. pelinmyynnin kautta. Toi ei ole ihan niin yksiselitteinen asia mitä täällä maalataan (reddit ja overclocked foorumeilla enemmän skeptikkoja ainakin). En mä usko tekeväni huonoa päätöstä 3080 ostamisella, mutta tässä on monia asioita, minkä takia toi nykytilanne voi vaihtua nopeasti. Toi on kuitenkin enemmän yritysten voittojen maksimoimista kun ihan puhdasta insinöörmäistä specsi-imatikkaa. Toi Godfall vaikka esimerkkinä kun teennäisesti halutaan boostata AMD näyttisten suurempaa muistia.
 
Eikö se olisi Nvidian tai ainakin AMD:n preferensseissä noihin "yhteistyö" peleihin laittaa ihan tahalleen, vaikka 12gb muistivaatimusta (kunhan pystyy jollain asetuksilla pelaamaan 10gblläkin)? Siinä voi olla joidenkin pelien kohdalla suurempi raha saatavissa myytyjen näytönohjaimien kautta vs. pelinmyynnin kautta. Toi ei ole ihan niin yksiselitteinen asia mitä täällä maalataan (reddit ja overclocked foorumeilla enemmän skeptikkoja ainakin). En mä usko tekeväni huonoa päätöstä 3080 ostamisella, mutta tässä on monia asioita, minkä takia toi nykytilanne voi vaihtua nopeasti. Toi on kuitenkin enemmän yritysten voittojen maksimoimista kun ihan puhdasta insinöörmäistä specsi-imatikkaa. Toi Godfall vaikka esimerkkinä kun teennäisesti halutaan boostata AMD näyttisten suurempaa muistia.
Ei 3080 missään nimessä ole huono päätös/ostos, tuntuu että moni on tullut hakemaan tähän topicciin hyväksyntää tai puolusteleen 3080 hankintaa. Olisin itsekkin ostanut 3080 kortin jossei oma kärsivällisyys olisi 6 vuotiaan tasolla. Mutta OP kun kyseli 5 vuoden aikajansta, epäilen että silloin enään 4k yms uusimissa kova graffusissa peleissä riittää tuo 10gb.

Toi 3080 menee taatusti VRAM osalta 2 vuotta kyselemättäkään, jos kehitys ei nopeudu nykyisestä niin sillä pelaa hyvin 4 vuotta., ja nyt puhun aina uusimmista vaativista peleistä mitä julkaistaan en CSGO kaltaisista mitkä pyörii leivänpaahtimellakin.
 
Niin, pelintekijöiden rahathan tulee pelaajilta, ei AMD:ltä ja Nvidialta. Kortinvalmistajien intresseissä toki olisikin tasaisin väliajoin järjestää vanhalle raudalle pakkopäivitykset, mutta kun markkinoilla ei ole vielä kuin kourallinen 16GB kortteja eikä niitä tällä tahdilla vuoden päästäkään ole kuin prosentilla tai parilla pelikoneiden omistajista, niin tuo 10-11GB on se ankkuripiste, jonka mukaan pelit viilataan.
 
Niin, pelintekijöiden rahathan tulee pelaajilta, ei AMD:ltä ja Nvidialta. Kortinvalmistajien intresseissä toki olisikin tasaisin väliajoin järjestää vanhalle raudalle pakkopäivitykset, mutta kun markkinoilla ei ole vielä kuin kourallinen 16GB kortteja eikä niitä tällä tahdilla vuoden päästäkään ole kuin prosentilla tai parilla pelikoneiden omistajista, niin tuo 10-11GB on se ankkuripiste, jonka mukaan pelit viilataan.

Ei ole nyt lähdettä, mutta väittäisin tämän olevan epätosi. Ehkä voi mennä sitä kautta, että kortinvalmistajat sponssaavat teknologiaa tai antavat tukea markkinointiin, mutta siitä huolimatta rahat pelkästään pelaajilta ei ole nykypäivää.
 
Ei ole nyt lähdettä, mutta väittäisin tämän olevan epätosi. Ehkä voi mennä sitä kautta, että kortinvalmistajat sponssaavat teknologiaa tai antavat tukea markkinointiin, mutta siitä huolimatta rahat pelkästään pelaajilta ei ole nykypäivää.

Voi että. Ihan huoletta voin kertoa sulle, että niin sekaisin markkinatalous ei vielä ole, etteikö ammatinharjoittajien rahalähde olisi asiakkaat :lol:
 
Mielestäni on vähän turhaa spekuloida 10GB riittävyyttä 4k-resolla 5 vuoden päähän, koska 3080:stä loppuu todennäköisemmin vääntö kesken ennen muistia. Tälläkin hetkellä 4k/60 ultra asetuksilla monet pelit pyörii siinä 60fps rajamailla. 2-3 vuoden päästää täytyy jo karsia asetuksia ja luopua 4k-resosta.
 
Voi että. Ihan huoletta voin kertoa sulle, että niin sekaisin markkinatalous ei vielä ole, etteikö ammatinharjoittajien rahalähde olisi asiakkaat :lol:

No pohjimiltaan voidaan toki miettiä rahan olemusta ja mitä se on, mutta kyllä on tilanteita joissa "asiakkaat" eivät maksa ammatinharjoittajan palkkaa kokonaan tai suurimalta osin.

Esimerkiksi yksilölajien ammattiurheilijat saavat palkkansa ensisijaisesti sponsoreilta, toissijaisesti valtion/veikkauksen/urheiluliiton avustuksista ja vasta kolmanneksi osallistumispalkkioina kisojen järjestäjiltä, jotka keräävät rahat asiakkailta pääsylipputuloina ja oheismyyntinä.

Siis jos AB Leipomon OY sponssaa jotain mäestätippujaa, niin ensisijaisesti ne on ne pullaa ja limppua ostavat ihmiset jotka palkan maksaa, eivät ne asiakkaan joille kyseinen harriolli "esiintyy" kilpailuissa.

Vähän samanlainen malli on esim Sonylla ja Nintendolla konsolien kanssa. Laitteet myydään nollakatteella tai jopa tappiolla, jotta saadaan myytyä mahdollisimman paljon pelejä. Jos näyttismyynti olisi kultakaivos, niin toki ihan hyvin olisi mahdollista että tämä kääntyisi toisinpäin. Eli siis että näyttisvalmistajat maksaisivat pelifirmoille entistä raskaampien pelien tekemisestä, jotta saataisiin myytyä maksimit näytönohjaimia. Tällöin taas pelin ostava asiakas ei olisi se, mistä rahat (pääasiallisesti) tulee
 
Kiitos ratkakapu!

Ammatinharjoittajat ja isot peliyhtiöt ei ole oikein rinnasteisia ja siltikin logiikka ontuu (ed. viesti). Suosittelen kansantalouden peruskirjoja specops, selvästi kiinnostaa aihe.

Streamauspalvelut tuo vielä uuden ulottuvuuden tähän. Aika moni on ottanut Microsoft Game Passin pelatakseen Wasteland 3. Microsoftin pitää kompensoida inXilelle (jonka tosin itse omistaa ja on antanut kehitysrahan, joten paskimmillaan antaa kuukausibonuksen työntekijöille). Nyrkkisääntönä toki pelaajilta tulee pelinkehittäjille rahat, mutta usein nämä näytönohjaimen mukana tulevat pelit (ja vastaavat) on juuri niitä, joissa kikkaillaan esim. tarvittavan vrammin määrässä, tai tuodaan uutta teknologiaa, kuten DLSS, joka ei pyöri ollenkaan vanhoilla korteilla (taas omien vanhojen korttien kannabilisointia uusien korttien eduksi - toki on hieno teknologiakin).

Pitkään olin mukana tekemässä jopa yhdeksännumeroisia sopimuksia isojen multikansallisten yhtiöiden kanssa, joten jonkinmoinen käry on mitä siellä sopimuksissa on ja miten hajautunut se tulonmuodostus voi olla, vaikka ala olikin eri.

Toi, että vääntö loppuu ennen kuin muisti on siitä kaksipiippuinen, että jos vertaat uusiin sukupolviin, niin toki otat tehoissa nokkiisi. Mutta jos vertaat sitä sisareensa niin voi olla, että muutaman vuoden päästä pystyt pelaamaan paremmin 3080TI:llä kuin 3080:lla, koska muistista ei tule showstopperia. Valitettavasti se ei välttämättä näy täysimääräisenä jälleenmyyntiarvossa, mutta musta esim. on kiva kerran katsoa kone kuntoon ja unohtaa se pidemmäksi aikaa (edeltävän tein kymmenen vuotta sitten, jonka päivitin nyt käytetyllä 1080:lla kun jouduin muiden kanssa jonottamaan ja yksi pelikannettava mulla oli välissä; ei mun tarttis tehdä nän, mutta jotenkin tulee parempi fiilis kun tekee asiat järkevästi).

Tolla nyt oli joku aasinsilta/implikaatio mistä tulee rahat ja mitä käy vram muistin määrälle, mutta vähän menee turhan off-topicsi, vaikka itse alotinkin (mun osalta oli tässä) :/
 
Olen opiskellut markkinataloutta sekä mikro- että makrotasolla jonkin verran, kiitos ehdotuksesta kuitenkin.

Ratkakapukin kuvaa tilanteita, joissa asiakas tosiasiassa nimenomaan maksaa ne rahat. Asiakkaan tunnistaminen on markkinatalouden ja liiketoiminnan ydinkysymyksiä. Ammattiurheilijan asiakkaat eivät ole kisojen katsojat, vaan nimenomaan sponsorit ja yhteistyökumppanit. Yksikään ammattiurheilija kun ei myy lippuja niihin kisoihin. Sen sijaan videopelien kehittäjät tekevät tuotteita, joita ostavat loppukäyttäjät eli pelaajat. Sponsorointi on aivan totaalinen itikan pissa verrattuna siihen rahamäärään, jonka AAA-pelit saavat myynneistä.

Jos kohtuullisen suosittu PC-peli myy vaikkapa 2 miljoonaa kopiota keskihinnalla 25 euroa, niin loppukäyttäjät tuovat kassavirtaa 50 miljoonaa euroa. Nvidian konsernitason mainosbudjetti näyttäisi pikaisen googletuksen perusteella olevan noin 15-20 miljoonaa dollaria. Yksi hittipeli tuottaa siis kehittäjälleen enemmän kassavirtaa kuin mitä joku Nvidia käyttää mainostukseen vuodessa. Vaikka kaikki tuo markkinointiraha suunnattaisiin pelin sponsorointiin (mikä on erittäin kaukana totuudesta, Nvidian tuloistakin suurin osa tulee jo pelisektorin ulkopuolelta), niin Nvidia pystyisi "ostamaan" vaivoin yhden pelin vuodessa. Eli laittamalla koko potin kiinni yhteen peliin saisivat juuri sen verran vipuvartta ko. pelin kehitäjiin, että voisivat tämän yhden pelin osalta esittää "toiveita" VRAM-käytön optimoinnista. Tekeekö tämä riski mielestänne kuinka todennäköiseksi sen, että näytönohjainvalmistajien sponssirahat määrittäisivät koko pelialan suunnan, mitä tulee VRAMin käyttöön?
 
Tässä Hardware Unboxed videossa KyperiPunkista tuo kaveri väittää (n. 7:00 eteenpäin), että jo 1440 resoluutiolla (Ultra preset, DLSS quality, RT reflections only) 8GB näyttismuistia rajoittaa menoa.

Lisäksi tuon videon perusteella RTX 2060 kortin 6GB hidastaa menoa melkoisesti verrattuna RTX 2060 Superiin jossa on 8GB muistia.
 
Niin, pelintekijöiden rahathan tulee pelaajilta, ei AMD:ltä ja Nvidialta. Kortinvalmistajien intresseissä toki olisikin tasaisin väliajoin järjestää vanhalle raudalle pakkopäivitykset, mutta kun markkinoilla ei ole vielä kuin kourallinen 16GB kortteja eikä niitä tällä tahdilla vuoden päästäkään ole kuin prosentilla tai parilla pelikoneiden omistajista, niin tuo 10-11GB on se ankkuripiste, jonka mukaan pelit viilataan.

Joo, 10 gigaa vram ja yli pelaajiahan on niin paljon.
 
Oma mielipide on että nyt kannattaa vähintään olla 8gb, ja epäilen että nyky hinta tasolla 8gb tulee riittään suht pitkälle, jos ei 4k:lla pelaa, aika harva ostelee 700-900e kortteja, sitä varmasti joutuu pelintekijät miettiin.
 
Voi että. Ihan huoletta voin kertoa sulle, että niin sekaisin markkinatalous ei vielä ole, etteikö ammatinharjoittajien rahalähde olisi asiakkaat :lol:

Tosin jos yrittäjäjärjestöjä ja EK:ta kuuntele niin mielummin ottaisivat voitot suoraan valtion tukina ja asiakkaat voisi unohtaa turhana palvelukuluna ;-)
 
Joo, 10 gigaa vram ja yli pelaajiahan on niin paljon.

Nopean säteenseurannan omistajiahan on myös niin paljon, mutta silti niillekkin tehdään pelejä. Eiköhän pelit pysy useamman vuoden tuossa 8-10Gb sisällä, jos ei lataa sitä optionaalista HD tesktuuripakettia.
 
Pelien osalta en 10GB VRAMista ollut huolissaan syksyn näyttisarpajaisissa, mutta hyötyohjelmien suhteen kylläkin (pääasiassa Davinci Resolven osalta). Paperilla AMD:n 6000-sarjan 16GB näyttää todella paljon lupaavammalta kuin 3080:n 10GB. Alustavien arvostelujen perusteella jäin kuitenkin 3080-jonoon, koska Nvidian kortit olivat muiden ominaisuuksiensa takia houkuttelevampia kuin AMD:n uutuudet (toimivammat encoderit, CUDA-tuki, GDDR6X jne).

Ekat 6800-sarjan testitulokset Pugetilta tulivat joulukuun alussa ja 3080 osoittautui paljon paremmaksi valinnaksi. AMD:n kortit jäävät Resolvessa jopa 2080-sarjan jalkoihin isommasta muistista huolimatta. Myös Premiere Pro -tuloksissa näkyy selvä ero, jossa 6800XT on tasoissa 3070:n kanssa. Hyötysoftien osalta NVidialla tuntuu olevan ylipäätään iso etumatka ainakin Pugetin testien valossa.

Sama havainto pätee kuten peleissä: Jos näyttis ei muuten pysy perässä, niin ylimääräinen VRAM ei auta. Peleissä asetuksia pudottamalla VRAMin saa riittämään, mutta hyötysoftissa vastaavaa skaalausmekanismia ei aina ole käytettävissä (esim. työskentelyresoluutiosta voi olla vaikea tinkiä).

pic_disp.php

DaVinci Resolve Studio - AMD Radeon RX 6800 (XT) Performance
 
Olen opiskellut markkinataloutta sekä mikro- että makrotasolla jonkin verran, kiitos ehdotuksesta kuitenkin.

Ratkakapukin kuvaa tilanteita, joissa asiakas tosiasiassa nimenomaan maksaa ne rahat. Asiakkaan tunnistaminen on markkinatalouden ja liiketoiminnan ydinkysymyksiä. Ammattiurheilijan asiakkaat eivät ole kisojen katsojat, vaan nimenomaan sponsorit ja yhteistyökumppanit. Yksikään ammattiurheilija kun ei myy lippuja niihin kisoihin. Sen sijaan videopelien kehittäjät tekevät tuotteita, joita ostavat loppukäyttäjät eli pelaajat. Sponsorointi on aivan totaalinen itikan pissa verrattuna siihen rahamäärään, jonka AAA-pelit saavat myynneistä.

Jos kohtuullisen suosittu PC-peli myy vaikkapa 2 miljoonaa kopiota keskihinnalla 25 euroa, niin loppukäyttäjät tuovat kassavirtaa 50 miljoonaa euroa. Nvidian konsernitason mainosbudjetti näyttäisi pikaisen googletuksen perusteella olevan noin 15-20 miljoonaa dollaria. Yksi hittipeli tuottaa siis kehittäjälleen enemmän kassavirtaa kuin mitä joku Nvidia käyttää mainostukseen vuodessa. Vaikka kaikki tuo markkinointiraha suunnattaisiin pelin sponsorointiin (mikä on erittäin kaukana totuudesta, Nvidian tuloistakin suurin osa tulee jo pelisektorin ulkopuolelta), niin Nvidia pystyisi "ostamaan" vaivoin yhden pelin vuodessa. Eli laittamalla koko potin kiinni yhteen peliin saisivat juuri sen verran vipuvartta ko. pelin kehitäjiin, että voisivat tämän yhden pelin osalta esittää "toiveita" VRAM-käytön optimoinnista. Tekeekö tämä riski mielestänne kuinka todennäköiseksi sen, että näytönohjainvalmistajien sponssirahat määrittäisivät koko pelialan suunnan, mitä tulee VRAMin käyttöön?

Emmä viitti edes teilata sua. Laskiksen kursseja sä et ainakaan oo käynyt. Ei sillä ole väliä kun luvut on noin pielessä ja sä et edes osaa kyseenalaista sitä, mutta R&D ja COGS:in noi kirjataan yleisesti ottaen:

https://s22.q4cdn.com/364334381/files/doc_financials/annual/2019/NVIDIA-2019-Annual-Report.pdf

Itse aioin katsoa hintaeron 3080TI:n ja orggiksen välillä ja tehdä johtopäätökseni siitä. Tarkoitus on tehdä sellanen kone, että kestää muutaman vuoden ainakin. Jos 5900x tulee tässä kuussa, niin sitten ostan varmaan 3090. Se toki mennyt aina melkein niin, että ei kannata futureprooffata, koska kehitys menee aina niin paljon eteenpäin. Toivon tosissaan, että 3080tista löytyy muutenkin enemmän tehoja, niin ei tarvii arvuutella.
 
Viimeksi muokattu:
Emmä viitti edes teilata sua. Laskiksen kursseja sä et ainakaan oo käynyt. Ei sillä ole väliä kun luvut on noin pielessä ja sä et edes osaa kyseenalaista sitä, mutta R&D ja COGS:in noi kirjataan yleisesti ottaen:

https://s22.q4cdn.com/364334381/files/doc_financials/annual/2019/NVIDIA-2019-Annual-Report.pdf

Kannattaisi ehkä silti yrittää, koska sun viesti ei sisältänyt edes suomenkieltä, puhumattakaan mistään vasta-argumenteista. Mainoskulut on budjettierä, jota Nvidia ei erikseen julkaise vuosiraporteissaan. Ko. arvio perustuu siksi markkina-analyytikkojen lausuntoihin. Jos sulla on tarkempi lukema Nvidialta, niin onnea sulle (et tietenkään voi julkaista, koska NDA).

Edit: Ei ku joo, siis yritätköhän sä sanoa, että "oikea" vertailuluku olisi Nvidian R&D-budjetti? Jolloin sun mukaan Nvidia ei investoi varsinaiseen tuotekehitykseen ollenkaan, vaan suoltaa koko R&D-budjettinsa pelinkehittäjien sponsorointiin? :D
 
Hienoa tulkintaa, johtopäätösten vetämisestä erityisesti plussaa! Nyt mä oikeasti jätän tämän keskustelun on-topicille.

EDIT: Sä et nyt osaa katsoa erikseen P&L:sta markkinointia ja mainostamista (jälkimmäinen kyllä pieni miljardiluokan yritykselle).
 
Viimeksi muokattu:
Entä jos unohdetaan pelit: piuha töllöön, kuinka paljon tarvitaan muistia että 4K leffa pyörii tässä kakkosnäytössä?
 
Laitetaas nostoa, ja aloitetaan poikkeuksellisesti full quotella. (no poistin sen ison turhan kuvan)
Kaotik kirjoitti uutisen/artikkelin:
Uutisoimme aiemmin venäläisen modaajan VIK-onin toteuttamasta lähes täysin onnistuneesta GeForce RTX 3070 16 Gt -modista. Nyt kyseinen kortti on päätynyt myös testattavaksi.

YouTube-kanavaa PRO Hi-Tech lainasi VIK-onin modaamaa korttia testatakseen tuplatun muistimäärän vaikutusta suorituskykyyn käytännössä. Testit myös osoittivat, ettei väitteet 8 Gt:n riittämättömyydestä ole täysin tuulesta temmattuja, vaikkei mistään maailmoja mullistavista eroista voidakaan puhua.

[embed]

PRO Hi-Techin testien mukaan esimerkiksi Watch Dogs: Legionissa kaupungilla juostessa keskimääräinen suorituskyky 1440p-resoluutiolla oli vakiolla GeForce RTX 3070:llä 8 Gt:n muistilla keskimäärin 60 FPS, kun huonoin persentiili oli 35 ja persentiilin kymmenys 24 FPS. 16 Gt:n muistilla keskimääräinen FPS oli vain vähän parempi, 62 FPS, mutta huonoimman persentiilin FPS oli peräti 51 ja persentiilin kymmenyksenkin 45 FPS. Toisaalta samassa pelissä on myös alueita, joissa muistin määrällä on vain vähän merkitystä suorituskykyyn. Peli varaa käyttöön hieman yli 8 Gt muistia, jos sitä on saatavilla.

Cyberpunk 2077:ssä muistin määrällä ei ole 1440p-resoluutiolla juurikaan merkitystä, vaikka 16 Gt:n mallilla pudotukset ruudunpäivitysnopeudessa olivatkin aavistuksen pienempiä. Näytönohjaimen muistia varattiin Cyberpunkissa noin 7-7,5 Gt mallista riippumatta. Ghost Recon Breakpointissa muistinvaraus nousee 16 Gt:n mallilla yli 10 gigatavuun, mutta Watch Dogsista poiketen se näkyy vain huonoimmassa persentiilin kymmenyksessä, joka oli 16 Gt:n mallilla 30 FPS eli tuplat verrattuna 8 Gt:n 15 FPS:ään.

Godfall-pelissä RTX 3070 16 Gt:n muistia varataan yli 11 Gt, mikä näkyy myös suorituskyvyssä. Modattu RTX 3070 tarjosi keskimäärin 79 FPS:n suorituskykyä, kun 8 Gt:n modaamaton malli jäi 71 FPS:ään. Heikoimman persentiilin FPS oli 16 Gt:llä 60 ja 8 Gt:llä 51 FPS, kun heikoin persentiilin kymmenykset olivat 44 ja 36 FPS. Pelissä on toisaalta jälleen alueita, joissa muistia varataan selvästi vähemmän, jolloin myös erot korttien välillä katoavat. Pelitestit ajettiin AMD:n Ryzen 9 5900X -prosessorilla.

Lähde: NotebookCheck

Linkki alkuperäiseen juttuun
[/embed]
 
Nyt on ainakin 8Gb vram osoittunut ihan todelliseksi pullonkaulaksi 3070:sen ja 3060 Ti:n osalta RE Villagessa.

 
Nyt on ainakin 8Gb vram osoittunut ihan todelliseksi pullonkaulaksi 3070:sen ja 3060 Ti:n osalta RE Villagessa.


VRAMin käyttö ja VRAMin kulutus on kaksi eri asiaa. Tuossa ei lue kuin käytöstä. Peli varaa muistista tilaa , jos sitä on käytettävänä.

Minunkin Windows käyttää joskus yli 16GB, mutta hyvin se toimisi koneella, jossa olisi vain 16GB muistia.

--

Ainoa asia, joka voi oikeasti tarvita sitä muistia on RT ja DLSS, mutta niitähän tuossa ei ollut, kunhan vaan sivuttiin.
 
VRAMin käyttö ja VRAMin kulutus on kaksi eri asiaa. Tuossa ei lue kuin käytöstä. Peli varaa muistista tilaa , jos sitä on käytettävänä.

Minunkin Windows käyttää joskus yli 16GB, mutta hyvin se toimisi koneella, jossa olisi vain 16GB muistia.

--

Ainoa asia, joka voi oikeasti tarvita sitä muistia on RT ja DLSS, mutta niitähän tuossa ei ollut, kunhan vaan sivuttiin.
Katsoitko nyt koko sivua lainkaan, vai onko noi RT-graafit gurulla ihan väärin? Miten ihmeessä muuten 3060:nen on 3070:stä noin 20% suorituskykyisempi UHD resolla RT päällä, jos ei kyseessä ole 8 GB muistin riittämättömyys.
 
Katsoitko nyt koko sivua lainkaan, vai onko noi RT-graafit gurulla ihan väärin? Miten ihmeessä muuten 3060:nen on 3070:stä noin 20% suorituskykyisempi UHD resolla RT päällä, jos ei kyseessä ole 8 GB muistin riittämättömyys.

RT (ja DLSS) tämänkin tekee, niinkuin tuossa ylempänä olevalla HW Unboxedin videolla. Sinä nyt vaan oletat, että kaikilla on se RT käytössä ja yleistät tämän koskevan ihan jokaista korttia ja riippuvan vaan muistimäärästä.

Jos vaikka itse katsot sitä graafia, niin ongelmia ei ole 1440p eikä 1080p - vain 4K. Tämä skenaario vaatii aika monta asiaa, että tapahtuu oikeasti ja siitä ei pidä tekemän yleistäviä johtopäätöksiä.
 
HW Unboxedin videolla 3060Ti on kuitenkin 3070 kanssa suht tasoissa, eli ei saa kunnon kuvaa siitä paljonko se 8GB vram todellisuudessa rajoittaa. Gurun RE Village testissä 3060 ja 6700XT moppaavat 3070:llä lattiaa, mikä osoittaa taas ihan selvästi 8GB vramin olevan pahasti pullonkaulana.

En tiedä mistä yleistämisestä nyt edes puhut? Ellei gurun testi metodologia tai graafit ole väärässä, niin ihan objektiivinen fakta tuo silloin on. RT-testeissä ei kai ole mitään järkeä ilman RT:tä, ja ihan pelin sisäisillä asetuksilla tämä ongelma on saatu aikaan. Jostain tuo 20% ero 3060 eduksi muodostuu. Minä en ole asiantuntia ja tässä kohtaa täytyy luottaa gurun testeihin.
Mistä muusta se voisi johtua, kuin muistinmäärästä?

Ei se nyt RE Villagen tapauksessa näytä sinänsä mitään erikoista vaativan, jos 3060 RT päällä yltää melkein 60 fps 4k-resolla, eli ihan realistinen ajatus pelata 3070:llä 4k-resolla RT päällä. Edellisessä viestissäni nimenomaan mainitsin UHD-resolla RT päällä, ja vaikka se reso pudotetaan 240p ja otetaan RT pois päältä, niin se ei poista sitä todellisuutta, että 4k-resolla RT päällä 8GB ei tässä tapauksessa riitä.
 
VRAMin käyttö ja VRAMin kulutus on kaksi eri asiaa. Tuossa ei lue kuin käytöstä. Peli varaa muistista tilaa , jos sitä on käytettävänä.

Minunkin Windows käyttää joskus yli 16GB, mutta hyvin se toimisi koneella, jossa olisi vain 16GB muistia.

--

Ainoa asia, joka voi oikeasti tarvita sitä muistia on RT ja DLSS, mutta niitähän tuossa ei ollut, kunhan vaan sivuttiin.
Oli linkissä muistinkäytön lisäksi ihan pelinopeuskuvaaja. Ja siinähän nimenomaan oli pelinopeudet RT päällä. Kyseinen peli pyörii hyvin@2160p + RT, joten ei ole mitään syytä olla käyttämättä RT, koska sillä valot ja varjot näyttävät järkevämmiltä. Paitsi tietysti, jos kortissa on alle 10 Gt VRAM.


NVIDIA

Kun 8 Gt vielä riittää, 1440p + RT:

3090 (24 Gt); 165 fps
3080 (10 Gt); 142 fps
3070 (8 Gt); 110 fps
2080 Ti (11 Gt); 109 fps
3060 Ti (8 Gt); 95 fps
3060 (12 Gt); 74 fps

Korttien väliset erot näyttävät normaaleilta.


Romahdus@8 Gt, 2160p + RT:

3090 (24 Gt); 120 fps
3080 (10 Gt); 102 fps
3070 (8 Gt); 43 fps!
2080 Ti (11 Gt); 78 fps
3060 Ti (8 Gt); 39 fps!
3060 (12 Gt); 52 fps

2160p/1440p -suhdeluku, %:
3090 (24 Gt); 72,7 %
3080 (10 Gt); 71,8 %
3070 (8 Gt); 39,0 %!
2080 Ti (11 Gt); 71,6 %
3060 Ti (8 Gt); 41,0 %!
3060 (12 Gt); 70,3 %

Poikkeavalla suhdeluvullaan esiin pomppasivat 3070 ja 3060 Ti, joissa molemmissa on 8 Gt, eli vähemmän kuin muissa. Jos niiden suhdeluku olisi ollut 3080:n ja 3060:n puoliväli, eli 71,1 %, niin UHD + RT olisi pyörinyt 78 fps@3070 ja 67 fps@3060 Ti. Aivan pelikelpoisia lukemia olisivat siis, mutta koska VRAM on vain 8 Gt, niin pyörivät oikeasti 43 fps ja 39 fps. Muistin vähyyden takia RT kannattaa noilla korteilla kytkeä pois päältä.
 
Oli linkissä muistinkäytön lisäksi ihan pelinopeuskuvaaja. Ja siinähän nimenomaan oli pelinopeudet RT päällä. Kyseinen peli pyörii hyvin@2160p + RT, joten ei ole mitään syytä olla käyttämättä RT, koska sillä valot ja varjot näyttävät järkevämmiltä. Paitsi tietysti, jos kortissa on alle 10 Gt VRAM.


NVIDIA

Kun 8 Gt vielä riittää, 1440p + RT:

3090 (24 Gt); 165 fps
3080 (10 Gt); 142 fps
3070 (8 Gt); 110 fps
2080 Ti (11 Gt); 109 fps
3060 Ti (8 Gt); 95 fps
3060 (12 Gt); 74 fps

Korttien väliset erot näyttävät normaaleilta.


Romahdus@8 Gt, 2160p + RT:

3090 (24 Gt); 120 fps
3080 (10 Gt); 102 fps
3070 (8 Gt); 43 fps!
2080 Ti (11 Gt); 78 fps
3060 Ti (8 Gt); 39 fps!
3060 (12 Gt); 52 fps

2160p/1440p -suhdeluku, %:
3090 (24 Gt); 72,7 %
3080 (10 Gt); 71,8 %
3070 (8 Gt); 39,0 %!
2080 Ti (11 Gt); 71,6 %
3060 Ti (8 Gt); 41,0 %!
3060 (12 Gt); 70,3 %

Poikkeavalla suhdeluvullaan esiin pomppasivat 3070 ja 3060 Ti, joissa molemmissa on 8 Gt, eli vähemmän kuin muissa. Jos niiden suhdeluku olisi ollut 3080:n ja 3060:n puoliväli, eli 71,1 %, niin UHD + RT olisi pyörinyt 78 fps@3070 ja 67 fps@3060 Ti. Aivan pelikelpoisia lukemia olisivat siis, mutta koska VRAM on vain 8 Gt, niin pyörivät oikeasti 43 fps ja 39 fps. Muistin vähyyden takia RT kannattaa noilla korteilla kytkeä pois päältä.

Kyllä. Tämä on taas tällaista puolivänkäämistä.

Mitä väitettiin: Yksi peli vaatii yli 8GB GPU muistia.

Mikä oli totuus: Yksi peli, yhdellä resoluutiolla, yksillä asetuksilla (RTX ON) vaatii tällä hetkellä yli 8GB GPU muistia.

Tuostakaan ei tiedetä, korjaako pelintekijä tämän päivityksellä, kun on niin special case ja niitä GA104-käyttäjiä 4K-resoluutiolla on vain kourallinen.
 
Aiheena kuitenkin on vramin määrästä keskustelua ja spekulointia sen riittävyydestä, että siinä mielessä se yksikin peli missä muodostuu selvä pullonkaula vramin vähyydestä johtuen on alkua tulevalle. En näe mitään merkitystä millä resolla ja asetuksilla se on saatu aikaiseksi, kunhan peli ei ole rikki tai ei mitään vippakonsteja käytetä. Tompalla olivat saaneet saman ongelman aikaiseksi 1440p resolla, että ongelma voi olla myös pelissä.
Myv8GuSqdPQeHcywdHKcL9-970-80.png

 
Toi on nimenomaan hyvä testi, vaikkakin vain yksi peli. Tuollaisia mä olen peräänkuuluttanyt tässä ketjussa kauan sitten, että oikeasti näkee onko suorituskyvyssä eroa jos muistia on enemmän.

Ja luulisi että tuota nimenomaista peliä paranneltaan. Kun se lähtökohta peleissä ja niiden VRAM kuluksessa kuitenkin on että näyttikset jossa on yli 8 GB muistia on edelleen häviävän pieni määrä, ja selvästi 3060 tulosten perusteella tuo ei ole erityisen raskas peli, eli sitä voi hyvin pelata 1440p tai 4k melko hyvillä asetuksilla. Tietysti tuosta pelistä vähän paistaa "AMD inside". Mutta jopa AMD:lta tulee jossain vaiheessa se 6700 non-XT jossa on 6 gigaa muistia, ja 6600 XT, no sitä ei vielä tiedä mutta kyllä tuollaisia 6500-6600 Radeoneita kanssa pitäisi joskus tulla.

Ja voi olla että jollain pienillä asetusmuutoksilla sitä muistinkulutusta saadaan sopivasti leikattua niin että se pyörii 8 GB korteilla niiden todellisen tehon mukaisesti.


Hyvässä testissä siis verrataan lähes saman suorituskyvyn näyttiksiä eli parhaimmat tähän ovat 3070, 2080 Ti ja nykyisin myös 3060. Jossain määrin myös 6700 XT ja 6800 voidaan vertailla 3070:aa vastaan, jos 6700 XT vetää reippaasti ohi 3070:sta niin luultavasti syy on VRAM.

3060:han ei ole kovin lähellä 3070:n suorituskykyä, mutta jos se pääsee edes lähellä saati ohi, on se selvästi vain ja ainostaan siitä VRAMin määrästä johtuva.


Tuossa Toms Hardwaren testissä ei ole mainittu oliko SAM/Rebar käytössä. Guru3D oli mainittu että oli.
 
Tiedä sitten, kuinka hyvä mittari on, mutta äskettäin pistin FarCry 6 lataukseen ja asennusohjelma herjasi alussa, että jos haluat asentaa HD tekstuuri paketin, niin vaaditaan VRAMia yli 11 GB. Itellä vanha 2080 Duali käytössä 8 GB muisteilla, niin en edes lähde kokeilemaan tässä kohtaa sen riittävyyttä. Tällä perusteella sanoisin, että kannattaa jättää harkintaan se 10 GB näyttömuisti ja katsella suosiolla isompia kortteja, jos meinaa jättää tulevaisuudelle varaa. Tosin, näillä saatavuuksilla kerkinee seuraavakin näyttisten sukupolvi ilmestyä ennenkuin ollaan järkevissä hinta-saatavuus suhteissa.
 
Tiedä sitten, kuinka hyvä mittari on, mutta äskettäin pistin FarCry 6 lataukseen ja asennusohjelma herjasi alussa, että jos haluat asentaa HD tekstuuri paketin, niin vaaditaan VRAMia yli 11 GB. Itellä vanha 2080 Duali käytössä 8 GB muisteilla, niin en edes lähde kokeilemaan tässä kohtaa sen riittävyyttä. Tällä perusteella sanoisin, että kannattaa jättää harkintaan se 10 GB näyttömuisti ja katsella suosiolla isompia kortteja, jos meinaa jättää tulevaisuudelle varaa. Tosin, näillä saatavuuksilla kerkinee seuraavakin näyttisten sukupolvi ilmestyä ennenkuin ollaan järkevissä hinta-saatavuus suhteissa.

Hardware Unboxed testasi tyylinsä mukaisesti aika kattavasti peliä. Steve sanoi, että vaikka peli käyttää esim. ultra + DXR on + HD tekstuurit -kombolla yli 8GB VRAMia jo 1440p-resolla, niin jopa RTX 2060 toimi ihan normaalisti 6GB muistillaan. Sitten kun raja tuli vastaan, niin suorituskyky romahti ihan pohjaan, ja 2060:lla se tapahtui 4k-resoon siirtyessä.

Missään suorituskykytaulukossa ei näkynyt mitään merkkiä siitä, että 3080 ei olisi toiminut odotusten mukaisesti min fps -lukemia myöten. Techpowerup mainitsi 3080:n stutteroineen ajoittain, mutta ei tarjonnut mitään mittaustuloksia asiasta. Myöskään Gamegpu:n tai PCGH:n taulukoissa en nähnyt 3080:n mittaustuloksissa mitään merkkiä kyykkäämisestä.

Joka tapauksessa ray tracing näyttäisi olevan se todellinen muistisyöppö, ja tässä kyseisessä pelissä sen poiskytkennällä ei paljon menetä. Numeroiden perusteella voisi 4k + HD tekstuurit toimia ihan ok 8GB kortillakin.

Tuo mainitsemasi herjaus taas vaikuttaa olevan niitä keskeisiä kohtia, joissa AMD on päässyt vaikuttamaan pelinkehitykseen. Mitenköhän se sattuikin se "vaatimus" osumaan just siten, että 3080 ja 2080Ti jää alle, ja AMD:n nykyvalikoimasta 6700 XT:hen asti taas just sen yli...
 

Uusimmat viestit

Statistiikka

Viestiketjuista
261 300
Viestejä
4 534 315
Jäsenet
74 784
Uusin jäsen
vanahabanjo

Hinta.fi

Back
Ylös Bottom