NVIDIA-spekulaatioketju (Lovelace ja tulevat sukupolvet)

Lopettakaa noiden vuotojen todesta ottaminen, ajoin tänään 3090-testit ja tekee pahaa lukea tämmöstä :facepalm:
Huomaa sana "Jos" alussa :) ja samalla NDA:n kirjainten välistä voisit livauttaa jonkin toisenlaisen prosenttiluvun. Nämä vuodot kun ovat faktaa kunnes toisin todistetaan :D
 
Kuulin 3D graffa softapuolen ukolta kuiskailuja että nyky peleissä on arkkitehtuurillisesti melkoisen pahoja pullonkauloja Amperen ja aivan samalla tavalla ison RDNA2 GPU:n kohdalle.

Siis pullonkaulana on tapa jolla pelimoottori on koodattu. Se voi vaikuttaa CPU pullonkaulalta mutta ei sitä varsinaisesti ole.

Kuulema myös AAA peleihin olisi odotettavissa päivityksiä joilla erot turingiin voi kasvaa melkoisen suuriksikin jos eivät sitä vielä ole.
 
Isoimmat parannukset taitaa liittyä DLSS ja rtx IO toteutukseen eikö?
Jos yhtään selvityksistä ymmärsin niin pullonkauloja on myös aivan tyhmässä rasteroinnissa rutkasti.

Mutta minun osaaminen ja ymmärrys asiassa on niin vajavaista että vaikea sanoa ymmärsinkö oikein.
 
Mesh shadereiden käytön toivoisi yleistyvän. Se sallisi gpu:n työskentelevän enemmän yksikseen ilman, että cpu sotkee välissä geometrian kanssa.
 
Vaati että AMD ensin tukee myös, muuten pelidevaajat ovat vähän "shrug, ei oo kaikilla, ei voi käyttää vielä".
 
Uusissa RTX korteissa pitäisi olla "Tensor Memory Compression" joka vähentää VRAM käyttöä 20-40%, onko tästä mitään näyttöä että pitää paikkansa? Mietin vain 3080 10gb ja 20gb versioiden todellista eroa itsellä pelikäytössä.
 
Uusissa RTX korteissa pitäisi olla "Tensor Memory Compression" joka vähentää VRAM käyttöä 20-40%, onko tästä mitään näyttöä että pitää paikkansa? Mietin vain 3080 10gb ja 20gb versioiden todellista eroa itsellä pelikäytössä.
Eikös tuo ollut joku jonkun huhupajan elämää suurempi legenda?
 
Aika lämpöisenä käy muuten 3080:n muistit, Igors lab teki vähän lämpökamerakuvauksia:

"By the way, I can reassure anyone who insists that I took off the backplate. Even when fully assembled, the RAM is still internally at 104 °C for the hottest module. "
 
Eikös tuo ollut joku jonkun huhupajan elämää suurempi legenda?
Voi olla näinkin, törmännyt muutamalla sivulla tähän aiheeseen. Nvidia itse puhuu "memory compression" tekniikasta sen enempää lupailematta mitään todellista vaikutusta VRAM käyttöön.
 
Voi olla näinkin, törmännyt muutamalla sivulla tähän aiheeseen. Nvidia itse puhuu "memory compression" tekniikasta sen enempää lupailematta mitään todellista vaikutusta VRAM käyttöön.

Ei ole missään ollut infoa, sen yhden huhupajan laskemaa huhua lukuunottamatta. Tensorit nyt sopii huonosti pakkaukseen ja siinä on vain taidettu sotkea direct storageen, jossa pelidata on pakatussa muodossa ja se siirretään suoraan näytönohjaimelle, joka purkaa sen.
 
Voi olla näinkin, törmännyt muutamalla sivulla tähän aiheeseen. Nvidia itse puhuu "memory compression" tekniikasta sen enempää lupailematta mitään todellista vaikutusta VRAM käyttöön.
Niillä on ollu muistinpakkaus käytössä varmaan iäisyyden ja joka kerta vaan hieman parempana kuin ennen. Mitään dramaattista muutosta ei ole dokumentoitu.

Äkkiäkös ton toisaalta testaisi, joku peli vaan alle joka varaa saman verran muistia vaikka 2080 ja 2080ti korteilla (ihan vaan jotta varmistutaan siitä että muistin fyysinen määrä ei kyseisen pelin kohdalla vaikuta varaamiseen) ja sit kattoo paljonko tuli varattua 3080 kortilla. @Sampsa saattais ton saada suht nopeesti hoidettua jos vaan oleellisemmilta testeiltä ehtii.
 
Viimeksi muokattu:
Kuulin 3D graffa softapuolen ukolta kuiskailuja että nyky peleissä on arkkitehtuurillisesti melkoisen pahoja pullonkauloja Amperen ja aivan samalla tavalla ison RDNA2 GPU:n kohdalle.

Siis pullonkaulana on tapa jolla pelimoottori on koodattu. Se voi vaikuttaa CPU pullonkaulalta mutta ei sitä varsinaisesti ole.

Kuulema myös AAA peleihin olisi odotettavissa päivityksiä joilla erot turingiin voi kasvaa melkoisen suuriksikin jos eivät sitä vielä ole.

Täähän on aika selvästi nähtävissä jo noista testituloksista. Isoimmat erot on pääsääntöisesti uudemmissa isoissa peleissä ja varsinkin low level apeja (DX12 ja Vulkan) käytettäessä. Voitanee sano melko varmasti, että erot uusiissa ja tulevissa peleissä tukevat olemaan isompia Amperen eduksi.
 
Ei kai se data koskaan siellä muistissa istu pakattuna? Aika vaikea siitä olisi mitään random access lukuja tehdä. Aina kun dataa siirretään niin se liikkuu pakatussa muodossa.
 
Ei kai se data koskaan siellä muistissa istu pakattuna? Aika vaikea siitä olisi mitään random access lukuja tehdä. Aina kun dataa siirretään niin se liikkuu pakatussa muodossa.
Ei se muistipiiri sitä osaa itse pakata, vai meinaatko että prosessorin sisäisissä väylissä olisi joku automaattinen end-to-end pakkaussysteemi?

Kyllä se kama siellä muistissa vaan istuu jo pakattuna. Pakkaustekniikka on valittu siten että sitä voidaan käyttää nopeasti kyseisessä käytössä.
 
"NVIDIA GPUs utilize several lossless memory compression techniques to reduce memory bandwidth demands as data is written out to frame buffer memory. The GPU’s compression engine has a variety of different algorithms which determine the most efficient way to compress the data based on its characteristics. This reduces the amount of data written out to memory and transferred from memory to the L2 cache and reduces the amount of data transferred between clients (such as the texture unit) and the frame buffer. "
Tuo pakkaaminen koskee siis frame buffer -käsittelyä. Geneerisesti tekstuurit ovat peleissä jo valmiiksi esim. ASTC- tai BC7-pakettuja, joten niiden uudelleenpakkaus ei pitäisi tuoda mitään merkittävää hyötyä.
 
Aika lämpöisenä käy muuten 3080:n muistit, Igors lab teki vähän lämpökamerakuvauksia:

"By the way, I can reassure anyone who insists that I took off the backplate. Even when fully assembled, the RAM is still internally at 104 °C for the hottest module. "

Oho. Tuosta on kyllä mielenkiintoista lukea lisää testidataa. On todennäköisesti erittäin validia valita kortti, jonka kohdalla muistien jäähdytys on hoidettu normaalia paremmin.
 
3090 kohdalla tietenkin muistit ym selittää hintaeroa, mutta itsellä on sellainen kutina ettei tässä vielä tiedetä kaikkea.
Se ett fyysinen koko on noin paljon isompi ja sit kutsutaan ”BFGPU”:ksi niin hieman tuntuu oudolta jos nopeuserot on vaan luokkaa 5-10%.
Etenkin siksi että jos sielt on tulossa 3080 super tai Ti, niin mihin väliin se tuossa menee? 3,5% nopeampi?

itse ainakin odottelen Sampsan testit rauhassa... :)
Kaikista parasta olisi jos se 3080super ti 20gb olisi tsmc.n prosessilla.... perhana peruin tilaukseni.
on pakko katsoa amd ja viimeinen kierros vaikka 3080 onkin passeli.
 
Kuulin 3D graffa softapuolen ukolta kuiskailuja että nyky peleissä on arkkitehtuurillisesti melkoisen pahoja pullonkauloja Amperen ja aivan samalla tavalla ison RDNA2 GPU:n kohdalle.

Siis pullonkaulana on tapa jolla pelimoottori on koodattu. Se voi vaikuttaa CPU pullonkaulalta mutta ei sitä varsinaisesti ole.

Kuulema myös AAA peleihin olisi odotettavissa päivityksiä joilla erot turingiin voi kasvaa melkoisen suuriksikin jos eivät sitä vielä ole.
ne 3000 fp32 cudaa idlailee välillä vanhemmissa peleissä kun ei ole mitään tekemistä...
dlss ei minusta hyödynnä vielä kasvanutta 2x tensor tehoa ollenkaan...
2cent...
 
Tuon takia virtalähde kannattaakin uusia samalla kun jotain muista halvempia komponentteja. Itse lopetin pelleilyn 4-5 vuotta sitten ja ostin super flowering 1600w powerin. Tais olla 370€ Ja kaikki vähän naureskeli mutta eipä oo tarvinu poweria päivitellä.
 
Jotenkin sellainen tunne, että tuosta 20GB:n ihanuudesta hehkutetaan vähän liikaa.

Kokeilin äsken parin pelin VRAM-kulutuksia eri asetuksilla:

Far Cry 5:
4K, HDR10, ihan kaikki karkit maksimilla (ultra), HD-tekstuuripaketti.
Näyttömuistin käyttö 5.48 GB.
Ainoa millä tuosta sai nousemaan oli super/multisampling, jonka maksimiasetus 2.0 nosti muistitarpeen 10.72 GB. Kuka tuota käyttäisi 4K:lla, siinäpä kysymys.

RDR2:
4K, HDR, ihan kaikki ultralla tai muuten maksimilla:
10.996 GB (8x multisampling)
8.972 GB (4x multisampling)

Jos jollain on esimerkkejä missä 10GB ei riitä edes 4K:lla ilman mitään supersämplyjä, niin kertokoot.
 
Viimeksi muokattu:
Jotenkin sellainen tunne, että tuosta 20GB:n ihanuudesta hehkutetaan vähän liikaa.

Kokeilin äsken parin pelin VRAM-kulutuksia eri asetuksilla:

Far Cry 5:
4K, HDR10, ihan kaikki karkit maksimilla (ultra), HD-tekstuuripaketti.
Näyttömuistin käyttö 5.48 GB.
Ainoa millä tuosta sai nousemaan oli super/multisampling, jonka maksimiasetus 2.0 nosti muistitarpeen 10.72 GB. Kuka tuota käyttäisi 4K:lla, siinäpä kysymys.

RDR2:
4K, HDR, ihan kaikki ultralla tai muuten maksimilla:
10996 GB (8x multisampling)
8972 (4x multisampling)

Jos jollain on esimerkkejä missä 10GB ei riitä edes 4K:lla ilman mitään supersämplyjä, niin kertokoot.
En itsekkään usko että tuo 10gb ihan heti kesken loppuu, siinä kohtaa kun niin käy niin ehkä on jo aika päivittää muutenkin. Kiitos tästä!
 
En itsekkään usko että tuo 10gb ihan heti kesken loppuu, siinä kohtaa kun niin käy niin ehkä on jo aika päivittää muutenkin. Kiitos tästä!
Samaa mieltä. Sitten kun joku edes lähelle 20GB on tarpeellinen, 3080 superit ja 3090:t ovat jo auttamattoman hitaita.
 
En itsekkään usko että tuo 10gb ihan heti kesken loppuu, siinä kohtaa kun niin käy niin ehkä on jo aika päivittää muutenkin. Kiitos tästä!
Se että 10GB ei lopu kesken ei tarkoita sitä, etteikö siitä lisämuistista olisi hyötyä.
Kunhan esim. Unreal Engine 5:ttä tai vastaavia uuden sukupolven pelimoottoreita hyödyntävät pelit tulevat markkinoille, voi 10 GB muisti äkkiä loppuakin kesken.
Ja kun SSD-levyltä aletaan streamaan tekstuureja yms. näytönohjaimelle, ei sillä oleva ylimääräinen tekstuurimuisti ole koskaan haitaksi.
 
Oma kommenttini oli nimenomaan pelaamiseen liittyen, jäi vain mainitsematta. Tottakai mitä enempi muistia niin "parempi", voihan se olla että jo ihan lähitulevaisuudessa alkaa muistin puolesta tuo 10gb ahdistamaan. Itselle riittää kunhan tuolla 10gb kortilla pärjää sen 1-2v, ymmärrän että kaikki eivät ole uusimassa korttejaan yhtä tiheästi ja täten haluavat sen 20gb mallin, vaikkakin hieman kalliimmalla
 
Jotenkin sellainen tunne, että tuosta 20GB:n ihanuudesta hehkutetaan vähän liikaa.

Kokeilin äsken parin pelin VRAM-kulutuksia eri asetuksilla:

Far Cry 5:
4K, HDR10, ihan kaikki karkit maksimilla (ultra), HD-tekstuuripaketti.
Näyttömuistin käyttö 5.48 GB.
Ainoa millä tuosta sai nousemaan oli super/multisampling, jonka maksimiasetus 2.0 nosti muistitarpeen 10.72 GB. Kuka tuota käyttäisi 4K:lla, siinäpä kysymys.

RDR2:
4K, HDR, ihan kaikki ultralla tai muuten maksimilla:
10.996 GB (8x multisampling)
8.972 GB (4x multisampling)

Jos jollain on esimerkkejä missä 10GB ei riitä edes 4K:lla ilman mitään supersämplyjä, niin kertokoot.
Niin, nuo on suunnattu nykyisille konsoleille, joissa on 8GB muistia. Uusissa tulee olemaan tuplasti. Varmasti tulee vaikuttamaan muistinkäyttöön lähitulevaisuudessa.
 
Niin, nuo on suunnattu nykyisille konsoleille, joissa on 8GB muistia. Uusissa tulee olemaan tuplasti. Varmasti tulee vaikuttamaan muistinkäyttöön lähitulevaisuudessa.

Niin siis PS4:ssa on 8GB rammia yhteensä, ei 8GB dedikoitua VRAMia. Eiköhän kaikilla jotka jonkun 3080:n hankkimista suunnittelee ole koneessa vähintään 16GB muistia tuon 10GB VRAMin lisäksi.
 
Uusissa konsoleissa on 16 GB kaiken kaikkiaan jaettua muistia. Eiköhän tuosta käyttis haukkaise ainakin 3GB, joten peleille jää 13. Se on kuitenkin jaettua muistia, eli ram+vram. Toisaalta kuka sitä haluaa PC:llä konsoliasetuksilla pelailla?

10GB tuskin tulee nykypeleissä vastaan, ellei sillä tehdä jotain tosi tyhmää. Ihmisten pelkona onkin, ettei 10GB riitä enää 2 vuoden päästä. Jos on suunnitelmissa ostaa 40xx sarjan kortti heti julkaisussa niin 10GB riittää varmaan mainiosti siihen asti. Veikkaan, että 20GB kortin hinta suhteessa saavutettuun hyötyyn on hyvin korkea.

"In terms of how the memory is allocated, games get a total of 13.5GB in total, which encompasses all 10GB of GPU optimal memory and 3.5GB of standard memory. This leaves 2.5GB of GDDR6 memory from the slower pool for the operating system and the front-end shell. "Inside Xbox Series X: the full specs
 
Se on varma että ongelmia tuleekin, kysymys kuuluukin vain että kuinka nopeasti :lol:
Ei mahdu minun tajuntaan, miten ne samat 4K-tekstuurit alkaisivat yhtäkkiä paisumaan suuremmiksi, tai että niitä alkaisi olla niin paljon, ettei nykyiset määrät riitä. Tokihan se mahdollista on, jos vaikka pelintekijät laiskistuvat ylenpalttisen muistimäärän edessä. Lisää tekstuureita -> lisää silmäkarkkia toki.
Meinasin sanoa, että ainahan voi spekuloida, mutta spekulaatioketjuhan tämä on :D
 
Ei mahdu minun tajuntaan, miten ne samat 4K-tekstuurit alkaisivat yhtäkkiä paisumaan suuremmiksi, tai että niitä alkaisi olla niin paljon, ettei nykyiset määrät riitä. Tokihan se mahdollista on, jos vaikka pelintekijät laiskistuvat ylenpalttisen muistimäärän edessä. Lisää tekstuureita -> lisää silmäkarkkia toki.
Meinasin sanoa, että ainahan voi spekuloida, mutta spekulaatioketjuhan tämä on :D
Viestissäni olikin sarkasmia, ainahan jokainen kortti joskus jää jalkoihin ja alkaa tuottamaan "ongelmia" :D
 
Ei mahdu minun tajuntaan, miten ne samat 4K-tekstuurit alkaisivat yhtäkkiä paisumaan suuremmiksi, tai että niitä alkaisi olla niin paljon, ettei nykyiset määrät riitä. Tokihan se mahdollista on, jos vaikka pelintekijät laiskistuvat ylenpalttisen muistimäärän edessä. Lisää tekstuureita -> lisää silmäkarkkia toki.
Meinasin sanoa, että ainahan voi spekuloida, mutta spekulaatioketjuhan tämä on :D
Ei ne paisu suuremmaksi vaan niitä tulee yhä enemmän. Monimutkainen geometria ja kaikki muu roju päälle.
 
Jos tänään tehdään pelejä joiden pitää paskasettareilla mahtua 3GB videomuistiin ja vuoden-parin päästä lähdetäänkin vaikka siitä että VRAMia on vähintään 8GB jolla ajetaan paskasettareita niin voin kertoa että 4K korkeilla settareilla ei enää 10GB kortille mahdu.
 
Jos tänään tehdään pelejä joiden pitää paskasettareilla mahtua 3GB videomuistiin ja vuoden-parin päästä lähdetäänkin vaikka siitä että VRAMia on vähintään 8GB jolla ajetaan paskasettareita niin voin kertoa että 4K korkeilla settareilla ei enää 10GB kortille mahdu.

AAA-pelien kehityssyklit on niin pitkiä, että siinä vaiheessa kun näitä vuoden parin päästä kehitykseen laitettuja pelejä julkaistaan on koneessa jo RTX 4080. Molempien uusien konsoleiden pelit tulee vielä vanhoille paskabokseille myös.
 
Unreal5:en kaltaiset striimausta ja directstoragea käyttävät pelienginet voivat mahdollistaa pienemmän muistinkulutuksen. Ehkä tulevaisuudessa ei tarvi ladata yhtä paljon dataa muistiin varmuuden vuoksi kuin nyt nyt. Konsolit voivat auttaa siinä, että ssd:en päälle rakennettu striimaus yleistyy. Toki mikään ei ole varmaa ja enemmän on parempi, jos hinta ei ole este.
 
AAA-pelien kehityssyklit on niin pitkiä, että siinä vaiheessa kun näitä vuoden parin päästä kehitykseen laitettuja pelejä julkaistaan on koneessa jo RTX 4080. Molempien uusien konsoleiden pelit tulee vielä vanhoille paskabokseille myös.

Kyllähän nuo usein tehdään konsoleiden specseille joten tuskinpa on tulossa isompia ongelmia lähiaikoina. En tiedä millä perusteella Jarniksen mielestä yhtäkkiä muistinkulutus tuplaantuisi. 4k + raskas AA ei minusta kuulosta ylipäätään mitenkään järkevältä. Tuollainen settihän toki söisi muistia.
 
Unreal5:en kaltaiset striimausta ja directstoragea käyttävät pelienginet voivat mahdollistaa pienemmän muistinkulutuksen. Ehkä tulevaisuudessa ei tarvi ladata yhtä paljon dataa muistiin varmuuden vuoksi kuin nyt nyt. Konsolit voivat auttaa siinä, että ssd:en päälle rakennettu striimaus yleistyy. Toki mikään ei ole varmaa ja enemmän on parempi, jos hinta ei ole este.
Tulkitsisin pikemminkin niin, että jos tekstuureja voidaan streamata SSD:ltä, niin niitä tekstuureja tullaan käyttämään nykyistä paljon enemmän ja/tai ne ovat nykyistä tarkempia.
Jos näytönohjaimen muistissa on tilaa, niin ainahan on nopeampaa, jos ne tekstuurit voidaan puskuroida näytönohjaimen muistiin ja käyttää sieltä, kuin kuin ladata vasta tarvittaessa SSD-levyltä.
 
Tulkitsisin pikemminkin niin, että jos tekstuureja voidaan streamata SSD:ltä, niin niitä tekstuureja tullaan käyttämään nykyistä paljon enemmän ja/tai ne ovat nykyistä tarkempia.
Jos näytönohjaimen muistissa on tilaa, niin ainahan on nopeampaa, jos ne tekstuurit voidaan puskuroida näytönohjaimen muistiin ja käyttää sieltä, kuin kuin ladata vasta tarvittaessa SSD-levyltä.

Voi hyvin käydä noinkin, jos pelien asennuskoot saavat kasvaa ja tekijöillä ei budjetit lopu kesken. Tosin osa peleistä on jo nyt sadan gigan isommalla puolella.
 
TLDR: C9- ja CX-malleilla ongelmia G-sync+120Hz -kombon kanssa, pukkaa mustaa ruutua. CX lisäksi pakottaa 4:2:2 kroman alinäytteistyksen 4K- ja FHD-resoilla, 1440p jostain syystä toimii normaalisti. Tämä siis 120 hertsillä, 60 ilmeisesti toimii. "Lähde"

Perhana, meinasin tollasen 48" CX:n ostaa 3080:n kaveriksi. Toivottavasti LG korjaa buginsa. Onko @Sampsa toimituksella C9- tai CX-töllöä, pystyttekö todentamaan tän?

Edit: Reddit-lanka aiheesta
 
Viimeksi muokattu:
TLDR: C9- ja CX-malleilla ongelmia G-sync+120Hz -kombon kanssa, pukkaa mustaa ruutua. CX lisäksi pakottaa 4:2:2 kroman alinäytteistyksen 4K- ja FHD-resoilla, 1440p jostain syystä toimii normaalisti. Tämä siis 120 hertsillä, 60 ilmeisesti toimii. "Lähde"
Kiitos tiedosta, samaa ruutua itsekkin havitellut.
 

Statistiikka

Viestiketjuista
259 622
Viestejä
4 511 256
Jäsenet
74 443
Uusin jäsen
hupsistarallaa

Hinta.fi

Back
Ylös Bottom