NVIDIA vastasi useisiin uusia GeForce RTX 30 -sarjan näytönohjaimia koskeviin kysymyksiin

Kaotik

Banhammer
Ylläpidon jäsen
Liittynyt
14.10.2016
Viestejä
22 608
nvidia-ampere-ga102-20200903.jpg


Kaotik kirjoitti uutisen/artikkelin:
NVIDIA julkaisi edellispäivänä uudet Ampere-arkkitehtuuriin perustuvat GeForce RTX 30 -sarjan näytönohjaimet. Itse keynote-tilaisuudessa näytönohjaimet ja niiden ominaisuudet esiteltiin lähinnä pintapuolisesti ja nyt yhtiö on vastannut joihinkin kysymyksiin uusista näytönohjaimista Redditissä.

NV_Tim -nimimerkillä Redditissä liikkuva NVIDIAn edustaja on koostanut yhteen postaukseen yhtiön muiden edustajien tiivistetyt vastaukset monien kysymiin kysymyksiin uusista GeForce-näytönohjaimista. Vastaukset antavat uutta tietoa myös arkkitehtuurin sisäisitä piirteistä, mutta paljon pureksittavaa on jäämässä myöhemmin julkaistavaan whitepaper-julkaisuun sekä näytönohjainten arvosteluihin.

NVIDIAn rajusti kasvanut CUDA-ydinten määrä nostatti useita kulmakarvoja ja Tony Tamasi avasi Ampere-arkkitehtuurissa tehtyjä muutoksia, mitkä johtivat uusiin lukuihin. Turing-arkkitehtuurissa NVIDIAn SM-yksiköt rakentuvat yhteensä neljästä elementistä, joista kussakin on kaksi datapolkua: yksi FP32-CUDA-ytimille ja toinen INT32-ytimille. Amperessa on edelleen samat kaksi datapolkua, mutta nyt toinen poluista voi laskea pelkkien INT32-laskujen sijasta joko INT32- tai FP32-laskuja. Turingin SM-yksikön elementit kykenivät siis yhdessä kellojaksossa 16 FP32- ja 16 INT32-laskuun, kun Amperen kykenevät joko 32 FP32-laskuun tai 16 FP32- ja 16 INT32-laskuun. NVIDIA laskee CUDA-ytimiksi vain FP32:een kykenevät yksiköt, minkä myötä niiden määrä siruissa on nyt kaksinkertaistunut. Tulemme pureutumaan aiheeseen tarkemmin Ampere-arkkitehtuuria käsittelevässä artikkelissamme myöhemmin.

Moni on ihmetellyt myös RTX 3080:n ”vain” 10 gigatavun muistia, etenkin kun RTX 3090 -mallissa sitä on peräti 24 Gt. NVIDIAn näkemyksen mukaan 10 Gt on riittävä nykyisille ja tuleville peleille 4K-resoluutiolle asti. Yhtiön mukaan useimmat pelit käyttäisivät todellisuudessa vain 4 – 6 Gt muistia kyseisellä resoluutiolla. Myös muistin hinnalla on ollut luonnollisesti merkitystä, eikä näytönohjainta olisi voitu julkaista samaan hintaan suuremmalla muistimäärällä.

NVIDIA varmisti lisäksi, että heidän käyttämänsä HDMI 2.1 -linkki tukee täyttä 48 Gbps:n nopeutta sekä Display Stream Compression -teknologiaa. Ne riittävät parhaimmillaan 8K-resoluution 60 hertsin virkistystaajuudella ja 12-bittisillä HDR-väreillä ilman kroman alinäytteistystä. Videonpakkauksesta Amperessa huolehtii sama 7. sukupolven NVENC-versio, kuin Turingeissa, mutta purkupuolesta on vastuussa uusi 5. sukupolven NVDEC, mihin on lisätty tuki AV1-purulle.

Väylänopeuksiin liittyvä ihmetyksen aihe on PCI Expressin nopeus, tai pikemminkin rajoittaako PCI Express 3.0 uusia näytönohjaimia. NVIDIAn edustajan mukaan suorituskykyero PCIe 3.0:n ja 4.0:n välillä on useimmiten vain muutamia prosentteja ja käytettävän prosessorin suorituskyvyn merkitsevän enemmän, kuin näytönohjaimen väylän nopeuden.

NVIDIAn eksoottinen jäähdytysratkaisu RTX 3080- ja RTX 3090 -malleissa on myös herättänyt paljon keskustelua ja kysymyksiä. NVIDIAn mukaan jäähdytys tulee toimimaan normaalisti kotelossa kuin kotelossa riippumatta näytönohjaimen varsinaisesta asennosta, kunhan kotelosta löytyy tuuletin syöttämään näytönohjaimelle viileää ilmaa ja toinen puhaltamaan kuumaa ilmaa ulos kotelosta, kun näytönohjaimen taaempi tuuletin on ensin imenyt sen jäähdytysrivaston läpi. RTX 3090:n ”The Silencer” -coolerin kerrotaan olevan hiljaisempi kuin Titan RTX:n tai RTX 2080 Superin Founders Edition -versiot, mutta yhtiö ei lähtenyt vertaamaan sitä näytönohjainvalmistajien omiin jäähdytysratkaisuihin.

RTX IO:n osalta yhtiö varmisti, että teknologia tulee olemaan tuettu vain Windows 10 -käyttöjärjestelmällä ja vaativan NVMe-teknologiaan perustuvan SSD-aseman. Syykin tälle on selvä, sillä RTX IO:n hyödyntämiseen vaadittu DirectStorage-rajapinta on tulossa vain Windows 10 -käyttöjärjestelmille. Lisäksi pelinkehittäjien pitää tukea DirectStorage-rajapintaa erikseen, eikä se ole automaattisesti tuettu kaikissa uusissa peleissä.

NVIDIA Broadcast -sovellus poikkeaa merkittävästi siitä kuvasta, mikä siitä annettiin keynote-lähetyksessä. Sen sijasta, että kyse olisi kilpailijasta esimerkiksi OBS:n streamaussovellukselle, kyse on lisätyökalusta Streamlabsin ja muiden vastaavien tueksi. NVIDIA Broadcastia käytetään välikerroksena, johon voidaan liittää esimerkiksi webbikameran ja mikrofonin sisääntulot erilaisten tekoälypohjaisten efektien, kuten virtuaalisen greenscreenin, käyttöön. Sen jälkeen sovellus luo virtuaalilaitteet, mitä voidaan käyttää lähteenä esimerkiksi Streamlabsissa tai muussa vastaavassa sovelluksessa.

Lähde: Reddit

Linkki alkuperäiseen juttuun
 
En oikein tässä vaiheessa jaksa uskoa että 10GB olisi riittävä määrä muistia niille, jotka päivittävät tehokkaampaan näyttikseen noin 5 vuoden välein. Isommat resoluutiot yleistyvät hiljalleen, ja olempa nähnyt övereimmässä tapauksessa raskaasti modatun Skyrimin käyttävän sen 20 gigaa.

Videocardzin tietoon vuotaneiden huhujen mukaan Lenovon tulevissa pakettikoneissa olisi 3070ti, jossa olisi 16gigaa GDDR6:sta. Eli halvemmat chipit laitettu sinne.
 
En oikein tässä vaiheessa jaksa uskoa että 10GB olisi riittävä määrä muistia niille, jotka päivittävät tehokkaampaan näyttikseen noin 5 vuoden välein. Isommat resoluutiot yleistyvät hiljalleen, ja olempa nähnyt övereimmässä tapauksessa raskaasti modatun Skyrimin käyttävän sen 20 gigaa.

Videocardzin tietoon vuotaneiden huhujen mukaan Lenovon tulevissa pakettikoneissa olisi 3070ti, jossa olisi 16gigaa GDDR6:sta. Eli halvemmat chipit laitettu sinne.
Itse oletan, että pelit alkavat siirtymään käyttämään tuota DirectStoragea (RTX IO ja AMD:n vastine), jolloin pakkaamattomien tekstuurien välimuistissa pitämisen sijasta osa näyttömuistista voidaan täyttää pakatulla datalla ja decompressoida tarvittaessa.
Nuo mahdolliset 16/20GB variantit olisivat sitten odottamassa sitä päivää, kun DirectStorage on virallisesti julkaistu, sillä voisi ajatella RTX IO:n hyötyvän suuresta näyttömuistista. 3090 taas julkaistiin suoraan 24GB muistilla, jottei $1600 korttiinsa käyttäneet tule petetyiksi, jos olisi nyt tullut 12GB malli ja myöhemmin sitten 24GB (ja samalla saatiin Titan -ostajakunnalle kortti).
Edit: Niin piti se linkkikin laittaa esimerkkinä resoluution vaikutusta VRAM käyttöön. HZD esimerkkinä resoluution nelinkertaistaminen kasvattaa muistinkäyttöä ~21% Horizon Zero Dawn Benchmark Test & Performance Analysis
Erikoistuneemmat pelit kuten Flight Simulator sitten erikseen, mutta Microsoftin pelinä uskoisin sen osaltaan olevan suunniteltu tuon DirectStoragen käyttöön.
 
Viimeksi muokattu:
En oikein tässä vaiheessa jaksa uskoa että 10GB olisi riittävä määrä muistia niille, jotka päivittävät tehokkaampaan näyttikseen noin 5 vuoden välein. Isommat resoluutiot yleistyvät hiljalleen, ja olempa nähnyt övereimmässä tapauksessa raskaasti modatun Skyrimin käyttävän sen 20 gigaa.
Kyllä tulee varmasti riittämään 10GB tuon 5v ajan eli noin 2-3 sukupolvea. Nvidia varmasti tietää vähän paremmin oikeasta muistinkäytöstä peleissä, sillä monet pelit ja ohjelmat varaa ylimääräistä muistia turhaan.
"Isommat resoluutiot yleistyvät hiljalleen". Painoittaisin tuossa tuota hiljalleen sanaa, sillä 1080p on edelleenkin kaikkein suosituin ja tärkein resoluutio ja 4K sekä 1440p on hyvin harvinaista ja yleensä sellaisten käyttäjien herkkua joilla ei joka näyttis-syklin välein päivitys ole mikään ongelma.
Tuo modattu Skyrim on juurikin niin överi tapaus että sitä ei voi käyttää minään mittarina muistinkäytöstä, kun tekstuurit on monta kertaa isompia kuin vakiopelissä.
 
Näkisin itse että 1080p/1440p miehet selviävät tuolla 8-10GB muistilla monta vuotta.

4K miehille 10GB voi olla vähän siinä ja siinä. Tuskin mikään peli jää pyörähtämättä, mutta se kovin Ultra-taso voi jäädä väliin jonain päivänä.
 
Näkisin itse että 1080p/1440p miehet selviävät tuolla 8-10GB muistilla monta vuotta.

4K miehille 10GB voi olla vähän siinä ja siinä. Tuskin mikään peli jää pyörähtämättä, mutta se kovin Ultra-taso voi jäädä väliin jonain päivänä.
Simppelisti ajateltuna 4K-resolla frame bufferiksi riittää alle 2GB. (giga enemmän kuin 1080p).
Kortin muistissa olevat tekstuurit ja muu 3D-data puolestaan on sama resoluutiosta riippumatta.

Tuolleen ajateltuna ei ole niinkään kyse resoluutiosta, vaan tekstuureista ja muusta 3D-shaissesta joka on muistissa samanmoisena näyttötarkkuudesta riippumatta.
Eli kyse on enemmän pelistä kuin näyttötarkkuudesta.
 
Saatavuus olisi ollut se oma kysymys.. Nyt jo ennakkotilauksia on rajoitettu , niin onko näitä nyt tarpeeksi kaikille ja saako varmasti kaikki halukkaat ennen joulua?
 
Missä tilanteessa tuolla AV1-decooderilla on merkitystä?
VP9 pakattu video todennäköisesti hiljalleen korvautuu AV1 pakatulla. YouTubessa tuo pitäisi olla jo osassa sisältöä käytössä.
Suoratoistopalveluiden ja muiden video-on-demand palveluiden kasvava datamassa halutaan aina saada puristettua pienempään kokoon, jonka vuoksi tuo AV1 on kehitetty.
Selaimet tai muut videosoittimet toistavat videot käyttäen näytönohjaimen rautapurkua mm. H.264, H.265, VP9 ja AV1 formaateille (decoding), kunhan laitteistokiihdytys on käytössä.
 
Itseäni vähän hämmentää tuossa NVIDIAn esityksessä, että verrattiin Pcie4:sta ja sitten tuota nvidian IO apia ja tässä tuo nvidian IO oli todella paljon nopeampi. Millä magialla se muka pääsee nvme levyyn käsiksi väylän ohitse nopeampaa vaikka ei kulkisikaan prosessorin kautta? Vai tarkoitetaanko tässä jotain pcie4 asemalta puskurointia valmiiksi näytönohjaimen muistiin ja sitten sieltä pelitilanteessa sen käyttöön ottoon tms.? Mutta tällöinhän koko VRAM ei olisi käytössä koko aikaa (tai tietty miten pelinkehittäjä haluaa ominaisuutta käyttää), joten itselleni jää vähän epäselväksi onko tuo nyt vaan tapa vähentää lataustauot jostain toimintakohtauksesta kokonaan pois ja/tai pystytäään vähentämään muistin käyttöä kun tekstuureja voidaan jollain aikavälillä hakea lisää levyltä? Vähän hämmentävä kaiken kaikkiaan tuo..

Itse näkisin että tolla DirectStorage systeemillä ei ole niin kriittistä sen näyttömuistin kanssa kun sinne muistiin saadaan vaihdettua matskua nopeasti.

Erikoistuneemmat pelit kuten Flight Simulator sitten erikseen, mutta Microsoftin pelinä uskoisin sen osaltaan olevan suunniteltu tuon DirectStoragen käyttöön.

Kunhan saisivat sen ensin tukemaan DX12. Käsittämätöntä että peli on jukaistu DX11 tuella.
 
Varmaankin 1440p resolle riittää ihan hyvin 10 gigaa muistia, mutta nytkin jo on pelejä jotka paukkuu siinä rajoilla etenkin 2160p resolla muistin käytön suhteen. En epäile yhtään etteikö asiaan liittyisi jotenkin raha. Nvidian shokkitaktiikka puree siinä mielessä että hinnat on pidetty kohtalaisen alhaalla suorituskyky -lisään nähden.
 
Saatavuus olisi ollut se oma kysymys.. Nyt jo ennakkotilauksia on rajoitettu , niin onko näitä nyt tarpeeksi kaikille ja saako varmasti kaikki halukkaat ennen joulua?
Huhujen mukaan saatavuus tulee olemaan heikko. Syynä se, että NVidia haluaa odottaa että Samsung saa prosessin saannot kohdalleen.
 
Varmaankin 1440p resolle riittää ihan hyvin 10 gigaa muistia, mutta nytkin jo on pelejä jotka paukkuu siinä rajoilla etenkin 2160p resolla muistin käytön suhteen. En epäile yhtään etteikö asiaan liittyisi jotenkin raha. Nvidian shokkitaktiikka puree siinä mielessä että hinnat on pidetty kohtalaisen alhaalla suorituskyky -lisään nähden.

Mitkä pelit käy edes lähelläkään tuota 10GB vram kulutusta 4k resoluutiolla? Kiinnostaisi tietää. Mitä mä oon katellut niin kyllä siellä 4-6GB tienoilla pyöritään. Jokin lentokonesimulaattori on tietenkin asia erikseen.
 
Mitkä pelit käy edes lähelläkään tuota 10GB vram kulutusta 4k resoluutiolla? Kiinnostaisi tietää. Mitä mä oon katellut niin kyllä siellä 4-6GB tienoilla pyöritään. Jokin lentokonesimulaattori on tietenkin asia erikseen.

Pelit osaa nykyään käyttää muistia, jos sitä on. En usko, että tuo 24GB:kään on turhanpanttina.

Mutta en myöskään tiedä yhtään peliä, joka vaatii yli 8GB mihinkään resoluutioon. Sitä muistia on vaan kiva olla, mutta ei taida olla vaatimuksena missään.
 
Tuntuu hieman hassulta, että cooleri imee lämpimän ilman katosta alas ja se pitäisi sieltä puskea ulos.
 
Saatavuus olisi ollut se oma kysymys.. Nyt jo ennakkotilauksia on rajoitettu , niin onko näitä nyt tarpeeksi kaikille ja saako varmasti kaikki halukkaat ennen joulua?
.....voiko näitä jo ennakkotilata jostain?

EDIT: Vai meinasitko sitä kun ennakkomyyntiä ei edes tule?


Noissakin tuotteissa lukee vain että "Ei ennakkomyyntiä!"
 
Tuntuu hieman hassulta, että cooleri imee lämpimän ilman katosta alas ja se pitäisi sieltä puskea ulos.
?
Alhaaltahan tuo etummainen tuuletin vetää sen viileän ilman läpi ja puhaltaa ylöspäin. Sieltä sitten cpu coolerin ja takatuulettimen kautta pihalle. Taaempi tuuletin taas vetää alhaalta viileää ilmaa ja puhaltaa sen kortin I/O paneelin kautta pihalle.,
 
Kysyn nyt täältä teiltä alan ammattilaisilta, että kumpi noista kannattaa ostaa 4k 144hz pelaamiseen, Rtx 3080 vai Rtx 3090?
 
Kysyn nyt täältä teiltä alan ammattilaisilta, että kumpi noista kannattaa ostaa 4k 144hz pelaamiseen, Rtx 3080 vai Rtx 3090?
3090. 3080 ei tule välttämättä riittämään tasaiseen 144FPS:aan 4K-resoluutiolla, ilman että grafiikka-asetuksia pitää karsia.
 
?
Alhaaltahan tuo etummainen tuuletin vetää sen viileän ilman läpi ja puhaltaa ylöspäin. Sieltä sitten cpu coolerin ja takatuulettimen kautta pihalle. Taaempi tuuletin taas vetää alhaalta viileää ilmaa ja puhaltaa sen kortin I/O paneelin kautta pihalle.,
Kas joo, en tajunnut että 3070 on eri cooleri, eikä kuvissa vain "avattu" tuota kotelointia. Tulkitsin siis sanallisia selityksiä väärän kuvan perusteella, my bad.
 
Mitkä pelit käy edes lähelläkään tuota 10GB vram kulutusta 4k resoluutiolla? Kiinnostaisi tietää. Mitä mä oon katellut niin kyllä siellä 4-6GB tienoilla pyöritään. Jokin lentokonesimulaattori on tietenkin asia erikseen.

Ainakin 2160p resolla päästään useimmissa tämän vuoden tripla A -julkaisuissa aina sinne 10 gigan vram -käyttösuhteeseen. Riippuu myös paljon sitä vrammia kortilta löytyy.



Horizon zero dawn on aika raskas. Kannattaa myös huomata että riippuen paljon Vramia löytyy, niin sitä kuluu sen mukaisesti.

Oletan että Cyberpunk 2077 tulee olemaan myös 2160p resolla yksi vram -nälkäisimmistä peleistä. Ja tämähän on vasta alkusoittoa...
 
Rtx 3090 Hintaa katsoo, niin taitaa ehkä koneeseen riittää tuo 3080. Ei sen tarvitse tykittää tuota 144hz, esim 90-100fps riittää ihan hyvin, onneksi mun järki sanoo mulle että Rtx 3090 ostaminen olisi hukkaan heitettyä rahaa, en omista 8k näyttöä. Kiitos vastauksesta Escalibur!
 
Kun ne pelit jotka on suunniteltu uusille konsoleille julkaistaan PC:lle tuo 3080 10GB tulee olemaan pullonkaula ainakin resoilla jotka on suuremmat kuin 1440p. Itse ainakin odottelen mitä Big Navi tuo ja pistän sitten vasta ostohousut jalkaan. Tosin se kortti minkä ostan ei tule olemaan missään nimessä vain 10GB muistoilla varustettu.
Tosin epäilen jo Cyberpunk 2077 täysillä asetuksilla vaativan enemmän kuin 10GB suuremmilla resoluutioilla kuin 1440p.

Eiköhän nvidia julkaise 3080 Superin 16GB muistilla kun ovat saaneet myytyä tarpeeksi nuita gimpattuja 3080 kortteja.
 
Viimeksi muokattu:
Kun ne pelit jotka on suunniteltu uusille konsoleille julkaistaan PC:lle tuo 3080 10GB tulee olemaan pullonkaula ainakin resoilla jotka on suuremmat kuin 1440p. Itse ainakin odottelen mitä Big Navi tuo ja pistän sitten vasta ostohousut jalkaan. Tosin se kortti minkä ostan ei tule olemaan missään nimessä vain 10GB muistoilla varustettu.
Tosin epäilen jo Cyberpunk 2077 täysillä asetuksilla vaativan enemmän kuin 10GB suuremmilla resoluutioilla kuin 1440p.

Eiköhän nvidia julkaise 3080 Superin 16GB muistilla kun ovat saaneet myytyä tarpeeksi nuita gimpattuja 3080 kortteja.
Ei sitä pysty julkaisemaan 16gigan muistilla tiputtamatta muistikaistaa. Sen voi julkaista joko 20gigalla ja samalla kaistalla, tai 11-12 gigalla ja korkeammalla muistikaistalla.
 
Ei sitä pysty julkaisemaan 16gigan muistilla tiputtamatta muistikaistaa. Sen voi julkaista joko 20gigalla ja samalla kaistalla, tai 11-12 gigalla ja korkeammalla muistikaistalla.
En tiedä onko teknisesti toteuttamiskelpoinen ratkaisu mutta @zepi huomauttui aiemmin että teoriassa tuo onnistuisi jos 4 piiriä normaalisti + 6x2 clamshell tilassa.
 
Simppelisti ajateltuna 4K-resolla frame bufferiksi riittää alle 2GB. (giga enemmän kuin 1080p).
Kortin muistissa olevat tekstuurit ja muu 3D-data puolestaan on sama resoluutiosta riippumatta.

Tuolleen ajateltuna ei ole niinkään kyse resoluutiosta, vaan tekstuureista ja muusta 3D-shaissesta joka on muistissa samanmoisena näyttötarkkuudesta riippumatta.
Eli kyse on enemmän pelistä kuin näyttötarkkuudesta.

Paitsi että tekstuurit eivät ole muistissa "samanmoisena näyttötarkkuudesta riippumatta"

Teksturoinnissa käytetään MIP-mäppäystä, jossa samasta tekstuurista on monta eri versiota sen mukaan, millaista tarkkuutta tekstuurista tarvitaan; Normaalit filtteröinnit toimivat hyvin vain kun alkup. tekstuurin tarkkuus on melko samaa luokkaa kuin filtteröinnin lopputuloksen tarkkuus.


Pienempää resoluutiota käyttäessä suurimman tarkkuuden versiota tekstuureista ei välttämättä koskaan tarvita joten niitä ei tarvi ladata näyttiksen muistiin.


Eikä siellä ole merkittäviä määriä "muuta 3d-shaissea" kuin tekstuureita. Geometriadatan muistintarve on pikemminkin suuruusluokkaa kymmeniä megatavuja, ei gigatavuja. Ja suurin osa kaikista ylimääräisistä puskureista joita käytetään temppidatalle renderöinnin aikana on kooltaan resoluutioriippuvaista.
 
Paitsi että tekstuurit eivät ole muistissa "samanmoisena näyttötarkkuudesta riippumatta"

Teksturoinnissa käytetään MIP-mäppäystä, jossa samasta tekstuurista on monta eri versiota sen mukaan, millaista tarkkuutta tekstuurista tarvitaan; Normaalit filtteröinnit toimivat hyvin vain kun alkup. tekstuurin tarkkuus on melko samaa luokkaa kuin filtteröinnin lopputuloksen tarkkuus.


Pienempää resoluutiota käyttäessä suurimman tarkkuuden versiota tekstuureista ei välttämättä koskaan tarvita joten niitä ei tarvi ladata näyttiksen muistiin.


Eikä siellä ole merkittäviä määriä "muuta 3d-shaissea" kuin tekstuureita. Geometriadatan muistintarve on pikemminkin suuruusluokkaa kymmeniä megatavuja, ei gigatavuja. Ja suurin osa kaikista ylimääräisistä puskureista joita käytetään temppidatalle renderöinnin aikana on kooltaan resoluutioriippuvaista.

OT: enpä tiedä, onko enää mipmappeja, kun ne vie 1.3333x tilaa ja ei se laskennallisesti ole niin suuri homma laskea tekstuurista oikea kohta ja AA:nkin voi tehdä muilla tavoilla.

Olen eri mieltä siitä, onko noi tekstuurit muistissa täydellä laadulla. Olen siinä käsityksessä, että jos laitan Texture Quality: ULTRA , niin muistiin menee ihan samat tekstuurit resoluutiosta riippumatta. Carmackin megatexturing-vision mukaan meillä olisi kaikki pinnat uniikkeja tekstuureita ja ei siihen päästä, ellei peli ole pari teraa kooltaan. En vaan usko, että on niin tarkkoja tekstuureita, ettei niitä ole järkeä käyttää pienemmillä resoluutioilla. Uskon, että tämänhetkiset skenet mahtuu muistiin täydellä tekstuuriresoluutiolla. Sinä varmaan oletat, että esim. 1440p karsitaan jo korkein tekstuuritarkkuus pois ja ympäristön tekstuurien tarkkuus laskee paljon nopeammin etäisyyden mukaan kuin 8K?
 
En tiedä onko teknisesti toteuttamiskelpoinen ratkaisu mutta @zepi huomauttui aiemmin että teoriassa tuo onnistuisi jos 4 piiriä normaalisti + 6x2 clamshell tilassa.
Periaatteessa toimisi jos vaan muistiohjain tukee moista järjestelyä. Lisäksi toi ymmärtääkseni tarkoittaa että osa muistista toimisi hitaammin, kuten vaikka tossa uudessa xboxissa jossa myös osa piireistä on isompia kuin toiset. Jos haluat että koko muistiavaruus toimii symmetrisesti samalla nopeudella, niin kaikkien piirien pitää olla samankokoisia, ja se clamshell on käytännössä vain yksi isompi muistipiiri muistiohjaimen näkökulmasta katsottuna. Epäsymmetrinen muistisetuppi tarvitsisi mielellään sitä, että käytetty ohjelma tietää rajoitteet, osioi muistin eri käyttötarkoituksille ja siirtelee aktiivisesti tavaraa siellä ympäriinsä riippuen käyttötarpeesta. En jotenkin usko että kovin moni pelinkehittäjä moiseen pelleilyyn lähtisi mukaan vapaaehtoisesti.
 
Periaatteessa toimisi jos vaan muistiohjain tukee moista järjestelyä. Lisäksi toi ymmärtääkseni tarkoittaa että osa muistista toimisi hitaammin, kuten vaikka tossa uudessa xboxissa jossa myös osa piireistä on isompia kuin toiset. Jos haluat että koko muistiavaruus toimii symmetrisesti samalla nopeudella, niin kaikkien piirien pitää olla samankokoisia, ja se clamshell on käytännössä vain yksi isompi muistipiiri muistiohjaimen näkökulmasta katsottuna. Epäsymmetrinen muistisetuppi tarvitsisi mielellään sitä, että käytetty ohjelma tietää rajoitteet, osioi muistin eri käyttötarkoituksille ja siirtelee aktiivisesti tavaraa siellä ympäriinsä riippuen käyttötarpeesta. En jotenkin usko että kovin moni pelinkehittäjä moiseen pelleilyyn lähtisi mukaan vapaaehtoisesti.
Onhan näitä epäsymmetrisiä konfiguraatioita ollut, esimerkiksi GTX 970.
 
OT: enpä tiedä, onko enää mipmappeja, kun ne vie 1.3333x tilaa ja ei se laskennallisesti ole niin suuri homma laskea tekstuurista oikea kohta ja AA:nkin voi tehdä muilla tavoilla.
Kyllä on mipmapit edelleen aktiivisessa käytössä.
 
OT: enpä tiedä, onko enää mipmappeja, kun ne vie 1.3333x tilaa ja ei se laskennallisesti ole niin suuri homma laskea tekstuurista oikea kohta ja AA:nkin voi tehdä muilla tavoilla.

EI MIP-mappayksella ole mitään tekemistä sen kanssa että "lasketaan tekstuurista oikea kohta". Se laskutoimitus menee aivan samalla tavalla, ainoana erona on että siellä on hiukan erilainen kakkosen potenssi jossain kertolaskussa, mikä ei siis vaikuta mitenkäään sen laskennan nopeuteen tai vaikeuteen.

Vaan sen kanssa, että se filtteröinnin lopputulos on vaan aivan kuraa jos se tehdään koon erotessa merkittävästi.

Jos tekstuuri on resoluutioltaan selvästi pienempi kuin ruudun resoluutio, tekstuuri on sumea.
Jos tekstuuri on resoluutioltaan selvästi suurempi kuin ruudun resoluutio, seuraa pahaa aliasoitumista kun tekstuurista jää välistä pisksleitä käyttämättä

Ja ei, reunojen pehmennykseen käytettävät AA-tekniikat eivät korjaa niitä ongelmia jota tulee siitä että tekstuurifillteröinti tehdään aivan erikokoisesta tekstuurista. Se data on jo hukattu siinä vaiheessa kun tekstuurista on jo jätetty samplaamasta väliin menevät pikselit, eikä sitä millään jälkikäsittelyllä saa takaisin. Aito supersampling (joka on niin raskasta että sitä ei käytännössä missään tehdä) toki tarkoittaa vaan renderöintiä suuremmalla resoluutiolla+downskaalausta, joten se SIIRTÄÄ tätä ongelmaa hiukan eteenpäin, muttei KORJAA sitä.

Olen eri mieltä siitä, onko noi tekstuurit muistissa täydellä laadulla. Olen siinä käsityksessä, että jos laitan Texture Quality: ULTRA , niin muistiin menee ihan samat tekstuurit resoluutiosta riippumatta

Se "Ultra" on vaan sana siellä pelin asetusruudussa.

Ja on vain typeryyttä jos peli mahdollistaa pakottamaan lataamaan sinne kortin muistiin sellaiset mipmap-tasot joita se ei sillä resoluutiolla koskaan tule tarvitsemaan ja ihmiset pitää tätä optiota päällä.

Tällöin peli ei todellisuudessa tarvi sitä muistia paljon vaan typerät käyttäjät pakottavat pelin tuhlaamaan muistia jota se ei koskaan käytä.

Vähän sama kuin säätäisi puolet koneensa keskusmuistista RAM-levyksi eikä koskaan laittaisi sinne RAM-levylle mitään dataa.

. Carmackin megatexturing-vision mukaan meillä olisi kaikki pinnat uniikkeja tekstuureita ja ei siihen päästä, ellei peli ole pari teraa kooltaan. En vaan usko, että on niin tarkkoja tekstuureita, ettei niitä ole järkeä käyttää pienemmillä resoluutioilla. Uskon, että tämänhetkiset skenet mahtuu muistiin täydellä tekstuuriresoluutiolla. Sinä varmaan oletat, että esim. 1440p karsitaan jo korkein tekstuuritarkkuus pois ja ympäristön tekstuurien tarkkuus laskee paljon nopeammin etäisyyden mukaan kuin 8K?

öö?

Nyt putosin kärryiltä , mitä ihmettä oikein höpiset ja miten se liittyy tähän mitenkään.

Tarvittavan tekstuurin resoluutio (jotta vältetään sekä sumeus että aliasointi) on aivan suoraan verrannollinen ruudun resoluutioon.
1920x1080-resolla tarvitaan samassa kohtaa sceneä tasan yhden MIPMAP-tason verran pienempi versio tekstuurista kun 3840x2160-resoluutiolla (eli siis puolet vaakaresossta, puolet pystyresosta, neljäsosa koosta).

Jos "optimaalista" suuremman reson versiota tekstuurista ei ole, sitten voidaan käyttää pienemmän reson versiosta ja kärsiä siitä sumeudesta, se ei ole niin paha.
Mutta niitä pienempiä mipmap-tasoje EI VOI JÄTTÄÄ POIS ilman että kuvaan tulee joko pahoja aliasoitumisongelmia, TAI että joudutaan käyttämään jotain TODELLA RASKASTA ziljoona samplea/pikseli käyttävää tekstuurifiltteriä.

Ja verrattuna siihen, että olisi pelkästään suurimman resoluution versio, ne mip-mappayksen pienempiresoluutioset tasot lisäävät kokonaistilantarvetta vain 1.33-kertaiseksi.

Toisaalta, jättämällä se suurimman resoluution versio pois tilantarve putoaa KOLMASOSAAN.

Että jos jostain tarvii tinkiä, mistäköhän se tinkiminen kannattaa aloittaa?
 
Viimeksi muokattu:
EI MIP-mappayksella ole mitään tekemistä sen kanssa että "lasketaan tekstuurista oikea kohta". Se laskutoimitus menee aivan samalla tavalla, ainoana erona on että siellä on hiukan erilainen kakkosen potenssi jossain kertolaskussa, mikä ei siis vaikuta mitenkäään sen laskennan nopeuteen tai vaikeuteen.

Vaan sen kanssa, että se filtteröinnin lopputulos on vaan aivan kuraa jos se tehdään koon erotessa merkittävästi.

Jos tekstuuri on resoluutioltaan selvästi pienempi kuin ruudun resoluutio, tekstuuri on sumea.
Jos tekstuuri on resoluutioltaan selvästi suurempi kuin ruudun resoluutio, seuraa pahaa aliasoitumista kun tekstuurista jää välistä pisksleitä käyttämättä

Ja ei, reunojen pehmennykseen käytettävät AA-tekniikat eivät korjaa niitä ongelmia jota tulee siitä että tekstuurifillteröinti tehdään aivan erikokoisesta tekstuurista. Se data on jo hukattu siinä vaiheessa kun tekstuurista on jo jätetty samplaamasta väliin menevät pikselit, eikä sitä millään jälkikäsittelyllä saa takaisin. Aito supersampling (joka on niin raskasta että sitä ei käytännössä missään tehdä) toki tarkoittaa vaan renderöintiä suuremmalla resoluutiolla+downskaalausta, joten se SIIRTÄÄ tätä ongelmaa hiukan eteenpäin, muttei KORJAA sitä.



Se "Ultra" on vaan sana siellä pelin asetusruudussa.

Ja on vain typeryyttä jos peli mahdollistaa pakottamaan lataamaan sinne kortin muistiin sellaiset mipmap-tasot joita se ei sillä resoluutiolla koskaan tule tarvitsemaan ja ihmiset pitää tätä optiota päällä.

Tällöin peli ei todellisuudessa tarvi sitä muistia paljon vaan typerät käyttäjät pakottavat pelin tuhlaamaan muistia jota se ei koskaan käytä.

Vähän sama kuin säätäisi puolet koneensa keskusmuistista RAM-levyksi eikä koskaan laittaisi sinne RAM-levylle mitään dataa.



öö?

Nyt putosin kärryiltä , mitä ihmettä oikein höpiset ja miten se liittyy tähän mitenkään.

Tarvittavan tekstuurin resoluutio (jotta vältetään sekä sumeus että aliasointi) on aivan suoraan verrannollinen ruudun resoluutioon.
1920x1080-resolla tarvitaan samassa kohtaa sceneä tasan yhden MIPMAP-tason verran pienempi versio tekstuurista kun 3840x2160-resoluutiolla (eli siis puolet vaakaresossta, puolet pystyresosta, neljäsosa koosta).

Jos "optimaalista" suuremman reson versiota tekstuurista ei ole, sitten voidaan käyttää pienemmän reson versiosta ja kärsiä siitä sumeudesta, se ei ole niin paha.
Mutta niitä pienempiä mipmap-tasoje EI VOI JÄTTÄÄ POIS ilman että kuvaan tulee joko pahoja aliasoitumisongelmia, TAI että joudutaan käyttämään jotain TODELLA RASKASTA ziljoona samplea/pikseli käyttävää tekstuurifiltteriä.

Ja verrattuna siihen, että olisi pelkästään suurimman resoluution versio, ne mip-mappayksen pienempiresoluutioset tasot lisäävät kokonaistilantarvetta vain 1.33-kertaiseksi.

Toisaalta, jättämällä se suurimman resoluution versio pois tilantarve putoaa KOLMASOSAAN.

Että jos jostain tarvii tinkiä, mistäköhän se tinkiminen kannattaa aloittaa?

Siis kantavana ideana minulla on tässä, ettei ole yhtään peliä, jossa on 3840x2160 tekstuureita (tai 4K tekstuuri on yleensä 4096x4096). Tämä ihan mutulla ja jouduin vähän hakemaan verkosta, kun en taas vähään aikaan ole koodannut pelejä. Tämä löytyi:

Siellä oli myös mipmappien käytöstä nykypeleissä, niin kai se on uskottava. Tämä vaan olisi mielestäni laskentayksikön tehtävä, mutta olin väärässä, ja se tehdään vieläkin noin. Myös @Kaotik huomautti asiasta ja joo, viimeeksi koodasin näitä asioita yli 10v sitten. Oletin tässä tapahtuneen edistystä ja ei saisi olettaa.

Tässä kuitenkin tuo PCGamerin jutun pihvi:
Let me start off with a simple example of files sizes for a relatively modest 2048x2048 texture—or a 2K texture size if you prefer. If you want to store a texture without any compression, that would typically mean a 32-bit value for every pixel: RGBA (Red, Green, Blue, and Alpha—alpha being the technical name for transparency). That's about 4.2 million pixels and 4 bytes per pixel, and we end up with a nice round 16MiB file size. Now imagine all of the models and textures in some of the larger open-world games out there. If every surface used a 2K uncompressed texture, even with 150GB of textures there would still only be room for 9,600 unique textures.

Carmack mietti, että koko pelialue voisi olla tyhjä canvas, johon suunnittelija voisi piirtää vapaasti (siis selitteenä Megatexturingille ja siihen, miksi RAGE kiinnosti aikoinaan) :
Talk:MegaTexture - Wikipedia

Tuo idea ja sinun idea kaatuu siihen yksinkertaiseen faktaan, ettei ole vaan tilaa peleissä käyttää noin paljon tekstuureita , noin kovalla laadulla ja noin suurella resoluutiolla. 2K-tekstuurit (siis 2048x2048) vievät PCGamerin laskelmmien mukaan pakkaamattomana 150GB , jos niitä on 9600 pinnalle. Ja usko pois, moderneissa peleissä on yli 9600 pintaa, joskus jopa levelissä. Tätä on taklattu tekstuuripakkauksella ja asseteilla, jotka toistuvat, mutta ei niilläkään ihmeitä tee. Lisäksi tekstuurien lisäksi on yleensä leivottu valaistustekstuuri (onko se vielä lightmap?) ja valaistus on laskettu etukäteen ja se on joka pinnalle uniikki.

Ei vaan yksinkertaisesti ole tilaa käyttää mitään 8K (tässä 8192x8192) tekstuureja. Korkeintaan pelin päähahmo ja se pressidemo käyttävät niitä.

Lisäksi sen scenen pitäisi mahtua näytönohjaimen muistiin, niin eipä sinne hirveästi saa neljäsosagigan tekstuureita. Pelikokojen pitäisi olla 500GB-1000GB tai enemmän , kun lähdetään puhumaan 8K-tekstuureista (8192x8192). En usko, että vielä lähivuosina ollaan tässä tai sitten siirryn takaisin mekaanisiin pelilevyihin.

--

Ja tämä nyt on se yksinkertaistettu tapaus, jossa tekstuurit ovat näytönohjaimen muistissa. Niitä todellisuudessa kai vieläkin säädetään edestakaisin ja sitä se tekee kun peli välillä lataa tai tökkii. Yleensä portaalissa (alueiden välinen siirtymäpiste) tai sitten levelit on pieniä ja ladataan vaan latausruudussa.
 
Siis kantavana ideana minulla on tässä, ettei ole yhtään peliä, jossa on 3840x2160 tekstuureita (tai 4K tekstuuri on yleensä 4096x4096). Tämä ihan mutulla ja jouduin vähän hakemaan verkosta, kun en taas vähään aikaan ole koodannut pelejä. Tämä löytyi:

Siellä oli myös mipmappien käytöstä nykypeleissä, niin kai se on uskottava. Tämä vaan olisi mielestäni laskentayksikön tehtävä, mutta olin väärässä, ja se tehdään vieläkin noin. Myös @Kaotik huomautti asiasta ja joo, viimeeksi koodasin näitä asioita yli 10v sitten. Oletin tässä tapahtuneen edistystä ja ei saisi olettaa.

Tässä kuitenkin tuo PCGamerin jutun pihvi:


Carmack mietti, että koko pelialue voisi olla tyhjä canvas, johon suunnittelija voisi piirtää vapaasti (siis selitteenä Megatexturingille ja siihen, miksi RAGE kiinnosti aikoinaan) :
Talk:MegaTexture - Wikipedia

Tuo idea ja sinun idea kaatuu siihen yksinkertaiseen faktaan, ettei ole vaan tilaa peleissä käyttää noin paljon tekstuureita , noin kovalla laadulla ja noin suurella resoluutiolla. 2K-tekstuurit (siis 2048x2048) vievät PCGamerin laskelmmien mukaan pakkaamattomana 150GB , jos niitä on 9600 pinnalle. Ja usko pois, moderneissa peleissä on yli 9600 pintaa, joskus jopa levelissä. Tätä on taklattu tekstuuripakkauksella ja asseteilla, jotka toistuvat, mutta ei niilläkään ihmeitä tee. Lisäksi tekstuurien lisäksi on yleensä leivottu valaistustekstuuri (onko se vielä lightmap?) ja valaistus on laskettu etukäteen ja se on joka pinnalle uniikki.

Ei vaan yksinkertaisesti ole tilaa käyttää mitään 8K (tässä 8192x8192) tekstuureja. Korkeintaan pelin päähahmo ja se pressidemo käyttävät niitä.

Lisäksi sen scenen pitäisi mahtua näytönohjaimen muistiin, niin eipä sinne hirveästi saa neljäsosagigan tekstuureita. Pelikokojen pitäisi olla 500GB-1000GB tai enemmän , kun lähdetään puhumaan 8K-tekstuureista (8192x8192). En usko, että vielä lähivuosina ollaan tässä tai sitten siirryn takaisin mekaanisiin pelilevyihin.

--

Ja tämä nyt on se yksinkertaistettu tapaus, jossa tekstuurit ovat näytönohjaimen muistissa. Niitä todellisuudessa kai vieläkin säädetään edestakaisin ja sitä se tekee kun peli välillä lataa tai tökkii. Yleensä portaalissa (alueiden välinen siirtymäpiste) tai sitten levelit on pieniä ja ladataan vaan latausruudussa.
Ne tekstuurit pakkaantuvat aika nätisti muutamaan prosenttiin alkuperäisestä säilyttäen kuitenkin silmämääräisesti lähes saman laadun.
 
Siis kantavana ideana minulla on tässä, ettei ole yhtään peliä, jossa on 3840x2160 tekstuureita (tai 4K tekstuuri on yleensä 4096x4096). Tämä ihan mutulla ja jouduin vähän hakemaan verkosta, kun en taas vähään aikaan ole koodannut pelejä. Tämä löytyi:

Ei peleissä ole myöskään koko ruudun kokoisia kolmioita (paitsi jossain taivasboksissa, mutta niitä on n. 10 kpl, ja ne 10 jakaa saman tekstuurin, ei tuhansia)

Kyse on siitä, että tekstuurin ja ruudun pikselit on SAMANKOKOISIA että ne mäppäytyy n. 1:1. Ei siitä, että sen kokonaispikselimäärä olisi sama. Mutta joo, selitin tämän alkup viestissäni huonosti.

Kun kolmion koko ruudulla on vaikka 20 pikseliä * 20 pikseliä, sitten se tarvii tekstuurin jonka koko sen alueella on myös n. 20x20 pikseliä.

Tai jos sama tekstuuri on 200 lähellä olevalle kolmiolle jotka kattaa n. neliön joka on 10 kolmion verran pysty-suunnassa ja 10 kolmion verran vaakasuunnassa, ja kukin kolmio on n. 10 piksleiä leveä ja korkea, eli ne kattaa ruudulla alueen joka on n. 100x100 pikseliä, tarvitaan n. 100x100 pikselin kokoinen tekstuuri kattamaan ne kaikki riittävällä resoluutiolla.


Tuo idea ja sinun idea

Ei se ole minun idea vaan jonkun muun ikivanha idea ja se, miten käytännössä kaikki 3d-grafiikka nykyaikana toimii.

kaatuu siihen yksinkertaiseen faktaan, ettei ole vaan tilaa peleissä käyttää noin paljon tekstuureita , noin kovalla laadulla ja noin suurella resoluutiolla. 2K-tekstuurit (siis 2048x2048) vievät PCGamerin laskelmmien mukaan pakkaamattomana 150GB , jos niitä on 9600 pinnalle. Ja usko pois, moderneissa peleissä on yli 9600 pintaa, joskus jopa levelissä. Tätä on taklattu tekstuuripakkauksella ja asseteilla, jotka toistuvat, mutta ei niilläkään ihmeitä tee. Lisäksi tekstuurien lisäksi on yleensä leivottu valaistustekstuuri (onko se vielä lightmap?) ja valaistus on laskettu etukäteen ja se on joka pinnalle uniikki.

Ei vaan yksinkertaisesti ole tilaa käyttää mitään 8K (tässä 8192x8192) tekstuureja. Korkeintaan pelin päähahmo ja se pressidemo käyttävät niitä.

Lisäksi sen scenen pitäisi mahtua näytönohjaimen muistiin, niin eipä sinne hirveästi saa neljäsosagigan tekstuureita. Pelikokojen pitäisi olla 500GB-1000GB tai enemmän , kun lähdetään puhumaan 8K-tekstuureista (8192x8192). En usko, että vielä lähivuosina ollaan tässä tai sitten siirryn takaisin mekaanisiin pelilevyihin.

--

Ja tämä nyt on se yksinkertaistettu tapaus, jossa tekstuurit ovat näytönohjaimen muistissa. Niitä todellisuudessa kai vieläkin säädetään edestakaisin ja sitä se tekee kun peli välillä lataa tai tökkii. Yleensä portaalissa (alueiden välinen siirtymäpiste) tai sitten levelit on pieniä ja ladataan vaan latausruudussa.

Ei siellä tarvita mitään 8192x8192-kokoisia tekstuureita tuhansia vaan senkokosia tekstuureita MINKÄKOKOISIA NE PINNAT ON RUUDULLA.
 
Viimeksi muokattu:
Ei peleissä ole myöskään koko ruudun kokoisia kolmioita (paitsi jossain taivasboksissa)

Kyse on siitä, että tekstuurin ja ruudun pikselit on SAMANKOKOISIA että ne mäppäytyy n. 1:1. Ei siitä, että sen kokonaispikselimäärä olisi sama. Mutta joo, selitin tämän alkup viestissäni huonosti.

Kun kolmion koko ruudulla on vaikka 20 pikseliä * 20 pikseliä, sitten se tarvii tekstuurin jonka koko sen alueella on myös n. 20x20 pikseliä.

Tai jos sama tekstuuri on 200 lähellä olevalle kolmiolle jotka kattaa n. neliön joka on 10 kolmion verran pysty-suunnassa ja 10 kolmion verran vaakasuunnassa, ja kukin kolmio on n. 10 piksleiä leveä ja korkea, eli ne kattaa ruudulla alueen joka on n. 100x100 pikseliä, tarvitaan n. 100x100 pikselin kokoinen tekstuuri kattamaan ne kaikki riittävällä resoluutiolla.




Ei se ole minun idea vaan jonkun muun ikivanha idea ja se, miten käytännössä kaikki 3d-grafiikka nykyaikana toimii.



Ei siellä tarvita mitään 8192x8192-kokoisia tekstuureita tuhansia vaan senkokosia tekstuureita MINKÄKOKOISIA NE PINNAT ON RUUDULLA.

Nyt jotenkin tuntuu, että emme puhu enää samoista asioista tai yrität selittää minulle 3d-grafiikan perusteita. Sanotaan vaikka näin, että toinen ehdotus dippatyöni aiheesta oli radiositeettilaskenta polygoniskenejen varjostukseen, niin ei välttämättä tarvitse selittää ihan perusasioita uudestaan.

Käytännössä peleillä oli ainakin ennen RAGEa materiaalit ja assetit, joiden toistolla saatiin luotua pelimaailma. Ei siis kukaan taiteilija maalannut koko karttaa ja mallintanut jokaista pikseliä erikseen. Tästä on laajennettu niin, että assettien koko on kasvanut, mutta toistoon ne vieläkin perustuu. Siksi Carmackin idea oli niin mullistava: jokainen elementti olisi yksilöllinen. Tämä kaatui sitten siihen, että resoluutio jäi pieneksi ja pelikin oli korkeintaan keskinkertainen, toisin kun aikaisemmat tuotokset, joista modernit pelit ottavat vieläkin tekniikoita.

Tekstuurit on sitten määritelty näille asseteille ja koetin käyttää tuon artikkelin termistöä, niin suomensin surface=pinta. Sitten tuohon tekstiin tuli kolmiot ja skyboxit. DirectX:ssä on muuten quad-primitiivi (ja OpenGL myös), niin voi helpottaakseen tätä tapausta käyttää sitä. Se on toissijaista, pilkkooko framework sen sitten kahdeksi kolmioksi. Ja tässä olisi realistista miettiä niitä pintoja, eli joukkoa polygoneja, joista muodostuu jatkuva pinta, jossa on sama tekstuuri (voi myös melkein puhua materiaalista, jos ymmärtää sen toiston idean).

Ideani edelleen on, ettei ole tilankäytön kannalta realistista pitää tekstuureita semmoisella resoluutiolla, että siitä hyötyisi vain 8K-näytöllä. Käytännössä tuolla oli korkeintaan PCGamerin artikkelissa 2K (2048x2048) tekstuureita ja siinäkin ollaan asseteissa rajoilla.

Tässä on toinen hieno artikkeli heiltä:

Siinä on olennaisinta tämä kuva.

Siellä on realistisia tekstuuripackien kokoja ja asiaa suuremmalti tutkimatta, voisi olettaa, että nuo on 2K (2048x2048).

Niin siitä pitäisi nyt ymmärtää kaksi tekemääni yleistystä:
  1. Tekstuurit vievät törkeästi tilaa (nuo on pakkaamattomana satoja gigatavuja)
  2. Kaikki tekstuurit eivät edes tuolla resoluutiolla mahdu näytönohjaimen muistiin (vaikka sitä olisi 24GB)
Niin tuommoisten supertarkkojen tekstuurien peräänkuuluttaminen ei ole realistista vielä vuosikymmeneen ja kun ne saadaan peleihin, niin pelien assettien koot kasvaa radikaalisti.

--

Tässä nyt rautalangasta, mitä yritin sanoa. Jatketaan jossain muualla. Koetin etsiä tälle pelitekniikoista kertovaa threadia, mutta en löytänyt. Ainoastaan enginethreadin, eikä tämä ole sitä per se.
 
Siellä oli myös mipmappien käytöstä nykypeleissä, niin kai se on uskottava. Tämä vaan olisi mielestäni laskentayksikön tehtävä, mutta olin väärässä, ja se tehdään vieläkin noin. Myös @Kaotik huomautti asiasta ja joo, viimeeksi koodasin näitä asioita yli 10v sitten. Oletin tässä tapahtuneen edistystä ja ei saisi olettaa.

Suorituskykyhän tässä on ongelmana. Ajattelepa vaikka ääritapausta, jossa kappaletta katsotaan niin kaukaa, että se on näytölle piirrettynä vain yhden pikselin kokoinen. Jos pintaan on kääräisty 4096x4096-kokoinen tekstuuri, niin ilman MIP mappeja pitäisi käydä läpi yli 16 miljoonaa tekstuurin pikseliä, jotta saataisiin piirrettyä ruudulle se yksi pikseli oikean värisenä. Ehkä joku iso satunnaisotos voisi antaa yleensä riittävän approksimaation, mutta joka tapauksessa näytteitä tekstuurista tarvittaisiin suuri määrä yhtä kuvaruudun pikseliä kohti. Kun tekstuurista on käytettävissä valmiiksi pienennettyjä versioita (MIP mapping), selvitään paljon vähemmällä laskentatyöllä.
 
Suorituskykyhän tässä on ongelmana. Ajattelepa vaikka ääritapausta, jossa kappaletta katsotaan niin kaukaa, että se on näytölle piirrettynä vain yhden pikselin kokoinen. Jos pintaan on kääräisty 4096x4096-kokoinen tekstuuri, niin ilman MIP mappeja pitäisi käydä läpi yli 16 miljoonaa tekstuurin pikseliä, jotta saataisiin piirrettyä ruudulle se yksi pikseli oikean värisenä. Ehkä joku iso satunnaisotos voisi antaa yleensä riittävän approksimaation, mutta joka tapauksessa näytteitä tekstuurista tarvittaisiin suuri määrä yhtä kuvaruudun pikseliä kohti. Kun tekstuurista on käytettävissä valmiiksi pienennettyjä versioita (MIP mapping), selvitään paljon vähemmällä laskentatyöllä.
Aivan, mutta kuka jaksaisi tarkistaa, onko tuo (tämän esimerkin) yhden ainoan pikselin kokoinen kappale oikean värinen?
Riittävä approksimaatio olisi, että tuo yksi kappale väritettäisiin viereisten pikselien väriseksi, eikä kukaan huomaisi ongelmaa.
 
Aivan, mutta kuka jaksaisi tarkistaa, onko tuo (tämän esimerkin) yhden ainoan pikselin kokoinen kappale oikean värinen?
Riittävä approksimaatio olisi, että tuo yksi kappale väritettäisiin viereisten pikselien väriseksi, eikä kukaan huomaisi ongelmaa.
Vaikka se sun kappale olisi 100x100 pikseliä, niin 4000x4000 pikelin teksturin pitäminen muistissa sen takia on melkoista muistin tuhlausta. Siksi juuri sinne muistiin pistetään se mipmappi joka on valmiiksi ”keskiarvoistettu” eli pienennetty 256x256 kokoinen versio tekstuurista.
 
Moni on ihmetellyt myös RTX 3080:n ”vain” 10 gigatavun muistia, etenkin kun RTX 3090 -mallissa sitä on peräti 24 Gt. NVIDIAn näkemyksen mukaan 10 Gt on riittävä nykyisille ja tuleville peleille 4K-resoluutiolle asti. Yhtiön mukaan useimmat pelit käyttäisivät todellisuudessa vain 4 – 6 Gt muistia kyseisellä resoluutiolla.
Tuo 4-6 pätee ainakin Battlefield 5:ssä 3440x1440 resolla, joten voisin kuvitella että 3070 jaksaisi pyörittää Ultrawidea noin 100-120FPS tienoilla.
 
Kun ne pelit jotka on suunniteltu uusille konsoleille julkaistaan PC:lle tuo 3080 10GB tulee olemaan pullonkaula ainakin resoilla jotka on suuremmat kuin 1440p. Itse ainakin odottelen mitä Big Navi tuo ja pistän sitten vasta ostohousut jalkaan. Tosin se kortti minkä ostan ei tule olemaan missään nimessä vain 10GB muistoilla varustettu.
Tosin epäilen jo Cyberpunk 2077 täysillä asetuksilla vaativan enemmän kuin 10GB suuremmilla resoluutioilla kuin 1440p.

Eiköhän nvidia julkaise 3080 Superin 16GB muistilla kun ovat saaneet myytyä tarpeeksi nuita gimpattuja 3080 kortteja.
[/QU
Ainakin 2160p resolla päästään useimmissa tämän vuoden tripla A -julkaisuissa aina sinne 10 gigan vram -käyttösuhteeseen. Riippuu myös paljon sitä vrammia kortilta löytyy.



Horizon zero dawn on aika raskas. Kannattaa myös huomata että riippuen paljon Vramia löytyy, niin sitä kuluu sen mukaisesti.

Oletan että Cyberpunk 2077 tulee olemaan myös 2160p resolla yksi vram -nälkäisimmistä peleistä. Ja tämähän on vasta alkusoittoa...

Tuossa videossa on jo vastaus siihen, ettei Rtx 3080 10Gb muisti tule riittämään tulevissa AAA luokan 4k Rtx päällä peleissä (kovin pitkäksi aikaan) , voi jo tehdä tiukkaa tulevan cyberpunk 2077 . Tuossakin jo Horizon Zero Dawnissa käyttää 10Gb.
 
Tosin epäilen jo Cyberpunk 2077 täysillä asetuksilla vaativan enemmän kuin 10GB suuremmilla resoluutioilla kuin 1440p.

Tätä hieman epäilen sillä Witcher 3 ei käytä juuri lainkaan muistia. 3840 x 2160 resoluutiolla se vei muistaakseni tyyliin 4 Gt (en tosin voi nyt tarkistaa, mutta tuota luokkaa se oli). Joka tapauksessa hämmentävän vähän verrattaessa grafiikkojen laatua ja muistin käyttöä muihin peleihin.
 
Aivan, mutta kuka jaksaisi tarkistaa, onko tuo (tämän esimerkin) yhden ainoan pikselin kokoinen kappale oikean värinen?
Riittävä approksimaatio olisi, että tuo yksi kappale väritettäisiin viereisten pikselien väriseksi, eikä kukaan huomaisi ongelmaa.

Kun sen kappaleen väri (ja erityisesti kirkkaus) vaihtelee täysin randomilla peräkkäisten framejen välillä aliasoitumisefektien takia, tästä tulee huomattava ja hyvin häiritsevä välkkyminen jonka kuka tahansa havaitsee hyvin helpolla (ja joka häiritsee ketä tahansa hyvin paljon). Ja mitkään normaalit kolmioiden VÄLISET AA-tekniikat ei auta tähän. (Ainoastaan SSAA (joka on laskennallisesti hyvin kallis eikä sen takia enää käytössä juuri missään) vähentää tätä (muttei poista tätä))

Ja kun nämä kappaleeet ei ole yhden pikselin vaan muutaman pikselin kokoisia ja niiden sisälle tulee hyvin vahvoja satunnaisia reunoja/kirkkauseroja aliasoitumiserojen takia, se käy myös häiritseväksi.
 
Viimeksi muokattu:
En oikein tässä vaiheessa jaksa uskoa että 10GB olisi riittävä määrä muistia niille, jotka päivittävät tehokkaampaan näyttikseen noin 5 vuoden välein. Isommat resoluutiot yleistyvät hiljalleen, ja olempa nähnyt övereimmässä tapauksessa raskaasti modatun Skyrimin käyttävän sen 20 gigaa.

Videocardzin tietoon vuotaneiden huhujen mukaan Lenovon tulevissa pakettikoneissa olisi 3070ti, jossa olisi 16gigaa GDDR6:sta. Eli halvemmat chipit laitettu sinne.

10GB riittää melko pitkälle ,mutta voi toki jossain vaiheessa olla vähän nafti isommilla resoilla.

Tohon modatun Skyrimin 20GB vram usageen on vaikeaa uskoa ,oli kyseessä mikä Skyrim versio tahansa millä vaan modisetillä.
En niele ilman todisteita tota.
 
Tätä hieman epäilen sillä Witcher 3 ei käytä juuri lainkaan muistia. 3840 x 2160 resoluutiolla se vei muistaakseni tyyliin 4 Gt (en tosin voi nyt tarkistaa, mutta tuota luokkaa se oli). Joka tapauksessa hämmentävän vähän verrattaessa grafiikkojen laatua ja muistin käyttöä muihin peleihin.

Witcher ei myöskään käytä säteenseurantaa toisin kuin cp2077 joka on siis cdprojekt red:n lippulaiva peli.
 

Statistiikka

Viestiketjuista
261 171
Viestejä
4 531 015
Jäsenet
74 770
Uusin jäsen
kofeiinitonpepsi

Hinta.fi

Back
Ylös Bottom