NVIDIA-spekulaatioketju (Blackwell ja tulevat sukupolvet)

Voi olla näinkin, törmännyt muutamalla sivulla tähän aiheeseen. Nvidia itse puhuu "memory compression" tekniikasta sen enempää lupailematta mitään todellista vaikutusta VRAM käyttöön.

Ei ole missään ollut infoa, sen yhden huhupajan laskemaa huhua lukuunottamatta. Tensorit nyt sopii huonosti pakkaukseen ja siinä on vain taidettu sotkea direct storageen, jossa pelidata on pakatussa muodossa ja se siirretään suoraan näytönohjaimelle, joka purkaa sen.
 
Voi olla näinkin, törmännyt muutamalla sivulla tähän aiheeseen. Nvidia itse puhuu "memory compression" tekniikasta sen enempää lupailematta mitään todellista vaikutusta VRAM käyttöön.
Niillä on ollu muistinpakkaus käytössä varmaan iäisyyden ja joka kerta vaan hieman parempana kuin ennen. Mitään dramaattista muutosta ei ole dokumentoitu.

Äkkiäkös ton toisaalta testaisi, joku peli vaan alle joka varaa saman verran muistia vaikka 2080 ja 2080ti korteilla (ihan vaan jotta varmistutaan siitä että muistin fyysinen määrä ei kyseisen pelin kohdalla vaikuta varaamiseen) ja sit kattoo paljonko tuli varattua 3080 kortilla. @Sampsa saattais ton saada suht nopeesti hoidettua jos vaan oleellisemmilta testeiltä ehtii.
 
Viimeksi muokattu:
Kuulin 3D graffa softapuolen ukolta kuiskailuja että nyky peleissä on arkkitehtuurillisesti melkoisen pahoja pullonkauloja Amperen ja aivan samalla tavalla ison RDNA2 GPU:n kohdalle.

Siis pullonkaulana on tapa jolla pelimoottori on koodattu. Se voi vaikuttaa CPU pullonkaulalta mutta ei sitä varsinaisesti ole.

Kuulema myös AAA peleihin olisi odotettavissa päivityksiä joilla erot turingiin voi kasvaa melkoisen suuriksikin jos eivät sitä vielä ole.

Täähän on aika selvästi nähtävissä jo noista testituloksista. Isoimmat erot on pääsääntöisesti uudemmissa isoissa peleissä ja varsinkin low level apeja (DX12 ja Vulkan) käytettäessä. Voitanee sano melko varmasti, että erot uusiissa ja tulevissa peleissä tukevat olemaan isompia Amperen eduksi.
 
Ei kai se data koskaan siellä muistissa istu pakattuna? Aika vaikea siitä olisi mitään random access lukuja tehdä. Aina kun dataa siirretään niin se liikkuu pakatussa muodossa.
 
Ei kai se data koskaan siellä muistissa istu pakattuna? Aika vaikea siitä olisi mitään random access lukuja tehdä. Aina kun dataa siirretään niin se liikkuu pakatussa muodossa.
Ei se muistipiiri sitä osaa itse pakata, vai meinaatko että prosessorin sisäisissä väylissä olisi joku automaattinen end-to-end pakkaussysteemi?

Kyllä se kama siellä muistissa vaan istuu jo pakattuna. Pakkaustekniikka on valittu siten että sitä voidaan käyttää nopeasti kyseisessä käytössä.
 
"NVIDIA GPUs utilize several lossless memory compression techniques to reduce memory bandwidth demands as data is written out to frame buffer memory. The GPU’s compression engine has a variety of different algorithms which determine the most efficient way to compress the data based on its characteristics. This reduces the amount of data written out to memory and transferred from memory to the L2 cache and reduces the amount of data transferred between clients (such as the texture unit) and the frame buffer. "
Tuo pakkaaminen koskee siis frame buffer -käsittelyä. Geneerisesti tekstuurit ovat peleissä jo valmiiksi esim. ASTC- tai BC7-pakettuja, joten niiden uudelleenpakkaus ei pitäisi tuoda mitään merkittävää hyötyä.
 
Aika lämpöisenä käy muuten 3080:n muistit, Igors lab teki vähän lämpökamerakuvauksia:

"By the way, I can reassure anyone who insists that I took off the backplate. Even when fully assembled, the RAM is still internally at 104 °C for the hottest module. "

Oho. Tuosta on kyllä mielenkiintoista lukea lisää testidataa. On todennäköisesti erittäin validia valita kortti, jonka kohdalla muistien jäähdytys on hoidettu normaalia paremmin.
 
3090 kohdalla tietenkin muistit ym selittää hintaeroa, mutta itsellä on sellainen kutina ettei tässä vielä tiedetä kaikkea.
Se ett fyysinen koko on noin paljon isompi ja sit kutsutaan ”BFGPU”:ksi niin hieman tuntuu oudolta jos nopeuserot on vaan luokkaa 5-10%.
Etenkin siksi että jos sielt on tulossa 3080 super tai Ti, niin mihin väliin se tuossa menee? 3,5% nopeampi?

itse ainakin odottelen Sampsan testit rauhassa... :)
Kaikista parasta olisi jos se 3080super ti 20gb olisi tsmc.n prosessilla.... perhana peruin tilaukseni.
on pakko katsoa amd ja viimeinen kierros vaikka 3080 onkin passeli.
 
Kuulin 3D graffa softapuolen ukolta kuiskailuja että nyky peleissä on arkkitehtuurillisesti melkoisen pahoja pullonkauloja Amperen ja aivan samalla tavalla ison RDNA2 GPU:n kohdalle.

Siis pullonkaulana on tapa jolla pelimoottori on koodattu. Se voi vaikuttaa CPU pullonkaulalta mutta ei sitä varsinaisesti ole.

Kuulema myös AAA peleihin olisi odotettavissa päivityksiä joilla erot turingiin voi kasvaa melkoisen suuriksikin jos eivät sitä vielä ole.
ne 3000 fp32 cudaa idlailee välillä vanhemmissa peleissä kun ei ole mitään tekemistä...
dlss ei minusta hyödynnä vielä kasvanutta 2x tensor tehoa ollenkaan...
2cent...
 
Tuon takia virtalähde kannattaakin uusia samalla kun jotain muista halvempia komponentteja. Itse lopetin pelleilyn 4-5 vuotta sitten ja ostin super flowering 1600w powerin. Tais olla 370€ Ja kaikki vähän naureskeli mutta eipä oo tarvinu poweria päivitellä.
 
Jotenkin sellainen tunne, että tuosta 20GB:n ihanuudesta hehkutetaan vähän liikaa.

Kokeilin äsken parin pelin VRAM-kulutuksia eri asetuksilla:

Far Cry 5:
4K, HDR10, ihan kaikki karkit maksimilla (ultra), HD-tekstuuripaketti.
Näyttömuistin käyttö 5.48 GB.
Ainoa millä tuosta sai nousemaan oli super/multisampling, jonka maksimiasetus 2.0 nosti muistitarpeen 10.72 GB. Kuka tuota käyttäisi 4K:lla, siinäpä kysymys.

RDR2:
4K, HDR, ihan kaikki ultralla tai muuten maksimilla:
10.996 GB (8x multisampling)
8.972 GB (4x multisampling)

Jos jollain on esimerkkejä missä 10GB ei riitä edes 4K:lla ilman mitään supersämplyjä, niin kertokoot.
 
Viimeksi muokattu:
Jotenkin sellainen tunne, että tuosta 20GB:n ihanuudesta hehkutetaan vähän liikaa.

Kokeilin äsken parin pelin VRAM-kulutuksia eri asetuksilla:

Far Cry 5:
4K, HDR10, ihan kaikki karkit maksimilla (ultra), HD-tekstuuripaketti.
Näyttömuistin käyttö 5.48 GB.
Ainoa millä tuosta sai nousemaan oli super/multisampling, jonka maksimiasetus 2.0 nosti muistitarpeen 10.72 GB. Kuka tuota käyttäisi 4K:lla, siinäpä kysymys.

RDR2:
4K, HDR, ihan kaikki ultralla tai muuten maksimilla:
10996 GB (8x multisampling)
8972 (4x multisampling)

Jos jollain on esimerkkejä missä 10GB ei riitä edes 4K:lla ilman mitään supersämplyjä, niin kertokoot.
En itsekkään usko että tuo 10gb ihan heti kesken loppuu, siinä kohtaa kun niin käy niin ehkä on jo aika päivittää muutenkin. Kiitos tästä!
 
En itsekkään usko että tuo 10gb ihan heti kesken loppuu, siinä kohtaa kun niin käy niin ehkä on jo aika päivittää muutenkin. Kiitos tästä!
Samaa mieltä. Sitten kun joku edes lähelle 20GB on tarpeellinen, 3080 superit ja 3090:t ovat jo auttamattoman hitaita.
 
En itsekkään usko että tuo 10gb ihan heti kesken loppuu, siinä kohtaa kun niin käy niin ehkä on jo aika päivittää muutenkin. Kiitos tästä!
Se että 10GB ei lopu kesken ei tarkoita sitä, etteikö siitä lisämuistista olisi hyötyä.
Kunhan esim. Unreal Engine 5:ttä tai vastaavia uuden sukupolven pelimoottoreita hyödyntävät pelit tulevat markkinoille, voi 10 GB muisti äkkiä loppuakin kesken.
Ja kun SSD-levyltä aletaan streamaan tekstuureja yms. näytönohjaimelle, ei sillä oleva ylimääräinen tekstuurimuisti ole koskaan haitaksi.
 
Oma kommenttini oli nimenomaan pelaamiseen liittyen, jäi vain mainitsematta. Tottakai mitä enempi muistia niin "parempi", voihan se olla että jo ihan lähitulevaisuudessa alkaa muistin puolesta tuo 10gb ahdistamaan. Itselle riittää kunhan tuolla 10gb kortilla pärjää sen 1-2v, ymmärrän että kaikki eivät ole uusimassa korttejaan yhtä tiheästi ja täten haluavat sen 20gb mallin, vaikkakin hieman kalliimmalla
 
Jotenkin sellainen tunne, että tuosta 20GB:n ihanuudesta hehkutetaan vähän liikaa.

Kokeilin äsken parin pelin VRAM-kulutuksia eri asetuksilla:

Far Cry 5:
4K, HDR10, ihan kaikki karkit maksimilla (ultra), HD-tekstuuripaketti.
Näyttömuistin käyttö 5.48 GB.
Ainoa millä tuosta sai nousemaan oli super/multisampling, jonka maksimiasetus 2.0 nosti muistitarpeen 10.72 GB. Kuka tuota käyttäisi 4K:lla, siinäpä kysymys.

RDR2:
4K, HDR, ihan kaikki ultralla tai muuten maksimilla:
10.996 GB (8x multisampling)
8.972 GB (4x multisampling)

Jos jollain on esimerkkejä missä 10GB ei riitä edes 4K:lla ilman mitään supersämplyjä, niin kertokoot.
Niin, nuo on suunnattu nykyisille konsoleille, joissa on 8GB muistia. Uusissa tulee olemaan tuplasti. Varmasti tulee vaikuttamaan muistinkäyttöön lähitulevaisuudessa.
 
Niin, nuo on suunnattu nykyisille konsoleille, joissa on 8GB muistia. Uusissa tulee olemaan tuplasti. Varmasti tulee vaikuttamaan muistinkäyttöön lähitulevaisuudessa.

Niin siis PS4:ssa on 8GB rammia yhteensä, ei 8GB dedikoitua VRAMia. Eiköhän kaikilla jotka jonkun 3080:n hankkimista suunnittelee ole koneessa vähintään 16GB muistia tuon 10GB VRAMin lisäksi.
 
Uusissa konsoleissa on 16 GB kaiken kaikkiaan jaettua muistia. Eiköhän tuosta käyttis haukkaise ainakin 3GB, joten peleille jää 13. Se on kuitenkin jaettua muistia, eli ram+vram. Toisaalta kuka sitä haluaa PC:llä konsoliasetuksilla pelailla?

10GB tuskin tulee nykypeleissä vastaan, ellei sillä tehdä jotain tosi tyhmää. Ihmisten pelkona onkin, ettei 10GB riitä enää 2 vuoden päästä. Jos on suunnitelmissa ostaa 40xx sarjan kortti heti julkaisussa niin 10GB riittää varmaan mainiosti siihen asti. Veikkaan, että 20GB kortin hinta suhteessa saavutettuun hyötyyn on hyvin korkea.

"In terms of how the memory is allocated, games get a total of 13.5GB in total, which encompasses all 10GB of GPU optimal memory and 3.5GB of standard memory. This leaves 2.5GB of GDDR6 memory from the slower pool for the operating system and the front-end shell. "Inside Xbox Series X: the full specs
 
Se on varma että ongelmia tuleekin, kysymys kuuluukin vain että kuinka nopeasti :lol:
Ei mahdu minun tajuntaan, miten ne samat 4K-tekstuurit alkaisivat yhtäkkiä paisumaan suuremmiksi, tai että niitä alkaisi olla niin paljon, ettei nykyiset määrät riitä. Tokihan se mahdollista on, jos vaikka pelintekijät laiskistuvat ylenpalttisen muistimäärän edessä. Lisää tekstuureita -> lisää silmäkarkkia toki.
Meinasin sanoa, että ainahan voi spekuloida, mutta spekulaatioketjuhan tämä on :D
 
Ei mahdu minun tajuntaan, miten ne samat 4K-tekstuurit alkaisivat yhtäkkiä paisumaan suuremmiksi, tai että niitä alkaisi olla niin paljon, ettei nykyiset määrät riitä. Tokihan se mahdollista on, jos vaikka pelintekijät laiskistuvat ylenpalttisen muistimäärän edessä. Lisää tekstuureita -> lisää silmäkarkkia toki.
Meinasin sanoa, että ainahan voi spekuloida, mutta spekulaatioketjuhan tämä on :D
Viestissäni olikin sarkasmia, ainahan jokainen kortti joskus jää jalkoihin ja alkaa tuottamaan "ongelmia" :D
 
Ei mahdu minun tajuntaan, miten ne samat 4K-tekstuurit alkaisivat yhtäkkiä paisumaan suuremmiksi, tai että niitä alkaisi olla niin paljon, ettei nykyiset määrät riitä. Tokihan se mahdollista on, jos vaikka pelintekijät laiskistuvat ylenpalttisen muistimäärän edessä. Lisää tekstuureita -> lisää silmäkarkkia toki.
Meinasin sanoa, että ainahan voi spekuloida, mutta spekulaatioketjuhan tämä on :D
Ei ne paisu suuremmaksi vaan niitä tulee yhä enemmän. Monimutkainen geometria ja kaikki muu roju päälle.
 
Jos tänään tehdään pelejä joiden pitää paskasettareilla mahtua 3GB videomuistiin ja vuoden-parin päästä lähdetäänkin vaikka siitä että VRAMia on vähintään 8GB jolla ajetaan paskasettareita niin voin kertoa että 4K korkeilla settareilla ei enää 10GB kortille mahdu.
 
Jos tänään tehdään pelejä joiden pitää paskasettareilla mahtua 3GB videomuistiin ja vuoden-parin päästä lähdetäänkin vaikka siitä että VRAMia on vähintään 8GB jolla ajetaan paskasettareita niin voin kertoa että 4K korkeilla settareilla ei enää 10GB kortille mahdu.

AAA-pelien kehityssyklit on niin pitkiä, että siinä vaiheessa kun näitä vuoden parin päästä kehitykseen laitettuja pelejä julkaistaan on koneessa jo RTX 4080. Molempien uusien konsoleiden pelit tulee vielä vanhoille paskabokseille myös.
 
Unreal5:en kaltaiset striimausta ja directstoragea käyttävät pelienginet voivat mahdollistaa pienemmän muistinkulutuksen. Ehkä tulevaisuudessa ei tarvi ladata yhtä paljon dataa muistiin varmuuden vuoksi kuin nyt nyt. Konsolit voivat auttaa siinä, että ssd:en päälle rakennettu striimaus yleistyy. Toki mikään ei ole varmaa ja enemmän on parempi, jos hinta ei ole este.
 
AAA-pelien kehityssyklit on niin pitkiä, että siinä vaiheessa kun näitä vuoden parin päästä kehitykseen laitettuja pelejä julkaistaan on koneessa jo RTX 4080. Molempien uusien konsoleiden pelit tulee vielä vanhoille paskabokseille myös.

Kyllähän nuo usein tehdään konsoleiden specseille joten tuskinpa on tulossa isompia ongelmia lähiaikoina. En tiedä millä perusteella Jarniksen mielestä yhtäkkiä muistinkulutus tuplaantuisi. 4k + raskas AA ei minusta kuulosta ylipäätään mitenkään järkevältä. Tuollainen settihän toki söisi muistia.
 
Unreal5:en kaltaiset striimausta ja directstoragea käyttävät pelienginet voivat mahdollistaa pienemmän muistinkulutuksen. Ehkä tulevaisuudessa ei tarvi ladata yhtä paljon dataa muistiin varmuuden vuoksi kuin nyt nyt. Konsolit voivat auttaa siinä, että ssd:en päälle rakennettu striimaus yleistyy. Toki mikään ei ole varmaa ja enemmän on parempi, jos hinta ei ole este.
Tulkitsisin pikemminkin niin, että jos tekstuureja voidaan streamata SSD:ltä, niin niitä tekstuureja tullaan käyttämään nykyistä paljon enemmän ja/tai ne ovat nykyistä tarkempia.
Jos näytönohjaimen muistissa on tilaa, niin ainahan on nopeampaa, jos ne tekstuurit voidaan puskuroida näytönohjaimen muistiin ja käyttää sieltä, kuin kuin ladata vasta tarvittaessa SSD-levyltä.
 
Tulkitsisin pikemminkin niin, että jos tekstuureja voidaan streamata SSD:ltä, niin niitä tekstuureja tullaan käyttämään nykyistä paljon enemmän ja/tai ne ovat nykyistä tarkempia.
Jos näytönohjaimen muistissa on tilaa, niin ainahan on nopeampaa, jos ne tekstuurit voidaan puskuroida näytönohjaimen muistiin ja käyttää sieltä, kuin kuin ladata vasta tarvittaessa SSD-levyltä.

Voi hyvin käydä noinkin, jos pelien asennuskoot saavat kasvaa ja tekijöillä ei budjetit lopu kesken. Tosin osa peleistä on jo nyt sadan gigan isommalla puolella.
 
TLDR: C9- ja CX-malleilla ongelmia G-sync+120Hz -kombon kanssa, pukkaa mustaa ruutua. CX lisäksi pakottaa 4:2:2 kroman alinäytteistyksen 4K- ja FHD-resoilla, 1440p jostain syystä toimii normaalisti. Tämä siis 120 hertsillä, 60 ilmeisesti toimii. "Lähde"

Perhana, meinasin tollasen 48" CX:n ostaa 3080:n kaveriksi. Toivottavasti LG korjaa buginsa. Onko @Sampsa toimituksella C9- tai CX-töllöä, pystyttekö todentamaan tän?

Edit: Reddit-lanka aiheesta
 
Viimeksi muokattu:
TLDR: C9- ja CX-malleilla ongelmia G-sync+120Hz -kombon kanssa, pukkaa mustaa ruutua. CX lisäksi pakottaa 4:2:2 kroman alinäytteistyksen 4K- ja FHD-resoilla, 1440p jostain syystä toimii normaalisti. Tämä siis 120 hertsillä, 60 ilmeisesti toimii. "Lähde"
Kiitos tiedosta, samaa ruutua itsekkin havitellut.
 
Joko nvidian tai LG:n puolella ongelma. Ajureita vähän hankala testata, kun 3080 on toistaseks vaan yhdet ajurit olemassa. Eiköhän toi oo jo pikkuhiljaa molemmilla kuitenkin tiedossa ja ihmettelevät asiaa.
 
Tuota mustan ruudun ongelmaa esiintyy muuallakin freesyncin/g-sync yhteydessä, esimerkiksi itsellä Lenovo Y27q-20 näytöllä Pascal kortin kaverina. Ilmeisesti tässä tilanteessa ongelmana on se kun fps käy alle g-sync/freesync alueen. Tosin ongelma kuulemma katoaa heti kun on 20x0+ korttina, joten jännä että tuossa telkkarissa ongelma esiintyy 3080 kortin kanssa. Toisaalta onhan erona se että toisessa tilanteessa DP ja toisessa HDMI.
 
Tuota mustan ruudun ongelmaa esiintyy muuallakin freesyncin/g-sync yhteydessä, esimerkiksi itsellä Lenovo Y27q-20 näytöllä Pascal kortin kaverina. Ilmeisesti tässä tilanteessa ongelmana on se kun fps käy alle g-sync/freesync alueen. Tosin ongelma kuulemma katoaa heti kun on 20x0+ korttina, joten jännä että tuossa telkkarissa ongelma esiintyy 3080 kortin kanssa. Toisaalta onhan erona se että toisessa tilanteessa DP ja toisessa HDMI.
Siitäkin mainittiin tuolla tosiaan, että vielä ei ole "virallisia" Hdmi 2.1 kaapeleita.
 
  • Tykkää
Reactions: TML
Tämän satuin katsomaan myös aiheesta juuri eilen. Ei varmaan poraudu noin syvälle aiheeseen / yllä mainittuihin ongelmiin mutta hienoahan tämä olisi jos toimii:

Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.
 
Tämän satuin katsomaan myös aiheesta juuri eilen. Ei varmaan poraudu noin syvälle aiheeseen / yllä mainittuihin ongelmiin mutta hienoahan tämä olisi jos toimii:

Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.

Tuossa LG C9 jossa HDMI 2.1 48gbps kaistalla jolla ongelmaa ei ole. Tän vuoden CX-mallissa kaista kuristettu 40gbps, mutta veikkaan että ongelma ei ole kaista vaan tuo HDMI 2.0b:llä mahdollistettu 4K 120Hz, joka jotenkin rikkoo tuon Chroman, eli downsamplaa sen. Toivottavasti korjaus tulee nopeasti.
 
Tämän satuin katsomaan myös aiheesta juuri eilen. Ei varmaan poraudu noin syvälle aiheeseen / yllä mainittuihin ongelmiin mutta hienoahan tämä olisi jos toimii:

Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.

Joo, ainut vaan et tässä videossa jätettiin aika olennainen asia mainitsematta ja se on just noi G-Sync ongelmat. Kommenteissa kyllä tarkens et siinä G-Syncissä oli ropleemia, ihan kuten siinä CX:ssäkin, mutta videolla näkyvällä C9:llä skulaa se 4k 120hz ilman chroma subsamplingia. Ainoastaan se G-Sync tuottaa C9:ssä ongelmia.

Vähän kyllä jo kädet hikoo sen suhteen et saisko jo B9S laittaa tilaukseen. Heti kun saa ekan varmistuksen et 4k 120hz HDR + G-Sync skulaa sen kanssa niin tulee rykästyä, saapahan jotain uutta räpellettävää täks kuuks, saatana :asif: Toki siinäkin vissiin on tota G-Sync ongelmaa, mut kerta se jokasessa mallissa on niin vaikuttais nVidian ajuritason ongelmalta. Varsinkin kun jos RTX 20-sarjalaisilla vetää ajureita taakepäin niin se G-Sync alkaakin skulaamaan.

Redditistä poimittua: "LG OLED CX, BX, C9, B9 all suffer from G-Sync Problems. You get blackscreens when G-Sync is enabled. This is most likely due to the latest Nvidia driver update. If you rollback to an older driver version with your RTX 2000 series or older GPU G-Sync works again "

 
Tuossa LG C9 jossa HDMI 2.1 48gbps kaistalla jolla ongelmaa ei ole. Tän vuoden CX-mallissa kaista kuristettu 40gbps, mutta veikkaan että ongelma ei ole kaista vaan tuo HDMI 2.0b:llä mahdollistettu 4K 120Hz, joka jotenkin rikkoo tuon Chroman, eli downsamplaa sen. Toivottavasti korjaus tulee nopeasti.

Ei se C9:ään ihan ongelmaton ole. Kompromisseja toistaiseksi kaikki.


That said the C9 and CX look good with 10 bit RGB 120 Hz input in a non-PC mode (The CX's PC mode is fine with 120 Hz input too, but it is not 444). LG sucks at 444 chroma but if you drop that everything else is pretty good.
frown.gif


HDR in PC mode is way better on the CX than on the C9 but SDR PC mode is about the same. I am not sure this helps anyone but if the banding isn't too bad (e.g. using aggressive dithering when converting to limited 8bit YCbCr 444) you can actually use PC mode for HDR content! HDR in PC mode on the C9 and earlier is absolutely terrible, tone mapping does not work properly so everything is very undersaturated.

Ei se C9:kään ihan ongelmaton ole. Vähän tuota doom9:siä lukiessa epäilys paistoi läpi, että saavatko kaikkia mainostettuja ominaisuuksia täysin toimimaan näissä ensimmäisissä HDMI2.1 generaatioissa tai yleensäkkään koko LG:n OLED paneelilla.

Tuolla osalta löytyy C9 ja CX testattavaksi. :)
 
Tänään pääsee testailemaan B9S (2020) kanssa millai toimii RtX 3080 kanssa. Pistän kokemuksia 3080 ketjuun.
Ai jumalauta, venailen tätä B9S ostoskorissa. Jos HDR toimivuuden kehtaat testata jonkun sitä tukevan pelin kanssa niin ois tosi jees.
 
Pientä kaduntallaajan spekulointia:

JOS 3090 on vain naurettavat 10% nopeampi muka kuin 3080, niin tuon eron lähes kuroo umpeen kellottamalla parempi piirisen 3080, ja tilaa ei todellakaan ole enää 3080Ti:lle tai 3080 Superille änkeä sinne väliin.

Millään kokoonpanolla ei pysty ottamaan irti uusien näyttöjen ominaisuuksia edes nykyisillä peleillä (tulevista peleistä puhumattakaan) koska korteissa ei ole voimaa moiseen. PC Master Race tarkoittaa Nvidian ”Jytkyn” jälkeen lähinnä kikkailla erilaisten kuvanlaadun kompromissien kanssa.

Kummastuttaa myös ajaa alas SLI kun ei kerran ole tarjolla sitä kunkkukorttia joka hoitaa homman. Sen sijaan että sysää tuen pelinkehittäjien harteille olisivat nimenomaan kehittäneet kahdenkortin tuen toimivammaksi tämän NvLinkin kautta. Sillä alkais jo pärjäillä. Mutta ei niitä kiinnosta myydä kortteja, niitä vaan vedellään rotsi auki uunista esiin :)

*kaduntallaajan spekulointi sisältää niin sanottua ”lapin lisää” joten jäitä hattuun*
 
Pientä kaduntallaajan spekulointia:

JOS 3090 on vain naurettavat 10% nopeampi muka kuin 3080, niin tuon eron lähes kuroo umpeen kellottamalla parempi piirisen 3080, ja tilaa ei todellakaan ole enää 3080Ti:lle tai 3080 Superille änkeä sinne väliin.

Millään kokoonpanolla ei pysty ottamaan irti uusien näyttöjen ominaisuuksia edes nykyisillä peleillä (tulevista peleistä puhumattakaan) koska korteissa ei ole voimaa moiseen. PC Master Race tarkoittaa Nvidian ”Jytkyn” jälkeen lähinnä kikkailla erilaisten kuvanlaadun kompromissien kanssa.

Kummastuttaa myös ajaa alas SLI kun ei kerran ole tarjolla sitä kunkkukorttia joka hoitaa homman. Sen sijaan että sysää tuen pelinkehittäjien harteille olisivat nimenomaan kehittäneet kahdenkortin tuen toimivammaksi tämän NvLinkin kautta. Sillä alkais jo pärjäillä. Mutta ei niitä kiinnosta myydä kortteja, niitä vaan vedellään rotsi auki uunista esiin :)

*kaduntallaajan spekulointi sisältää niin sanottua ”lapin lisää” joten jäitä hattuun*
Tuo ei olisi sinänsä mikään yllätys kun katsoo RTX 2080 Ti:n ja Titan RTX:n tehoeroa. Tuplasti hintaa mutta ei edes 10% suorituskykyeroa. Odotamme innolla millaisia tuloksia torstaina näemmä.
 

Statistiikka

Viestiketjuista
296 048
Viestejä
5 060 796
Jäsenet
81 019
Uusin jäsen
apustaja

Hinta.fi

Back
Ylös Bottom