NVIDIA julkaisi GeForce RTX 2080:n suorituskykyvertailun GTX 1080:een

Kaotik

Banhammer
Ylläpidon jäsen
Liittynyt
14.10.2016
Viestejä
21 542



NVIDIA sivuutti Turing-julkaisutilaisuudessaan täysin todelliset suorituskykymittaukset uusilla näytönohjaimillaan. Pian julkaisun jälkeen nettiin saatiin ensimmäiset, vähemmän mairittelevat lukemat Shadow of the Tomb Raider -pelistä, mutta ilman vertailukohtaa ja beetatason säteenseurantaefektit käytössä johtopäätösten teko niistä oli turhaa.

Nyt NVIDIA on julkaissut omassa blogissaan ensimmäiset yhtiön viralliset, omat testitulokset. Samalla se lupaa GeForce RTX 2080:n kykenevän 4K-resoluutiolla yli 60 FPS:n keskimääräiseen ruudunpäivitysnopeuteen yhteensä kymmenessä AAA-luokan pelissä HDR-renderöinti päällä: Final Fantasy XV Windows Edition, Hitman, Call of Duty: WWII, Mass Effect: Andromeda, Star Wars: Battlefront II, Resident Evil 7: Beginning Hour, F1 2017, Destiny 2, Battlefield 1 ja FarCry 5.



Itse suorituskykyvertailussa GeForce RTX 2080 peittoaa edeltäjänsä identtisin asetuksin 4K-resoluutiolla noin 30 - 50 prosentin erolla. Valitettavasti yhtiö ei julkaissut käytettyjä asetuksia. NVIDIA liitti mukaan myös RTX 2080:n tulokset kuudessa DLSS-teknologiaa (Deep-Learning Super Sampling) tukevassa pelissä, jolloin ero GTX 1080:een venähti noin 70 – 120 %:n välimaastoon. NVIDIA on kertonut Deep-Learning Super Sampling -teknologiastaan tähän mennessä sen verran, että se analysoi renderöintiprosessia ja tuottaa ruudulle tarkkapiirtoisia mutta sileitä objekteja parantaen siten kuvan laatua. DLSS vaatii peliltä erillisen tuen.

Koska NVIDIA ei ole kertonut DLSS-teknologiansa todellisia saloja, jättää tulokset paljon arvailun varaan. Ottaen huomioon kuitenkin sen, että teknologia parantaa suorituskykyä merkittävästi on sen tehtävä jokin osa renderöintiprosessista selvästi nopeammin. Ottaen huomioon objektien reunojen parantamisen, mahdollisia selityksiä olisivat esimerkiksi pelin renderöinti todellisuudessa matalammalla resoluutiolla ja sen skaalaaminen tekoälyn avulla ”vastaamaan” 4K-resoluutiolla renderöityä kuvaa, tai vaihtoehtoisesti testit olisi ajettu normaalisti super sampling -reunojenphemennys käytössä ja DLSS-tulokset kuvastaisivat kuinka paljon nopeammin tekoälyllä saa vastaavan kuvan oikomalla tekoälyllä perinteisen ”supersamplauksen” sijasta.

Lisäksi NVIDIA on julkistanut listan peleistä, joihin on tulossa tuki joko säteenseurantaefekteille tai DLSS-teknologialle. Osaan peleistä ominaisuudet ollaan lisäämässä jälkikäteen päivityksillä. Kokosimme pelit alta löytyvään taulukkoon, vihreää ruutu merkitsee pelin tukevan kyseistä ominaisuutta.

Lähde: NVIDIA

Huom! Foorumiviestistä saattaa puuttua kuvagalleria tai upotettu video.

Linkki alkuperäiseen uutiseen (io-tech.fi)

Palautelomake: Raportoi kirjoitusvirheestä
 
Viimeksi muokattu:
Liittynyt
01.12.2016
Viestejä
147
Joo o ihan mopo floppi, varsinkin jos 2080ti oletettavasti vielä sen +10-20% noihin.. Vai miten se meni :kahvi: Noh katsotaan silti 3-osapuolen testit vielä rauhassa ennen lopullista leimaa.
 
Viimeksi muokattu:
Liittynyt
29.10.2016
Viestejä
1 221
Voisiko tuosta olettaa että RTX 2070 vastaisi noin suurinpiirtein GTX 1080 Ti korttia? Saman tehon saisi silloin ehkä pari satkua halvemmalla
 
Liittynyt
01.12.2016
Viestejä
147
Eli 2080 aika liki 1080ti, jos ei oteta noita uusia kikkareita käyttöön.
Jep liki tai sopivasti päälle lopulliset testit joskus kertokoon. IO-tecin testien mukaan 1080ti oli 1080 verrattuna 26-34% tehokkaampi. Jos nvidian itsensä ilmoittamat sielläpäin niin ~5-15% parannusta odotettavissa 1080ti verrattuna (2080) (ilman uusia ominaisuuksia).
 
Liittynyt
23.10.2016
Viestejä
1 248
30-50% parempi suorituskyky, 80% kovempi hinta. Huono diili on tämä.
JOS RTX 2070 vastaa suorituskyvyltään 1080 Ti:tä, säästää ehkä 50-100e nykyhinnoilla ostamalla 2070:n. 1080 Ti:n hinnat tosin varmasti tippuu kun nämä uudet kortit tulee oikeasti saataville.
Näissä uusissa on jokseenkin heikon oloinen suorituskyky/hinta -suhde.
Ei voi edelleenkään toivoa muuta kuin oikeaa kilpailua markkinoille.
 
Liittynyt
05.11.2016
Viestejä
1 529
Näyttää kyllä nuo Nvidian omat testit ihan hyvältä. Toivon näiden korttien tuovan noiden vanhempien hintoja alas kummassakin leirissä.
 

rlame

Tukijäsen
Liittynyt
30.10.2016
Viestejä
624
Onko valistuneita arvauksia milloin sivustot saavat julkaista testit?
Ilmeisesti raakaa laskentatehoa on se n. +15-20% enemmän vrt. edellisen sukupolven "vastaava" kortti ja onhan siellä enemmän muistikaistaakin tarjolla.
Kyllä nuo hinnat silti hirvittää.
 

Kaotik

Banhammer
Ylläpidon jäsen
Liittynyt
14.10.2016
Viestejä
21 542
Voisiko tuosta olettaa että RTX 2070 vastaisi noin suurinpiirtein GTX 1080 Ti korttia? Saman tehon saisi silloin ehkä pari satkua halvemmalla
Ei voi, koska noilla luvuilla se on 2080 kun vastaa suurin piirtein 1080 Ti:tä (esim. TPU:n ja ComputerBasen laajemmilla pelivalikoimilla 4K-resoluutiolla 1080 Ti on yli 30% nopeampi kuin 1080 ja NVIDIA lienee kuitenkin valinnut itselleen edullisia pelejä esittelyä varten)
 

IcePen

Typo Generaatroti ;-)
Tukijäsen
Liittynyt
17.10.2016
Viestejä
5 979
Okei eli tehoero edelliseen sukupolveen on riittävä eli kyseesä ei ole floppi, niin kuin Nvidia alunperin antoi syyn olettaa.

Olipahan vaan pahemman luokan kämmi Nvidialta että ei heti julkaisutilaisuudessa kertonut tästä tehoerosta edelliseen sukupolveen vaan antoi kuvan että RTX kortit ei ole juurikaan parempai kuin edellisen sukupolven GTX korti normi peleiillä.


Muuten jos tulevat GTX 2060 kortien piirit on muutoin samanlaisia kuin nämä nyt tulevat RTX piirit (pl sen säteenseurannan ja tensorcoret) niin tuo n. +40-60% GTX 1060 kortin tehoon lisää uudessa GTX 2060 kortissa tarkottaisi sitä että uusi GTX 2060 riittäisi ihan hyvin 1440p tarkuudella pelaamiseen niin että FPS ei kyykäilisi kohtuutoman alas.

Se tarkoittaisi myös sitä että nykyistä Vega kortia ei olisi järkeä osta oikein millään hinnalla jos se on myynissä saman aikaan GTX 2060 korttien kanssa koska se olisi korkeintaan vain vähen tehokaampi mutta kuluttaisi yli tuplasti Watteja ja tuottaisi myös tietenkin samassa suhteessa lämpöä kämpään ja jos RX 580 kortti on myynnissä samaan aikaan niiden on pakko olla alle 200€ jos Nvidia ei perseile GTX 2060 kortin hintaa ihan kohtuuttomaksi.

Tämä tarkoittaisi valitettavasti myös sitä että GTX 2060 olisi selvsäti tehokaampi bitrahan jauhaja kuin mitä vastaavassa hintaluokassa on aikaisemmin ollut (onneksi bittirahojen kupla näyttää puhjenneen oikein kunnolla niin että toissijaisten bitirahojen arvo on täysin romahtanut).
 
Liittynyt
31.01.2017
Viestejä
29
"NVIDIA on kertonut Deep-Learning Super Sampling -teknologiastaan tähän mennessä sen verran, että se analysoi renderöintiprosessia ja tuottaa ruudulle tarkkapiirtoisia mutta sileitä objekteja parantaen siten kuvan laatua. DLSS vaatii peliltä erillisen tuen.
Koska NVIDIA ei ole kertonut DLSS-teknologiansa todellisia saloja, jättää tulokset paljon arvailun varaan."

No kyllähän tuo aika selkeästi kerrottiin ja eikä itselle jäänyt ainakaan epäselväksi mitä tuossa tapahtuu. Ensin on tuotettu todella korkealaatuisia "ground truth" kuvia iso läjä. Tästä taidettiin ihan mainita yksityiskohtaisesti, että ne on renderöity käyttäen 64 jitteröityä näytettä per pikseli, eli jokainen pikseli renderöidään 64 kertaa aina hieman eri kohdasta pikselin sisältä, jolloin saadaan todella tarkka supersamplatty lopullinen kuva aikaiseksi näistä. Näitä kuvia käyttäen on treenattu neuroverkko, joka osaa tuottaa ylinäytteistetyn, suuremman tarkkuuden version sille annettavasta pieniresoluutioisesta kuvasta. Eli lyhyesti siis neuroverkko joka upscalaa kuvia laadukkaasti. (Treenaaminen toimii niin, että samasta kuvasta on heikkolaatuisempi versio ja "oikea" versio. Näitä pareja näytetään iso läjä, luokkaa kymmenia tuhansia, neuroverkolle, joiden perusteella se oppii tuottamaan laadukkaan version heikommasta.) Uusissa korteissa on tensor coret, joilla neuroverkkoa voidaan suorittaa tehokkaasti (tekninen termi tälle on inference) treenauksen lisäksi.

Sen sijaan siis, että tarvitsee tehdä oikeaa supersämpläystä (eli renderöidään moninkertaisella resoluutiolla ja suodatetaan), tai ajaa monimutkaisia / raskaita / huonolaatuisia perinteisiä AA-algoritmeja (FXAA, MLAA, MSAA, TAA...), voidaan vain työntää jokainen frame neuroverkkoon sisään, joka antaa korkeamman resoluution / parempilaatuisen kuvan ulos nopeasti ja vaivatta. Tämähän ei ole mikään uusi juttu ja mm. Nvidia on tästä julkaissut viime vuosina monta tieteellistä paperia (esim: https://gwmt.nvidia.com/super-res/about). Uutta tässä on oikeastaan vain se, että nyt sitä tehdään peleille rautatasolla.
 
Viimeksi muokattu:
Liittynyt
21.11.2016
Viestejä
557
Okei eli tehoero edelliseen sukupolveen on riittävä eli kyseesä ei ole floppi, niin kuin Nvidia alunperin antoi syyn olettaa.

Olipahan vaan pahemman luokan kämmi Nvidialta että ei heti julkaisutilaisuudessa kertonut tästä tehoerosta edelliseen sukupolveen vaan antoi kuvan että RTX kortit ei ole juurikaan parempai kuin edellisen sukupolven GTX korti normi peleiillä.


Muuten jos tulevat GTX 2060 kortien piirit on muutoin samanlaisia kuin nämä nyt tulevat RTX piirit (pl sen säteenseurannan ja tensorcoret) niin tuo n. +40-60% GTX 1060 kortin tehoon lisää uudessa GTX 2060 kortissa tarkottaisi sitä että uusi GTX 2060 riittäisi ihan hyvin 1440p tarkuudella pelaamiseen niin että FPS ei kyykäilisi kohtuutoman alas.

Se tarkoittaisi myös sitä että nykyistä Vega kortia ei olisi järkeä osta oikein millään hinnalla jos se on myynissä saman aikaan GTX 2060 korttien kanssa koska se olisi korkeintaan vain vähen tehokaampi mutta kuluttaisi yli tuplasti Watteja ja tuottaisi myös tietenkin samassa suhteessa lämpöä kämpään ja jos RX 580 kortti on myynnissä samaan aikaan niiden on pakko olla alle 200€ jos Nvidia ei perseile GTX 2060 kortin hintaa ihan kohtuuttomaksi.

Tämä tarkoittaisi valitettavasti myös sitä että GTX 2060 olisi selvsäti tehokaampi bitrahan jauhaja kuin mitä vastaavassa hintaluokassa on aikaisemmin ollut (onneksi bittirahojen kupla näyttää puhjenneen oikein kunnolla niin että toissijaisten bitirahojen arvo on täysin romahtanut).
Mainerit ei ole enää riski asic piirien tultua ethereumille mikä on tehnyt näyttisten huudattamisesta muuten kuin suoraa sähkölämmitystä korvaten noin +-0 toimintaa.

Voisi hihasta veikata markkinatilanteen tuntien 2050 korttien osuvan jatkossa 1080p markkinoille ja 2060 siirtyy 1070 markkinoille 1440p resosta kisaamaan, luonnollisesti hintataso varmaan tekee tästä entistäkin vaativamman kuluttajille kun kilpailusta ei oikein voida puhua. Enemmän tuntuu physx henkiseltä yritykseltä lukita uusien pelien ominaisuuksia oman perheen sisälle ja sulkea amdtä markkinoilta.
 

Kaotik

Banhammer
Ylläpidon jäsen
Liittynyt
14.10.2016
Viestejä
21 542
"NVIDIA on kertonut Deep-Learning Super Sampling -teknologiastaan tähän mennessä sen verran, että se analysoi renderöintiprosessia ja tuottaa ruudulle tarkkapiirtoisia mutta sileitä objekteja parantaen siten kuvan laatua. DLSS vaatii peliltä erillisen tuen.
Koska NVIDIA ei ole kertonut DLSS-teknologiansa todellisia saloja, jättää tulokset paljon arvailun varaan."

No kyllähän tuo aika selkeästi kerrottiin ja eikä itselle jäänyt ainakaan epäselväksi mitä tuossa tapahtuu. Ensin on tuotettu todella korkealaatuisia "ground truth" kuvia iso läjä. Tästä taidettiin ihan mainita yksityiskohtaisesti, että ne on renderöity käyttäen 64 jitteröityä näytettä per pikseli, eli jokainen pikseli renderöidään 64 kertaa aina hieman eri kohdasta pikselin sisältä, jolloin saadaan todella tarkka supersamplatty lopullinen kuva aikaiseksi näistä. Näitä kuvia käyttäen on treenattu neuroverkko, joka osaa tuottaa ylinäytteistetyn, suuremman tarkkuuden version sille annettavasta pieniresoluutioisesta kuvasta. Eli lyhyesti siis neuroverkko joka upscalaa kuvia laadukkaasti. (Treenaaminen toimii niin, että samasta kuvasta on heikkolaatuisempi versio ja "oikea" versio. Näitä pareja näytetään iso läjä, luokkaa kymmenia tuhansia, neuroverkolle, joiden perusteella se oppii tuottamaan laadukkaan version heikommasta.) Uusissa korteissa on tensor coret, joilla neuroverkkoa voidaan suorittaa tehokkaasti (tekninen termi tälle on inference) treenauksen lisäksi.

Sen sijaan siis, että tarvitsee tehdä oikeaa supersämpläystä (eli renderöidään moninkertaisella resoluutiolla ja suodatetaan), tai ajaa monimutkaisia / raskaita / huonolaatuisia perinteisiä AA-algoritmeja (FXAA, MLAA, MSAA, TAA...), voidaan vain työntää jokainen frame neuroverkkoon sisään, joka antaa korkeamman resoluution / parempilaatuisen kuvan ulos nopeasti ja vaivatta. Tämähän ei ole mikään uusi juttu ja mm. Nvidia on tästä julkaissut viime vuosina monta tieteellistä paperia (esim: https://gwmt.nvidia.com/super-res/about). Uutta tässä on oikeastaan vain se, että nyt sitä tehdään peleille rautatasolla.
Jostain syystä NVIDIA on kuitenkin kieltänyt mediaa kertomasta DLSS:n toiminnasta ennen kuin NDA loppuu muutoinkin revikoiden osalta
 
Liittynyt
17.10.2016
Viestejä
485
Näyttää kyllä nuo Nvidian omat testit ihan hyvältä. Toivon näiden korttien tuovan noiden vanhempien hintoja alas kummassakin leirissä.
Minusta näyttää huonolta, jos RTX 2080stä pitää maksaa 900€.

Suorituskyky lähellä 1080 Ti, mutta suorituskyky per € onkin sitten melko alhaalla.
 

IcePen

Typo Generaatroti ;-)
Tukijäsen
Liittynyt
17.10.2016
Viestejä
5 979
Jostain syystä NVIDIA on kuitenkin kieltänyt mediaa kertomasta DLSS:n toiminnasta ennen kuin NDA loppuu muutoinkin revikoiden osalta
Villi veikkaus

"Eli lyhyesti siis neuroverkko joka upscalaa kuvia laadukkaasti. (Treenaaminen toimii niin, että samasta kuvasta on heikkolaatuisempi versio ja "oikea" versio. Näitä pareja näytetään iso läjä, luokkaa kymmenia tuhansia, neuroverkolle, joiden perusteella se oppii tuottamaan laadukkaan version heikommasta.) Uusissa korteissa on tensor coret, joilla neuroverkkoa voidaan suorittaa tehokkaasti (tekninen termi tälle on inference) treenauksen lisäksi."

Nvidia ei halunnut sitä kerrottavan että se on pelispesifi siksi että tuo nouroverkon opetus pitää tehdä sillä Nvidian Superkoneella (Nvidiahan teki ison numeron omasta Supertkoneestaan RTX korttien julkaisutilaisuudessa) jokaikiselle DLSS tuen saavalle pelille erikseen eli generinen opetus ei riitä vaan se neuroverkko pitää opettaa jokaikiselle pelille erikseen.

Tuon Superkoneen käyttö ei ole halpaa eli pelin täytyy myydä paljon että Nvidia on valmis haaskaamaan peliin oman Superkoneensa kapasiteetia tai vaihtoehtoisesti pelin julkaisijan on maksettava sen neuroverkonopetus heidän pelilleen.
 

Vermon

Ph.D. in Wisdom Sciences
Liittynyt
17.10.2016
Viestejä
484
Nvidia ei halunnut sitä kerrottavan että se on pelispesifi siksi että tuo nouroverkon opetus pitää tehdä sillä Nvidian Superkoneella (Nvidiahan teki ison numeron omasta Supertkoneestaan RTX korttien julkaisutilaisuudessa) jokaikiselle DLSS tuen saavalle pelille erikseen eli generinen opetus ei riitä vaan se neuroverkko pitää opettaa jokaikiselle pelille erikseen.

Tuon Superkoneen käyttö ei ole halpaa eli pelin täytyy myydä paljon että Nvidia on valmis haaskaamaan peliin oman Superkoneensa kapasiteetia tai vaihtoehtoisesti pelin julkaisijan on maksettava sen neuroverkonopetus heidän pelilleen.
Jönssöni itse kertoi tämän lavalla nvidian tilaisuudessa.

Edit: Tuossa koko tilaisuus, niin voit katsoa mitä sanottiin ja mitä ei, niin ei tarvitse arvailla:
 

IcePen

Typo Generaatroti ;-)
Tukijäsen
Liittynyt
17.10.2016
Viestejä
5 979
Jönssöni itse kertoi tämän lavalla nvidian tilaisuudessa.

Edit: Tuossa koko tilaisuus, niin voit katsoa mitä sanottiin ja mitä ei, niin ei tarvitse arvailla:
Itse katsoin tuon mutta itselleni jäi avoimeksi juuri se että riittääkö sen neuroverkon geneerinen opetus vai tarvitaanko pelikohtainen opetus kun se pelikohtainen opetus on aivan ilmeinen merkittävä kuluerä joten tällä kysymyksellä on merkitystä pelituen kannalta.

Geneerisellä opetuksella se varmaankin toimii mutta onko lopputuloksen laatu riittävän hyvä vai tarviiko se sen pelikohtaisen opetuksen että laatu vastaa sitä minkä Nvidia väittää sen laadun olevan.


Esim: tuo neuroverko systeemihän perustuu aiemman kuvamateriaalin perusteella opittuun mutta pelejen grafiikka on taiteilijoiden tekemään ja se poikkeaa radikaalisti eri pelejen välillä joten joka pelissä ei ole esim. saman näköisiä maapallolla eläviä kissoja joten kissakuvien neuroverkko-opetuksesta ei ole niiden pelejen kohdalla hyötyä joissa onkin jotain etäisesti kissaa muistuttavia demoneja yms, eli neuroverko-opetuksen tulokset ei ehkä (todennäköisesti) ole niin joustavasti sovellettavissa kuin moni kuvittelee.
 
Viimeksi muokattu:

Vermon

Ph.D. in Wisdom Sciences
Liittynyt
17.10.2016
Viestejä
484
Itse katsoin tuon mutta itselleni jäi avoimeksi juuri se että riittääkö sen neuroverkon geneerinen opetus vai tarvitaanko pelikohtainen opetus kun se pelikohtainen opetus on aivan ilmeinen merkittävä kuluerä joten tällä kysymyksellä on merkitystä pelituen kannalta.

Geneerisellä opetuksella se varmaankin toimii mutta onko lopputuloksen laatu riittävän hyvä vai tarviiko se sen pelikohtaisen opetuksen että laatu vastaa sitä minkä Nvidia väittää sen laadun olevan.


Esim: tuo neuroverko systeemihän perustuu aiemman kuvamateriaalin perusteella opittuun mutta pelejen grafiikka on taiteilijoiden tekemään ja se poikkeaa radikaalisti eri pelejen välillä joten joka pelissä ei ole esim. saman näköisiä maapallolla eläviä kissoja joten kissakuvien neuroverkko-opetuksesta ei ole niiden pelejen kohdalla hyötyä joissa onkin jotain etäisesti kissaa muistuttavia demoneja yms, eli neuroverko-opetuksen tulokset ei ehkä (todennäköisesti) ole niin joustavasti sovellettavissa kuin moni kuvittelee.
Hothardwaresta lainattua:

"We should note that NVIDIA will enable DLSS in games for developers for free, if a dev just sends them their code for processing on an NVIDIA DGX supercomputer. NVIDIA will hand back that code, which is reportedly just megabytes in incremental size, and enable the feature in their driver for that game. And, as with anything AI and machine learning, the more you feed the beast, the better it gets at the task at hand moving forward, in this case with a wider swath of game engines and visuals."
 

IcePen

Typo Generaatroti ;-)
Tukijäsen
Liittynyt
17.10.2016
Viestejä
5 979
Hothardwaresta lainattua:

"We should note that NVIDIA will enable DLSS in games for developers for free, if a dev just sends them their code for processing on an NVIDIA DGX supercomputer. NVIDIA will hand back that code, which is reportedly just megabytes in incremental size, and enable the feature in their driver for that game. And, as with anything AI and machine learning, the more you feed the beast, the better it gets at the task at hand moving forward, in this case with a wider swath of game engines and visuals."
Eli vaatii sen pelikohtaisen neuroverkko opetuksen sillä Nvidia Superkoneella juuri niin kuin epäilin eli vaikka Nvidia ei perisi siitä maksua ei se halpaalystiä ole kun sen Nvidian Superkoneen käyttötuntihinta on aikas korkea.

Mitä tämä merkitsee tulevaisuudessa

No nyt kun Nvidia haluaa sementoidan markkinat omalle DLSS:een se tietenkin tarjoaa kailille pelikehittäjille ilmaiseksi tuon varsin kalliin neuroverkko opetuksen.

Mutta entäs sitten kun on kolmannen sukupolven RTX kortit ulkona ja Nvidia on vallannut DLSS kaltaisen pelituen markkinat, joutuuko siinävaiheeessa pienempien pelien kehittäjät maksamaan Nvidialle sen Superkoneen Nouroverkko opetuksesta ?
 

Vermon

Ph.D. in Wisdom Sciences
Liittynyt
17.10.2016
Viestejä
484
Eli vaatii sen pelikohtaisen neuroverkko opetuksen sillä Nvidia Superkoneella juuri niin kuin epäilin eli vaikka Nvidia ei perisi siitä maksua ei se halpaalystiä ole kun sen Nvidian Superkoneen käyttötuntihinta on aikas korkea.

Mitä tämä merkitsee tulevaisuudessa

No nyt kun Nvidia haluaa sementoidan markkinat omalle DLSS:een se tietenkin tarjoaa kailille pelikehittäjille ilmaiseksi tuon varsin kalliin neuroverkko opetuksen.

Mutta entäs sitten kun on kolmannen sukupolven RTX kortit ulkona ja Nvidia on vallannut DLSS kaltaisen pelituen markkinat, joutuuko siinävaiheeessa pienempien pelien kehittäjät maksamaan Nvidialle sen Superkoneen Nouroverkko opetuksesta ?
No, tätä nyt ei tiedä Väyrynenkään.

Itse sanoisin tähän, että...
epäilemme.gif
 

IcePen

Typo Generaatroti ;-)
Tukijäsen
Liittynyt
17.10.2016
Viestejä
5 979
No, tätä nyt ei tiedä Väyrynenkään.

Itse sanoisin tähän, että...
epäilemme.gif
Tosin tuo Nvidia DLSS on vain yksi upress ominaisuus muiden upress ominaisuuksien joukossa eli sille voi sekä Intel että AMD kehittää kilpailijoita jotka on laadullisesti ihan riittävän hyviä mutta ei vaadi mitään neuroverkko opetusta tai tensorcorejen kaltaista.

Nvidiahan käyttää tätä neuroverkko DLSS upress ominaisuutta siksi kun sillä on ne tensorcoret siinä RTX kortissaan (Nvidia tarvii ne tensorcoret jokatapauksessa ammattilaiskorteihin muuhun kuin upress käyttöön), eli kyseessä voi olla enempi siitä että DLSS on olemassa siksi että oli käytettävissä tensorcoreja joille ei muuten pelikortissa ole käyttöä eikä siksi että hyvälaatuinen upress vaatisi tensorcoreja.
 
Liittynyt
29.10.2016
Viestejä
4 071
Ei tuo yllätä että 4K on edellä, 1080 ero tasottuu varmasti.
Onhan se ollut tiedossa että Pascal ei riitä 4k pelaamiseen.

Voisiko tästä päätellä RTX upscaalaa 1080-1440 kuvan 4k:si jollakin keinotekoisella skaalaimella ja pehmennyksellä. No tulihan se syy miten 4k loikka on tehty.
Alkaa ottaa päähän kun 4k näytöt ja televisiot ei ole nykypäivänä enää 4k ja nyt 4k grafiikka ei ole oikeaa 4k:a.

"NVIDIA on kertonut Deep-Learning Super Sampling -teknologiastaan tähän mennessä sen verran, että se analysoi renderöintiprosessia ja tuottaa ruudulle tarkkapiirtoisia mutta sileitä objekteja parantaen siten kuvan laatu"


Eli vaatii sen pelikohtaisen neuroverkko opetuksen sillä Nvidia Superkoneella juuri niin kuin epäilin eli vaikka Nvidia ei perisi siitä maksua ei se halpaalystiä ole kun sen Nvidian Superkoneen käyttötuntihinta on aikas korkea.

Mitä tämä merkitsee tulevaisuudessa

No nyt kun Nvidia haluaa sementoidan markkinat omalle DLSS:een se tietenkin tarjoaa kaikille pelikehittäjille ilmaiseksi tuon varsin kalliin neuroverkko opetuksen.

Mutta entäs sitten kun on kolmannen sukupolven RTX kortit ulkona ja Nvidia on vallannut DLSS kaltaisen pelituen markkinat, joutuuko siinävaiheeessa pienempien pelien kehittäjät maksamaan Nvidialle sen Superkoneen Nouroverkko opetuksesta ?
Eli suomeksi pelaajat ei ole valmiita maksamaan tuosta extraa, testeissä saadaan huipputuloksia, mutta käytännössä ei ominaisuutta käytetä.
Ilmaisuuteen en jaksa uskoa ainakaan pidemmällä ajalla.
 
Viimeksi muokattu:
Liittynyt
01.11.2016
Viestejä
518
Mikäli kortti onkin todella tehokas niin sittenhän tämä on vaan taitavaa markkinointia. Saadaan porukka tyhjentämään vielä laarit vanhoista ja julkaistaan tulokset vasta jälkeen.
 

Melbac

BANNATTU
BANNED
Liittynyt
19.10.2016
Viestejä
3 544
Aika ovela tekniikka eli siis "oikeaa" 4k graffaa ei erota tästä ja fps on sama kuin pelaisi 1080 resolla?.Mikäs juttu toi on ettei monitorit/telkkarit ole "oikeita" 4k monitoreita/telkkareita?.
 
Liittynyt
10.04.2017
Viestejä
84
Eli vaatii sen pelikohtaisen neuroverkko opetuksen sillä Nvidia Superkoneella juuri niin kuin epäilin eli vaikka Nvidia ei perisi siitä maksua ei se halpaalystiä ole kun sen Nvidian Superkoneen käyttötuntihinta on aikas korkea.
Lainaamassasi tekstissä juuri kerrottiin, että Nvidia tekee sen ilmaiseksi. Miten se nyt muka niin kallista on? Ja tuon koneen hinta on 60 tuhatta dollaria - tai leikkisästi 3000 x $19.90, niin kuin julkistustilaisuudessa vitsailtiin. Ei 60 tonnin masiinan käyttäminen miljoonia maksa. Näkyy muuten nvidian sivuilla olevan tarjouksessa, vain 49 taalatonnia tai $17 per päivä liisattuna. Ja siihen sähköt päälle. Halpaa kuin saippua, väitän minä.
 

Kaotik

Banhammer
Ylläpidon jäsen
Liittynyt
14.10.2016
Viestejä
21 542
Hothardwaresta lainattua:

"We should note that NVIDIA will enable DLSS in games for developers for free, if a dev just sends them their code for processing on an NVIDIA DGX supercomputer. NVIDIA will hand back that code, which is reportedly just megabytes in incremental size, and enable the feature in their driver for that game. And, as with anything AI and machine learning, the more you feed the beast, the better it gets at the task at hand moving forward, in this case with a wider swath of game engines and visuals."
Lainaamassasi tekstissä juuri kerrottiin, että Nvidia tekee sen ilmaiseksi. Miten se nyt muka niin kallista on? Ja tuon koneen hinta on 60 tuhatta dollaria - tai leikkisästi 3000 x $19.90, niin kuin julkistustilaisuudessa vitsailtiin. Ei 60 tonnin masiinan käyttäminen miljoonia maksa. Näkyy muuten nvidian sivuilla olevan tarjouksessa, vain 49 taalatonnia tai $17 per päivä liisattuna. Ja siihen sähköt päälle. Halpaa kuin saippua, väitän minä.
Jos se oikeasti on noin yksinkertaista, miten ihmeessä tukea ei ole tulossa edes kaikkiin ray tracing -settejä tukeviin peleihin? Luulisi että siellä olisi ollut tuohonkin aikaa helposti kaikilla jos NVIDIA on lähtenyt muutenkin mukaan RT-tukea toteuttamaan
 
Liittynyt
10.04.2017
Viestejä
84
Jos se oikeasti on noin yksinkertaista, miten ihmeessä tukea ei ole tulossa edes kaikkiin ray tracing -settejä tukeviin peleihin? Luulisi että siellä olisi ollut tuohonkin aikaa helposti kaikilla jos NVIDIA on lähtenyt muutenkin mukaan RT-tukea toteuttamaan
En ottanut kantaa siihen, millaisella ja miten monimutkaisesti parametroitavalla regressiomallilla tjsp mallinnuksella Nvidia tekee syväoppimisen. Se voi olla rajallisia insinööriresursseja sitovaa säätämistä ja uuden oppimista myös pelitalon puolella. Otin kantaa siihen, onko työn suorittamiseen käytettävän työaseman käyttäminen kallista vai ei. Erityisesti kiinnitin huomiota kommenttiin "sen Nvidian Superkoneen käyttötuntihinta on aikas korkea." Vitut ole.
 
Liittynyt
17.10.2016
Viestejä
56
Okei eli tehoero edelliseen sukupolveen on riittävä eli kyseesä ei ole floppi, niin kuin Nvidia alunperin antoi syyn olettaa.

Olipahan vaan pahemman luokan kämmi Nvidialta että ei heti julkaisutilaisuudessa kertonut tästä tehoerosta edelliseen sukupolveen vaan antoi kuvan että RTX kortit ei ole juurikaan parempai kuin edellisen sukupolven GTX korti normi peleiillä.
Nvidia ei ole missään vaiheessa antanut syytä olettaa että kyseessä on floppi, eikä pelien tehotuloksien pois jättäminen ollut mitenkään kämmi, eikä se kerro muutenkaan mistään mitään, muuta kuin että niitä ei nyt vaan näytetty ja sillä sipuli. Kaikki flopit ja kämmi -käsitykset ovat syntyneet foorumautistien omissa mielikuvissaan, ja HE ovat olettaneet että nyt kun nvidia ei näyttänyt miten uusi näyttis toimii kuakessa niin pakko olla paska. Asiaa helpottaa tietysti suuresti kun joku sekaisin oleva pirinisti on heittänyt twitteriin oman näkemyksen miten kortti muka toimii ja antaa jossain yhdessä pelissä vain 30fps, josta sit koko maailma käsittää että tämä on totuus. Koko näitä keskusteluita kun seuraa, niin huomaa hyvin että juuri tätä nvidia haluaakin. Paljon puhetta ympäriinsä, antaa lampaiden spekuloida ja näkevät sitten. Ihan hyvää markkinointia eikös
 
Liittynyt
01.12.2016
Viestejä
147
Nvidia ei ole missään vaiheessa antanut syytä olettaa että kyseessä on floppi, eikä pelien tehotuloksien pois jättäminen ollut mitenkään kämmi, eikä se kerro muutenkaan mistään mitään, muuta kuin että niitä ei nyt vaan näytetty ja sillä sipuli. Kaikki flopit ja kämmi -käsitykset ovat syntyneet foorumautistien omissa mielikuvissaan, ja HE ovat olettaneet että nyt kun nvidia ei näyttänyt miten uusi näyttis toimii kuakessa niin pakko olla paska. Asiaa helpottaa tietysti suuresti kun joku sekaisin oleva pirinisti on heittänyt twitteriin oman näkemyksen miten kortti muka toimii ja antaa jossain yhdessä pelissä vain 30fps, josta sit koko maailma käsittää että tämä on totuus. Koko näitä keskusteluita kun seuraa, niin huomaa hyvin että juuri tätä nvidia haluaakin. Paljon puhetta ympäriinsä, antaa lampaiden spekuloida ja näkevät sitten. Ihan hyvää markkinointia eikös
Juuri näin. Mikä sen parempaa, kun uudesta alan ihmisä kiinostavasta tuotteesta ripotella hiljakseen tietoa ja jättää tarinaan aukkoja. Saadaa keskustelua ja spekulointeja syntymään = ilmasta mainontaa. Toinen hyvä on kanssa, julkaistaan tuote alkuun kovalla hinnalla, sitten lasketaan julkaisun jälkeen x-ajan päästä hinta normaaliin kannattavan myynnin tai markkinatilanteen määrittelemään hinta tasoon = saadaan tuote hetkellisesti näyttämään joidenkin lasien läpi halvalta / tajoukselta = ilmaista mainontaa ja tuote myy. Ja miksi ei myös laittaa tulevalle lippulaivalle tälläisessä kilpailutilanteessa posketonta pyyntihintaa, kun tru nvidia fanit ostaa sen hinnalla millä hyvänsä ennakkoon. Tyhmähän ei ole se joka pyytää jne..
 
Liittynyt
17.10.2016
Viestejä
5 708
Onhan tuo nyt Nvidialta ihan megaluokan markkinointikämmi, kun itse ei suorituskyvystä sanota sanaakaan ja sitten ekat testitulokset näyttää siltä että kortti on ihan paska, ja siihen sitten vasta reagoidaan julkaisemalla vertailukelvottomia omia testituloksia (asetukset ei tiedossa jne.). Mutta tää nyt on lähinnä kuluttajille hyvä asia, laskee vähän kysyntää ja siten saattaa jopa nopeuttaa hintojen tippumista.

Oikeita testejä odotellessa, ei näihin valmistajien omiin oo ennenkään luotettu.
 
Liittynyt
01.11.2016
Viestejä
518
Onhan tuo nyt Nvidialta ihan megaluokan markkinointikämmi, kun itse ei suorituskyvystä sanota sanaakaan ja sitten ekat testitulokset näyttää siltä että kortti on ihan paska, ja siihen sitten vasta reagoidaan julkaisemalla vertailukelvottomia omia testituloksia (asetukset ei tiedossa jne.). Mutta tää nyt on lähinnä kuluttajille hyvä asia, laskee vähän kysyntää ja siten saattaa jopa nopeuttaa hintojen tippumista.

Oikeita testejä odotellessa, ei näihin valmistajien omiin oo ennenkään luotettu.
No ei välttämättä, jos haluaa saada ihmiset uskomaan että 1080 tai 1080ti on edelleen ostettava, saadaan varastoja tyhjiksi. Sitten jos se uusi tuote on hitti niin se myy kuitenkin hyvin eikä kiirettäkään ole kun ei ole kilpailijoita. Hintojahan ei ole mitään syytä tiputtaa.
 
Liittynyt
16.02.2017
Viestejä
560
Onhan tuo nyt Nvidialta ihan megaluokan markkinointikämmi, kun itse ei suorituskyvystä sanota sanaakaan ja sitten ekat testitulokset näyttää siltä että kortti on ihan paska, ja siihen sitten vasta reagoidaan julkaisemalla vertailukelvottomia omia testituloksia (asetukset ei tiedossa jne.). Mutta tää nyt on lähinnä kuluttajille hyvä asia, laskee vähän kysyntää ja siten saattaa jopa nopeuttaa hintojen tippumista.

Oikeita testejä odotellessa, ei näihin valmistajien omiin oo ennenkään luotettu.
No ei välttämättä, jos haluaa saada ihmiset uskomaan että 1080 tai 1080ti on edelleen ostettava, saadaan varastoja tyhjiksi. Sitten jos se uusi tuote on hitti niin se myy kuitenkin hyvin eikä kiirettäkään ole kun ei ole kilpailijoita. Hintojahan ei ole mitään syytä tiputtaa.
On syytä tiputtaa, ja olen 100% varma ettei siinä kauaa mene, ellei uusi kryptobuumi iske. Vanhoja ei enää valmisteta, eli eivät ne nyt kauhean pitkälle enää riitä. Näytönohjainten myynti on kovinta siellä halvemmassa päässä, eli Täytyy julkaista uusia malleja hiljalleen, tai laskea hintoja. Tässä toki vierähtää useampi kuukausi ja alkaa edullisimmasta päästä usein. 2080 ti on portfoliossa tuote, jolle ei ole mitään kilpailua, joten sen hintaan tuskin on tarvetta kajota, ellei myynti täysin alita odotuksia.

Kärjistettynä, korkeat hinnat saa porukan ostamaan vanhat pois, ja samalla ylimääräistä hilloa nvidian taskuun, kun hätähousut tilaavat kaikki mulle nyt heti periaatteella kumminkin, maksoi mitä vain. Vanhojen loputtua laskee näiden hinnat pakostakin.
 
Liittynyt
29.10.2016
Viestejä
4 071
Aika ovela tekniikka eli siis "oikeaa" 4k graffaa ei erota tästä ja fps on sama kuin pelaisi 1080 resolla?.Mikäs juttu toi on ettei monitorit/telkkarit ole "oikeita" 4k monitoreita/telkkareita?.
https://www.avsforum.com/forum/166-...-rgb-vs-rgbw-lcd-4k-ultra-hd-designation.html

liittyy rgb tekniikan muuttamiseen rgbw tekniikkaan kaksi pikseliä jää pois.
En ole perehtyny miten paljon tietokoneilla käytössä, mutta tulee yleistymään että tuotteet halpenee.
Faux-K: Make Sure Your Next 4K Laptop is Actually 4K

konsoleissahan on köyhänmiehen versio nvidian upskaalauksesta. Nvidia saattaa käyttää myös pakkausta ja skaalata vain liikkuvat kuvat.
Ei näitä voi verrata ja Nvidian pakkaus vaatii siis supertietokoneen.
 
Viimeksi muokattu:

demu

Conducător & Geniul din Carpați
Tukijäsen
Liittynyt
20.10.2016
Viestejä
4 399
https://www.avsforum.com/forum/166-...-rgb-vs-rgbw-lcd-4k-ultra-hd-designation.html

liittyy rgb tekniikan muuttamiseen rgbw tekniikkaan kaksi pikseliä jää pois.
En ole perehtyny miten paljon tietokoneilla käytössä, mutta tulee yleistymään että tuotteet halpenee.
Faux-K: Make Sure Your Next 4K Laptop is Actually 4K

konsoleissahan on köyhänmiehen versio nvidian upskaalauksesta. Nvidia saattaa käyttää myös pakkausta ja skaalata vain liikkuvat kuvat.
Ei näitä voi verrata ja Nvidian pakkaus vaatii siis supertietokoneen.
Ei noita RGBW-pikseleitä ole ollut kuin LG:n halpis-IPS-telkkareissa. Nyt LG:kin on uusissa halpismalleissa siirtynyt jo osin VA-paneeleihin.
 
Liittynyt
10.04.2017
Viestejä
84
https://www.avsforum.com/forum/166-...-rgb-vs-rgbw-lcd-4k-ultra-hd-designation.html

liittyy rgb tekniikan muuttamiseen rgbw tekniikkaan kaksi pikseliä jää pois.
En ole perehtyny miten paljon tietokoneilla käytössä, mutta tulee yleistymään että tuotteet halpenee.
Faux-K: Make Sure Your Next 4K Laptop is Actually 4K

konsoleissahan on köyhänmiehen versio nvidian upskaalauksesta. Nvidia saattaa käyttää myös pakkausta ja skaalata vain liikkuvat kuvat.
Ei näitä voi verrata ja Nvidian pakkaus vaatii siis supertietokoneen.
Huh-huh, tämähän menee jännittävämmäksi kuin mikään käsikirjoitettu draama. Salaliittoteoria siis on, että Nvidian 4K onkin oikeasti vain ylös skaalattua Full HD -kuvaa. Ja näyttöpaneelivalmistajien pikselioptimointi on osa tätä globaalia salaliittoa, millä Fortniten pelaajilta saadaan kaapattua puolitoista tonnia näyttispäivityksen yhteydessä ahneiden osakkeenomistajien nauraessa matkalla pankkiin.

Aikuisten oikeasti supersampling on ainakin tähän asti tarkoittanut sitä, että kuva renderöidään /isommalla/ resoluutiolla kuin millä se näytetään ja näitä ylimääräisiä pikseleitä käytetään anti aliasing -toteutukseen renderöityä tarkkuutta pienemmällä resoluutiolla näytettäväksi.

Jossain mainittiin, että DLSS:n detaljit ovat edelleen embargossa, joten emme voi olla varmoja mitä se loppujen lopuksi sisältää. Mutta olen jokseenkin varma, ettei kyse ole huijauksesta, millä pienemmästä resoluutiosta skaalataan isompiresoluutioista kuvaa. Pikemminkin uskon, että kyse on siitä, että raskas ylinäytteistys korvataan tensoriytimillä lasketulla inferenssillä tai pikemminkin arvauksilla/ennusteilla siitä, mitä aidosti supersämplätty kuva olisi. Ja tämä sitten annetaan syötteeksi AA-algoritmille.
 

demu

Conducător & Geniul din Carpați
Tukijäsen
Liittynyt
20.10.2016
Viestejä
4 399
Huh-huh, tämähän menee jännittävämmäksi kuin mikään käsikirjoitettu draama. Salaliittoteoria siis on, että Nvidian 4K onkin oikeasti vain ylös skaalattua Full HD -kuvaa. Ja näyttöpaneelivalmistajien pikselioptimointi on osa tätä globaalia salaliittoa, millä Fortniten pelaajilta saadaan kaapattua puolitoista tonnia näyttispäivityksen yhteydessä ahneiden osakkeenomistajien nauraessa matkalla pankkiin.

Aikuisten oikeasti supersampling on ainakin tähän asti tarkoittanut sitä, että kuva renderöidään /isommalla/ resoluutiolla kuin millä se näytetään ja näitä ylimääräisiä pikseleitä käytetään anti aliasing -toteutukseen renderöityä tarkkuutta pienemmällä resoluutiolla näytettäväksi.

Jossain mainittiin, että DLSS:n detaljit ovat edelleen embargossa, joten emme voi olla varmoja mitä se loppujen lopuksi sisältää. Mutta olen jokseenkin varma, ettei kyse ole huijauksesta, millä pienemmästä resoluutiosta skaalataan isompiresoluutioista kuvaa. Pikemminkin uskon, että kyse on siitä, että raskas ylinäytteistys korvataan tensoriytimillä lasketulla inferenssillä tai pikemminkin arvauksilla/ennusteilla siitä, mitä aidosti supersämplätty kuva olisi. Ja tämä sitten annetaan syötteeksi AA-algoritmille.
Ei tuo näyttöjen RGBW-fusku vaikuta millään tavalla tuohon näytölle piirrettävien pisteiden lukumäärään.
Näytönohjain piirtää 3840x2160 -resoluutiolla pisteitä, jotka näyttö mäppää sen jälkeen samalla resoluutiolla mutta alipikseleille RGB WRG BWR GBW RGB WRG BWR GBW...
Aidossa RGB-näytössä näyttö mäppää pikselit RGB RGB RGB RGB-matriisiin (tai joissakin paneeleissa BRG BGR BGR -matriisiin, joka on sekin aito RGB-matriisi mutta 'ylösalaisin käännettynä').
nVidian mahdolliset toimet ovat sitten kokonaan toinen luku.
 
Liittynyt
10.04.2017
Viestejä
84
Ei tuo näyttöjen RGBW-fusku vaikuta millään tavalla tuohon näytölle piirrettävien pisteiden lukumäärään.
Näytönohjain piirtää 3840x2160 -resoluutiolla pisteitä, jotka näyttö mäppää sen jälkeen samalla resoluutiolla mutta alipikseleille RGB WRG BWR GBW RGB WRG BWR GBW...
Aidossa RGB-näytössä näyttö mäppää pikselit RGB RGB RGB RGB-matriisiin (tai joissakin paneeleissa BRG BGR BGR -matriisiin, joka on sekin aito RGB-matriisi mutta 'ylösalaisin käännettynä').
nVidian mahdolliset toimet ovat sitten kokonaan toinen luku.
Nyt kun lainasit viestiäni kommentoimatta sen varsinaista asiasisältöä, lienee syytä korostaa, että postaukseni ensimmäinen kappale oli 100% kyynistä sarkasmia. Oletin, että sarkasmi olisi ollut sanavalintojen perusteella ilmeistä, mutta aina joutuu nöyrästi oppimaan, että sarkasmi on taitolaji, mihin ei kannata ryhtyä kevein perustein.
 
Liittynyt
14.12.2016
Viestejä
100
nVidialla taitaa edelleen olla aivan liikaa vanhoja kortteja, joten uusien korkealla hinnoittelulla pyrittäneen siihen, että ihmiset ostavat varastot tyhjäksi vanhoista korteista ilman erityisiä alennuksia, koska kannattavamman oloinen diili.
 
Liittynyt
19.10.2016
Viestejä
3 550
Näyttää kyllä nuo Nvidian omat testit ihan hyvältä. Toivon näiden korttien tuovan noiden vanhempien hintoja alas kummassakin leirissä.
Näistä huono vetää mitään johtopäätöksiä kun ei tiedä millä asetuksilla mikäkin peli ajettu esim. Bf1 menee mulla 4k ultralla aa off sen 90-120fps....
 
Liittynyt
20.10.2016
Viestejä
956
nVidialla taitaa edelleen olla aivan liikaa vanhoja kortteja, joten uusien korkealla hinnoittelulla pyrittäneen siihen, että ihmiset ostavat varastot tyhjäksi vanhoista korteista ilman erityisiä alennuksia, koska kannattavamman oloinen diili.
Niin, nämä RTX-kortit ei varmaan ollut tarkoituskaan täysin korvata nuo vanhat 10x0-kortit. Mutta luultavasti koittavat saada varastot aika tyhjäksi ennen kuin gtx2060 julkaistaan, ellei sekin sitten sopivasti mene johonkin 1070 ja 1080 välimaastoon, että joku gtx1080 kannattaa vielä pitää myynnissä.
 
Liittynyt
14.12.2016
Viestejä
2 768
Aika ovela tekniikka eli siis "oikeaa" 4k graffaa ei erota tästä ja fps on sama kuin pelaisi 1080 resolla?.Mikäs juttu toi on ettei monitorit/telkkarit ole "oikeita" 4k monitoreita/telkkareita?.
Sillä saisi tietysti nopeutta, jos todellakin lasketaa 1080p ja sitten rendattaisiin sama upscalella 4K tarkkuuteen... luulen että jopa 1070 on nopeampi 1080p resolla kuin Titan mallit 4k tarkkuudella... Mutta mielenkiintoista on nähdä mitä siellä on taas tehty, kunhan kolmannen osapuolten testejä saadaan ulos ilman reunanpehmennystä ja reunanpehmennyksen kanssa.
Mutta voittaahan tämä kyllä vähän siihen, että nopeutta ei ole tullut lisää jos ei ole reunan pehmennyt käytössä ja jos taas on niin voidaan saada varsin hillittömiä tuloksia.
Todellakin pitkästä aikaa kortti josta ei tiedä onko se lintu vai kala ennen ulkopuolisia testejä rehdään.
 
Liittynyt
14.12.2016
Viestejä
2 768
nVidialla taitaa edelleen olla aivan liikaa vanhoja kortteja, joten uusien korkealla hinnoittelulla pyrittäneen siihen, että ihmiset ostavat varastot tyhjäksi vanhoista korteista ilman erityisiä alennuksia, koska kannattavamman oloinen diili.
Niin, nämä RTX-kortit ei varmaan ollut tarkoituskaan täysin korvata nuo vanhat 10x0-kortit. Mutta luultavasti koittavat saada varastot aika tyhjäksi ennen kuin gtx2060 julkaistaan, ellei sekin sitten sopivasti mene johonkin 1070 ja 1080 välimaastoon, että joku gtx1080 kannattaa vielä pitää myynnissä.
2060 on mielenkiintoinen malli jos ja kun niistä on jätetty tensori ytimet pois, eli saattavat olla siten enemmän sukua nykyiselle 10xx sarjalle joillain päivityksillä. Eli ero 2080/2070 vs 2060 välillä kasvaa, ainakin siis uusilla peleillä. Vanhoilla dx11 peleillä ero pysynee samana kuin ennen.
Kyllähän tämä sukupolvi on mielenkiintoisempi kuin mikään pitkään aikaan. Itse toivon että xx60 saa tensorit ensi vuonna kun viivaleveys taas pienenee... muuten jäisi tämä uudistua aika ohueksi.
 
Liittynyt
17.10.2016
Viestejä
162
https://www.avsforum.com/forum/166-...-rgb-vs-rgbw-lcd-4k-ultra-hd-designation.html

liittyy rgb tekniikan muuttamiseen rgbw tekniikkaan kaksi pikseliä jää pois.
En ole perehtyny miten paljon tietokoneilla käytössä, mutta tulee yleistymään että tuotteet halpenee.
Faux-K: Make Sure Your Next 4K Laptop is Actually 4K

konsoleissahan on köyhänmiehen versio nvidian upskaalauksesta. Nvidia saattaa käyttää myös pakkausta ja skaalata vain liikkuvat kuvat.
Ei näitä voi verrata ja Nvidian pakkaus vaatii siis supertietokoneen.
Huh-huh, tämähän menee jännittävämmäksi kuin mikään käsikirjoitettu draama. Salaliittoteoria siis on, että Nvidian 4K onkin oikeasti vain ylös skaalattua Full HD -kuvaa. Ja näyttöpaneelivalmistajien pikselioptimointi on osa tätä globaalia salaliittoa, millä Fortniten pelaajilta saadaan kaapattua puolitoista tonnia näyttispäivityksen yhteydessä ahneiden osakkeenomistajien nauraessa matkalla pankkiin.

Aikuisten oikeasti supersampling on ainakin tähän asti tarkoittanut sitä, että kuva renderöidään /isommalla/ resoluutiolla kuin millä se näytetään ja näitä ylimääräisiä pikseleitä käytetään anti aliasing -toteutukseen renderöityä tarkkuutta pienemmällä resoluutiolla näytettäväksi.

Jossain mainittiin, että DLSS:n detaljit ovat edelleen embargossa, joten emme voi olla varmoja mitä se loppujen lopuksi sisältää. Mutta olen jokseenkin varma, ettei kyse ole huijauksesta, millä pienemmästä resoluutiosta skaalataan isompiresoluutioista kuvaa. Pikemminkin uskon, että kyse on siitä, että raskas ylinäytteistys korvataan tensoriytimillä lasketulla inferenssillä tai pikemminkin arvauksilla/ennusteilla siitä, mitä aidosti supersämplätty kuva olisi. Ja tämä sitten annetaan syötteeksi AA-algoritmille.
Tarkoitus on varmaankin upskaalata raytrace pelejä, koska ne eivät pyörisi 4k resoluutiolla muuten. Raytracing skaalautuu lineaarisesti eli 4k olisi neljä kertaa hitaampi kuin 2k. Jos siis 1080p raytrace peli pyörisi 60fps, ilman DLSS:ää se pyörisi 15fps 4k resoluutiolla. DLSS ratkaisee tämän ongelman. Non-raytrace pelit sitten pyörivät normaalisti 4k resoluutiolla sen 100fps 2080ti kortilla.
 
Liittynyt
23.10.2016
Viestejä
1 248
Tarkoitus on varmaankin upskaalata raytrace pelejä, koska ne eivät pyörisi 4k resoluutiolla muuten. Raytracing skaalautuu lineaarisesti eli 4k olisi neljä kertaa hitaampi kuin 2k. Jos siis 1080p raytrace peli pyörisi 60fps, ilman DLSS:ää se pyörisi 15fps 4k resoluutiolla. DLSS ratkaisee tämän ongelman. Non-raytrace pelit sitten pyörivät normaalisti 4k resoluutiolla sen 100fps 2080ti kortilla.
Paitsi että Nvidian julkaisemassa pelilistassa DLSS on käytössä monissa peleissä, joihin ei ole tulossa raytracing-tukea. Itse asiassa listassa on 22 peliä, joista vain neljässä on sekä raytracing että DLSS käytössä.
Eikä tuo suorituskyvyn skaalautuminen ole noin selvä asia, kun mitään näitä pelejä ei renderöidä pelkästään raytracingia käyttäen. Se on ihan liian hidasta. Pelit renderöidään edelleen ihan normaalisti, ja raytracingia käytetään vain joidenkin tiettyjen asioiden, kuten heijastusten, laskemiseen.
 

aop

Liittynyt
17.10.2016
Viestejä
1 373
nVidialla taitaa edelleen olla aivan liikaa vanhoja kortteja, joten uusien korkealla hinnoittelulla pyrittäneen siihen, että ihmiset ostavat varastot tyhjäksi vanhoista korteista ilman erityisiä alennuksia, koska kannattavamman oloinen diili.
Turing-sarjan näyttisten valmistaminen maksaa selkeästi enemmän kuin Pascaleiden, koska piirit ovat selvästi isompia (314mm^2 GP104 vs ~500mm^2 TU104), TSMC "12nm" prosessi tuskin on 16nm prosessia halvempi ja GDDR6 muistit maksavat enemmän kuin GDDR5 (en ole varma maksaako enemmän kuin GDDR5X).

Veikkaan, että NVIDIA olisi tehnyt korteilla voittoa vaikka olisivat myyneet samaan hintaan kuin GTX10x0 sarjaa launchissa, mutta näillä hinnoilla tekevät enemmän voittoa, jos vaan asiakkaille kelpaa. Toki NVIDIA:lla on nyt riskinä, että AMD:n 7nm GPUt eivät ole täyttä roskaa ja AMD pystyy myymään selvästi halvemmalla korttia, joka pieksee ilman säteenseurantaefektejä NVIDIA:n kortit suunnilleen kaikissa peleissä.

Itseäni ihmetyttää, miksi NVIDIA on päättänyt pultata nuo tensori- ja RT-ytimet pelikortteihin juuri nyt, kun TSMC 12nm ei tarjoa 16nm prosessiin verrattuna tiheysparannuksia ja 99% peleistä nuo tensori- ja RT-ytimet eivät tee yhtään mitään, eli asiakas maksaa tyhjästä. Yli 2 vuotta Pascalin launchista ja fps/$ suhde vain jatkaa huononemistaan. Luulisin, ettei tämä säteenseurantajuttu ota kunnolla tuulta alleen, koska se on hinnoiteltu tavallisen kuluttajan ulottumattomiin. Toinen ongelma tulee valmistusprosesseista, onko edes tuo TSMC 7nm niin tiheä, että kuluttajaluokan ytimeen saa mahtumaan tarpeeksi RT-rautaa, jotta sitä käyttävät pelit pyörisivät sen 60fps keskiluokan korteilla vai jäävätkö RT-efektit noiden 1000€+ korttien omistajien iloksi?
 
Liittynyt
17.10.2016
Viestejä
5 708
Veikkaan, että NVIDIA olisi tehnyt korteilla voittoa vaikka olisivat myyneet samaan hintaan kuin GTX10x0 sarjaa launchissa, mutta näillä hinnoilla tekevät enemmän voittoa, jos vaan asiakkaille kelpaa. Toki NVIDIA:lla on nyt riskinä, että AMD:n 7nm GPUt eivät ole täyttä roskaa ja AMD pystyy myymään selvästi halvemmalla korttia, joka pieksee ilman säteenseurantaefektejä NVIDIA:n kortit suunnilleen kaikissa peleissä.
Siinä vaiheessa Nvidian on erittäin helppoa vastata laskemalla korttien hintoja. Tyhmäähän se olisi olla ottamatta rahat pois niiltä jotka on sen valmiita maksamaan tässä vaiheessa, ja varautua hinnoittelulla ennakkoon jotain hypoteettista kilpailutilannetta vastaan.

Itseäni ihmetyttää, miksi NVIDIA on päättänyt pultata nuo tensori- ja RT-ytimet pelikortteihin juuri nyt, kun TSMC 12nm ei tarjoa 16nm prosessiin verrattuna tiheysparannuksia ja 99% peleistä nuo tensori- ja RT-ytimet eivät tee yhtään mitään, eli asiakas maksaa tyhjästä. Yli 2 vuotta Pascalin launchista ja fps/$ suhde vain jatkaa huononemistaan. Luulisin, ettei tämä säteenseurantajuttu ota kunnolla tuulta alleen, koska se on hinnoiteltu tavallisen kuluttajan ulottumattomiin. Toinen ongelma tulee valmistusprosesseista, onko edes tuo TSMC 7nm niin tiheä, että kuluttajaluokan ytimeen saa mahtumaan tarpeeksi RT-rautaa, jotta sitä käyttävät pelit pyörisivät sen 60fps keskiluokan korteilla vai jäävätkö RT-efektit noiden 1000€+ korttien omistajien iloksi?
Toisaalta, AMD on kanveesissa näytönohjainpuolella, jolloin on enemmän tilaa tehdä tällaisia vähän erilaisempiakin ratkaisuja, kun kilpailutilanne ei pakota välittömästi kisaamaan niistä maksimi FPS:istä jne. Samalla jos säteenseuranta lyö itsensä läpi, on Nvidia reippaasti kilpailijoita edellä tuossa puuhassa.
 
Toggle Sidebar

Uusimmat viestit

Statistiikka

Viestiketjut
239 576
Viestejä
4 191 287
Jäsenet
70 771
Uusin jäsen
jeppemiess

Hinta.fi

Ylös Bottom