NVIDIA-spekulaatioketju (Lovelace ja tulevat sukupolvet)

Onko tuo varmistunut että se on upscale kuten heti alkujaan epäilin että olisi vai onko edelleen mutuilua? Olen tätä tekniikkaa suht mielenkiinnolla seurannut ja jossain vaiheessa jo herättelin toiveita että se ei olisi upscale vaan jotain oikeasti kivaa.

Perjantaina paljastuvat Turing-arkkitehtuurin salat :geek:
 
Putkijuoksuissa toimii varmasti, koska peliä voidaan opettaa oletettaviin katselusuuntiin. Mutta peleissä joissa on muista pelaajista riippuvaa toimintaa ja hajoavaa kenttää, niin miten voidaan luotettavasti ennustaa tapahtumat ennakkoon?
Toinen pelaaja rikkoo tarkoituksella rakennusta, että vihollinen ei näe häntä; mutta viholliselle ei piirretäkkään juuri sillä hetkellä sitä rakennuksesta nousevaa savua, koska DLSS ei osannut ennakoida tätä tilannetta?
Huomannut vaikka pubg:ssa, että silmä tarttuu parin pikselin liikkeeseen normaalin näkökentän reunalla, mutta jos näyttis päättää että tämä liike ei ollutkaan tarkoituksen mukaista näyttää pelaajalle, koska se ei ole ruudun keskialueella, jota pejaaja yleisimmin katsoo?
 
Putkijuoksuissa toimii varmasti, koska peliä voidaan opettaa oletettaviin katselusuuntiin. Mutta peleissä joissa on muista pelaajista riippuvaa toimintaa ja hajoavaa kenttää, niin miten voidaan luotettavasti ennustaa tapahtumat ennakkoon?
Miten niin ennakkoon? Kysehän on siitä, että parannetaan olemassaolevaa kuvaa.
 
Toinen pelaaja rikkoo tarkoituksella rakennusta, että vihollinen ei näe häntä; mutta viholliselle ei piirretäkkään juuri sillä hetkellä sitä rakennuksesta nousevaa savua, koska DLSS ei osannut ennakoida tätä tilannetta?
DLSS:n toimintaperiaate ei ole vielä selvillä, mutta tuskin se kaikesta ruudulla näkyvästä on vastuussa :D Veikkaan kuitenkin, että DLSS (Deep Learning Super Sampling) liittyy supersämplinkiin :vihellys:
 
Kyllä.

Ja pahana ongelmana tosiaan on se, että kuvasta puuttuu yksityiskohtia joita siellä pitäisi olla, ja toisaalta kuvaan ilmestyy yksityiskohtia, joita siellä ei pitäisi olla.

Jos DLSS:n output olisi videon ProGanSR-menetelmää vastaavalla tasolla, useimmat meistä ottaisivat sen luultavasti riemulla vastaan, vaikka kuvassa olisikin jonkin verran ylimääräisiä tai puuttuvia yksityiskohtia. Eli pahojen ongelmien pitäisi olla todella pahoja, ennenkuin niistä jaksaisi kukaan välittää. Neuroverkon satunnaisilla (virhe)hallusinaatioilla saattaisi olla ihan viihdearvoakin. Tämä siis pelikäytössä.
 
Mistäs tietotoimistosta nämä luvut on revitty vai tuliko ne ihan omasta alumiinipiposta?
Ihan olemassa olevista faktoista. Yksinkertaista matematiikkaa katsos...

Jos 1080 saa hommassa X > 100, ja 1080Ti on 30-40% tehokkaampi...Niin arvaappas paljon sillä irtoaa?

Olisko 130-140fps?

Sitten taas 2080 (nVidian diojen mukaan) on 80-120% nopeampi kuin 1080 kun käytössä RTX ytimien mahdollistama DLSS versus MSAA tjsp. @4K.

Joten 100 > tekee 180-220. Oliko vaikeaa???

Ja sitten taas 2080Ti on 30-40% nopeampi kuin 2080.

min. 180+30%=234
min. 180+40%=252 (ja oletettavasti Ti on nopeampi RTX-ytimiä käytettäessä koska niitä suhteessa enemmän).

max. 220+30%=286
max. 220+40%=308

Eli esimerkissäni 2080 > 2080Ti nousevat siitä 180-220fps > 234-308fps. Laskelmassa jossa GTX1080 jaksaa sillä MSAA tjsp. olevalla AA:lla vain 100fps.

Ottakaa huomioon ettei DLSS:ssä mene laskenta tehoa Shadereilta kuvan parantamiseen, eli sama kuin olisi AA Off. Ja se KYLLÄ vaikuttaa 4K resolla todella paljon @GTX.

RTX:lla kaiken muun tehonlisäyksen (suorituskykyisemmät Shaderit=Cuda ytimet, GDDR6, arkkitehtuurimuutos jne..) lisäksi kaiken ko. homman laskee noi uudet Tensor Ytimet.

Yksi tyyppi pelasi BF5@DLSS @4K (detaileista ei tietoa) niin FPS oli 110-195. Keskimäärin 130-140fps. 4K:na.

DLSS:hän on aliresoluutiolla rendausta niin tokihan se antaa puhtia. jos 4k näytölle ajat 1080p + tekoälytarkennus vs puhdas 4k niin pöljäkin tajuaa että sillä saa lisää kuvia näytölle.
Onko tuo varmistunut että se on upscale kuten heti alkujaan epäilin että olisi vai onko edelleen mutuilua? Olen tätä tekniikkaa suht mielenkiinnolla seurannut ja jossain vaiheessa jo herättelin toiveita että se ei olisi upscale vaan jotain oikeasti kivaa.

Parikin tyyppiähän sanoi jo RTX:n julkkarin aikoihin eli yli 3 viikkoa sitten että kuva näytti DLSS:lla aivan samannäköiseltä kuin vieressä pyörinyt BF5 ilman RTX-kikkareita ja nykyisellä AA:lla.
FPS erot olivat vain noin 2x eli 200% suuremmat Turingin DLSS kortilla.
 
Jaa, Epicin demosta on taas kommentoitu ettei DLSS yltänyt TAA:n tasolle kuvanlaadussa.
Teet myös villin oletuksen verrokeissa olevasta MSAA:sta vaikka se voi olla yhtä hyvin vaikka SSAA mikä selittäisi hyvin nopeasti suuren eron suorituskyvyssä.
 
Ihan olemassa olevista faktoista. Yksinkertaista matematiikkaa katsos...

Nuo "laskelmat" ei perustu tasan mihinkään faktoihin, vaan koko viesti on täynnä pelkkiä olettamia ja spekulointia. En ymmärrä miksi pitää tänne hatusta keksittyjä "bechmarkkeja" postailla faktatietona :confused:
Noiden korttien todellista suorituskykyä ei edelleenkään tiedä kukaan.
 
Nuo "laskelmat" ei perustu tasan mihinkään faktoihin, vaan koko viesti on täynnä pelkkiä olettamia ja spekulointia. En ymmärrä miksi pitää tänne hatusta keksittyjä "bechmarkkeja" postailla faktatietona :confused:
Noiden korttien todellista suorituskykyä ei edelleenkään tiedä kukaan.

Tämä on spekulaatioketju, ja koko ketju on sen mukaisesti täynnä pelkkiä olettamia ja spekulointia. Tuolla on toinen ketju ei-spekuloinneille:
NVIDIA GeForce RTX 2070 / 2080 / 2080 Ti -ketju (TU102, TU104)

(Ei siis sillä ettäkö pitäisin noita lukemia/laskutapaa millään tapaa järkevänä itsekään.)
 
Yksi tyyppi pelasi BF5@DLSS @4K (detaileista ei tietoa) niin FPS oli 110-195. Keskimäärin 130-140fps. 4K:na.

Miten se yksi tyyppi on voinut pelata kun ajureita ei ole julkaistu kuin harvoille valituille saatikka korttia?

Ja nuo sinun laskelmasi perustuu joihinkin dioihin joissa nvidia sanoo niin, asetuksista ei ole mitään tietoa että mitä on käytetty.
Lisäksi jos se DLSS on upscale niin se ei todellakaan ole sama kuin natiivi 4K ja sen tuottamassa kuvassa voi hyvinkin olla sellasita mitä siellä kuvassa ei pitäisi olla taikka päinvastoin.
 
Tälläi menee suorituskyky pelien keskiarvoista.
taulukko optimisteille :)

Rtx2080Ti = 150%
Rtx2080 = 120%
Gtx1080Ti = 100%
Rtx2070 = 95%


Tässä vielä toinen taulukko kaikille pessimisteille ;)
Rtx2080Ti = 140%
Rtx2080 = 105%
Gtx1080Ti = 100%
Rtx2070 = 80%
 
Viimeksi muokattu:
Tälläi menee suorituskyky pelien keskiarvoista.
taulukko optimisteille :)

Rtx2080Ti = 150%
Rtx2080 = 120%
Gtx1080Ti = 100%
Rtx2070 = 95%


Tässä vielä toinen taulukko kaikille pessimisteille ;)
Rtx2080Ti = 140%
Rtx2080 = 105%
Gtx1080Ti = 100%
Rtx2070 = 80%
Tuo pessimistikin on hieman optimistinen joissain kohdin. ;)

Ihan olemassa olevista faktoista. Yksinkertaista matematiikkaa katsos...
Sinun faktoille suosittelen tarkistusta:
 
Ennakkotilaus peruttu, päätin sittenkin skipata tän sukupolven - lähinnä sen vuoksi, että oma gtx 1080 on vielä aika tuore ja pelaan 1440p - en usko ray tracingin tuovan tarpeeksi lisäarvoa omaan pelikokemukseen vielä tässä korttisukupolvessa.
 
Ennakkotilaus peruttu, päätin sittenkin skipata tän sukupolven - lähinnä sen vuoksi, että oma gtx 1080 on vielä aika tuore ja pelaan 1440p - en usko ray tracingin tuovan tarpeeksi lisäarvoa omaan pelikokemukseen vielä tässä korttisukupolvessa.
Eihän sen nyt mikään "joko ennakkoon tai ei sitten ollenkaan"-asetelma tarvitse olla. Voihan ne ostohousut myöhemminkin vetää jalkaan, jos siltä tuntuu (ja näyttää).

Kyllä ite ainakin mielenkiinnolla odotan ne revikat ja mieluusti useammankin valmistajan (ei refu) mallit.
 
Jaa, Epicin demosta on taas kommentoitu ettei DLSS yltänyt TAA:n tasolle kuvanlaadussa.
Teet myös villin oletuksen verrokeissa olevasta MSAA:sta vaikka se voi olla yhtä hyvin vaikka SSAA mikä selittäisi hyvin nopeasti suuren eron suorituskyvyssä.
Tottakai jos vertaa SuperSamplingiin niin ko. spekulatiot voi unohtaa koska em. on paljon raskaampaa eikä sitä voittanutta ole.

Toistin vain sitä mitä silminnäkijät ovat laukoneet pihalle (eli että DLSS vastaisi about TAA:ta kuvanlaadullisesti).
 
Tässä vielä toinen taulukko kaikille pessimisteille ;)
Rtx2080Ti = 140%
Rtx2080 = 105%
Gtx1080Ti = 100%
Rtx2070 = 80%

Eli GTX1080 on jos jossain historiassa, joka oli esimerkeissäni vrt.1080 vs 2080... Siihen DLSS niin erot olisivat kuten sanoin. "2X". Pitänyt sotkea vielä enemmän spekuloitu peruna, 2070.

Tuo pessimistikin on hieman optimistinen joissain kohdin. ;)


Sinun faktoille suosittelen tarkistusta:

Mene kouluun noob tarkistamaan omia faktoja. Tossahan juuri näkyy että 2080 vs 1080 erot @4K on Tensor-ytimimien (DSLL) takia juuri sanomani +80-120% Turingille!!!

1080 arvo on 1x, ja 2080 DLSS 1.8-2.2x = +180-220%. Vai pitääkö taas tuoda jollekkin rautalankaa kun eivät ymmärrä kaavioita kuten ala-aste ikäistenkin pitäisi.
 
Eli GTX1080 on jos jossain historiassa, joka oli esimerkeissäni vrt.1080 vs 2080... Siihen DLSS niin erot olisivat kuten sanoin. "2X". Pitänyt sotkea vielä enemmän spekuloitu peruna, 2070.

Nyt en ymmärtänyt :rolleyes:

Ja mitä noihin kaavioihin tulee niin niitä ei kannata lukea kuin raamattua, todelliset revikat sitten näyttää miten toimii ja kuinka nopeasti.
 
Ennakkotilaus peruttu, päätin sittenkin skipata tän sukupolven - lähinnä sen vuoksi, että oma gtx 1080 on vielä aika tuore ja pelaan 1440p - en usko ray tracingin tuovan tarpeeksi lisäarvoa omaan pelikokemukseen vielä tässä korttisukupolvessa.

Olishan sitä kannattanut ehkä pitää tilaus edes revikoihin asti niin tietäis mitä sielä tulee tai on tulematta.
Toki 1080 riittää tuolle 1440p lle varsin hyvin.
 
Nyt vaikuttaa kyllä siltä, että tulee skipattua tämä sukupolvi -kiitos iRacingin vanhan pelimoottorin, joka ei tue edelleenkään kuin kahta prosessorin ydintä, eli CPU-riippuvainen varsinkin VR-käytössä jolla tuota ajelen. Tieten jos kohta ilmestyvän Assetto Corsa Competizionen VR-versio hyötyy valtavasti näistä uusista RTX-korteista ja on muutenkin asiallinen simu, niin pistää harkitsemaan...
 
Mene kouluun noob tarkistamaan omia faktoja. Tossahan juuri näkyy että 2080 vs 1080 erot @4K on Tensor-ytimimien (DSLL) takia juuri sanomani +80-120% Turingille!!!

Niin ja ohitat kokonaan sen faktan kuinka tuo on saavutettu. Siihen on syynsä miksi nvidia on tuohon valinnut juurikin 1080 vs 2080 eikä 1080Ti vs 2080Ti ja se syy on että 1080 tukehtuu muistikaistaan 4K resolla ja tukehtuu vielä lisää HDR matskulla.
 
Niin ja ohitat kokonaan sen faktan kuinka tuo on saavutettu. Siihen on syynsä miksi nvidia on tuohon valinnut juurikin 1080 vs 2080 eikä 1080Ti vs 2080Ti ja se syy on että 1080 tukehtuu muistikaistaan 4K resolla ja tukehtuu vielä lisää HDR matskulla.
Tulos on saavutettu vertaamalla 1080 ja 2080 ohjaimia toisiinsa samoissa Nvidian valitsemissa tilanteissa. Tuloksen pitäisi kaiketi olla olennaisin asia. Tuon tarkempia tuloksia ei ole olemassa, joten niihin on tyytyminen. Jotain positiivista noikin prosenttiluvut kertonevat, toinen tuote tukehtuu ja toinen ilmeisesti ei.
Tietysti jotkut voivat nähdä asian niin, että vertailussa on esimerkiksi ikään kuin huijattu tai testattu väärillä asetuksilla, koska 1080 ei tue DLSS:ää ja 4K resoluution tilalle olisi voinut valita vaikka hd:n tai full hd:n. Prosessoriksi joku alkukantainen Pentium niin saataisiin tasaväkiset palkit. Totta kai Nvidia markkinoi uutta tuotetta parhaalla mahdollisella tavalla, mutta en näe että esitetyt palkit olisivat miltään osin vääriä.
 
Tulos on saavutettu vertaamalla 1080 ja 2080 ohjaimia toisiinsa samoissa Nvidian valitsemissa tilanteissa. Tuloksen pitäisi kaiketi olla olennaisin asia. Tuon tarkempia tuloksia ei ole olemassa, joten niihin on tyytyminen. Jotain positiivista noikin prosenttiluvut kertonevat, toinen tuote tukehtuu ja toinen ilmeisesti ei.
Tietysti jotkut voivat nähdä asian niin, että vertailussa on esimerkiksi ikään kuin huijattu tai testattu väärillä asetuksilla, koska 1080 ei tue DLSS:ää ja 4K resoluution tilalle olisi voinut valita vaikka hd:n tai full hd:n. Prosessoriksi joku alkukantainen Pentium niin saataisiin tasaväkiset palkit. Totta kai Nvidia markkinoi uutta tuotetta parhaalla mahdollisella tavalla, mutta en näe että esitetyt palkit olisivat miltään osin vääriä.

DLSS itsessään on kuvanlaatuhuijaus.

Se että verrataan tilannetta jossa toisessa on DLSS päällä ja toisessa ei, ei ole mikään "samassa tilanteessa vertailu", eikä se kerro juuri mitään piirien nopeuserosta oikeasti samassa tilanteessa.

Että jospa odoteltaisiin niitä reviewejä, joissa myös

1) Tehdään kunnollinen vertailu piirien välillä siten että DLSS ei ole sotkemassa
2) Analysoidaan kunnolla DLSSn vaikutus kuvanlaatuun.

Sen sijaan että postaillaan noita nykyisiä kuvanlaatuhuijaukseen perustuvia propagandalukuja ympäriinsä.
 
Tulos on saavutettu vertaamalla 1080 ja 2080 ohjaimia toisiinsa samoissa Nvidian valitsemissa tilanteissa. Tuloksen pitäisi kaiketi olla olennaisin asia. Tuon tarkempia tuloksia ei ole olemassa, joten niihin on tyytyminen. Jotain positiivista noikin prosenttiluvut kertonevat, toinen tuote tukehtuu ja toinen ilmeisesti ei.
Tietysti jotkut voivat nähdä asian niin, että vertailussa on esimerkiksi ikään kuin huijattu tai testattu väärillä asetuksilla, koska 1080 ei tue DLSS:ää ja 4K resoluution tilalle olisi voinut valita vaikka hd:n tai full hd:n. Prosessoriksi joku alkukantainen Pentium niin saataisiin tasaväkiset palkit. Totta kai Nvidia markkinoi uutta tuotetta parhaalla mahdollisella tavalla, mutta en näe että esitetyt palkit olisivat miltään osin vääriä.
Tuo on varmana jossain tilanteessa oikein kuvaava ero 1080 vs 2080. Toisaalta jos spekuloidaan, niin hintojen puolesta voisi olla 1080Ti vs 2080 kun edustavat edes jotenkin samaa hintaluokkaa, joskin 1080Ti taitaa olla edullisempi. Toki tämä oli nVidian vertailu ja siellä ei tietenkään haluta korostaa tuota hintojen nousua.

Ray tracingia käytettynä ero toisaalta olisi varmana vielä isompi.
 
Jotain positiivista noikin prosenttiluvut kertonevat, toinen tuote tukehtuu ja toinen ilmeisesti ei.

No jos 2080 on muistikaistaltaan hyvin lähellä 1080Ti:tä ja 1080Ti ei tukehu muistikaistaan niin voidaan tehdä melko huoletta johtopäätös että 2080 myös se muistikaista riittää eikä samanlaista tukehtumista tapahdu kuten 1080 tapahtuu.
Lisäksi toi Wolfenstein ero tuossa selittyy sillä että se tukee FP16 jota 1080 ei tue ja 2080 tukee.

Eli mikäli nvidia olisi saman dian tehnyt 1080Ti vs 2080Ti niin tuollaisia lukemia ei olisi saatu koska 1080Ti:ssä on riittävästi muistikaistaa pyörittämään 4K resoa tukehtumatta vaikka sekin toki hiukan kärsii HDR matskulla penaltyä niin se ei ole lähellekkään niin suuri kuin 1080.
 
Harminlista että verrataan Ti korttia Ti korttiin, ja ei-Ti korttia ei-Ti korttiin. Perinjuurin harminlista :tdown:
 
Yksi tyyppi pelasi BF5@DLSS @4K (detaileista ei tietoa) niin FPS oli 110-195. Keskimäärin 130-140fps. 4K:na.

Miten voi pelata BFV DLSS päällä kun koko peli ei tue sitä sitä NVIDIA RTX Platform Brings Real-Time Ray Tracing and AI to Barrage of Blockbuster Games (lista peleistä missä tuki Ray Trace / DLSS)

Itse otan DLSS mieluumin kun hidas Ray Trace mihin tahansa pelaamaani peliin. Onneks tulee ees PUBG. Jos kuvan laatu paranee todella hyväksi niin itselle on ihan sama luoko sen AI jollain uuber algoritmilla vai upsamplataanko se jostain alaresoisista näytteistä. No tämä nähdään pian mikä on tekniikka tässä takana.
 
Viimeksi muokattu:
Miten voi pelata BFV DLSS päällä kun koko peli ei tue sitä sitä NVIDIA RTX Platform Brings Real-Time Ray Tracing and AI to Barrage of Blockbuster Games (lista peleistä missä tuki Ray Trace / DLSS)

Itse otan DLSS mieluumin kun hidas Ray Trace mihin tahansa pelaamaani peliin. Onneks tulee ees PUBG. Jos kuvan laatu paranee todella hyväksi niin itselle on ihan sama luoko sen AI jollain uuber algoritmilla vai upsamplataanko se jostain alaresoisista näytteistä. No tämä nähdään pian mikä on tekniikka tässä takana.
Ei tullut itselle edes mieleen tarkistaa tukeeko ko. peli sitä, tiesin vain ettei Epicin Infiltrator-demossa vastaa TAA-laatua useamman lähteen mukaan :tup:
 
No jos 2080 on muistikaistaltaan hyvin lähellä 1080Ti:tä ja 1080Ti ei tukehu muistikaistaan niin voidaan tehdä melko huoletta johtopäätös että 2080 myös se muistikaista riittää eikä samanlaista tukehtumista tapahdu kuten 1080 tapahtuu.
Lisäksi toi Wolfenstein ero tuossa selittyy sillä että se tukee FP16 jota 1080 ei tue ja 2080 tukee.

Eli mikäli nvidia olisi saman dian tehnyt 1080Ti vs 2080Ti niin tuollaisia lukemia ei olisi saatu koska 1080Ti:ssä on riittävästi muistikaistaa pyörittämään 4K resoa tukehtumatta vaikka sekin toki hiukan kärsii HDR matskulla penaltyä niin se ei ole lähellekkään niin suuri kuin 1080.


Rtx2080Ti on selkeästi enempi cuda ytimiä kuin Gtx1080Ti
Joka tarkoittaa että eroa tulee aivan varmasti 4K lla ihan yhtälailla.
Ei se pelkkä muistiväylä määritä 4K nopeutta vaikka sekin on 2080Ti isompi. 616 vs 484

Ytimissä kuitenki selvä ero.
Gtx1080Ti
Cuda 3584

Rtx2080Ti
Cuda 4352
 
Kauppa käyny kun Jimmsillä ei kuulemma riitä kaikille tilaajille ensimmäisestä erästä. Pitäisköhän sittenkin pistää ennakkotilaten, varmaan jostain Gigantista pääsis vielä apajille. Tosin tuosta 2080ti ei ole edes Strixiä vielä tilattavissa. Harmittais vaihtaa mallia kun useamman generaation mennyt Strixillä (ja sitä ennen DirectCU:lla...)
 
Kauppa käyny kun Jimmsillä ei kuulemma riitä kaikille tilaajille ensimmäisestä erästä. Pitäisköhän sittenkin pistää ennakkotilaten, varmaan jostain Gigantista pääsis vielä apajille. Tosin tuosta 2080ti ei ole edes Strixiä vielä tilattavissa. Harmittais vaihtaa mallia kun useamman generaation mennyt Strixillä (ja sitä ennen DirectCU:lla...)
2080 Ti Strixiä ei ole edes esitelty vielä.
 

:tup:

gputweak-hero.jpg


Aika hyviä kelloja ja lämpöjä lupailee tuolla sivulla. Jytky tulossa. :cigar:
 
Kauppa käyny kun Jimmsillä ei kuulemma riitä kaikille tilaajille ensimmäisestä erästä. Pitäisköhän sittenkin pistää ennakkotilaten, varmaan jostain Gigantista pääsis vielä apajille. Tosin tuosta 2080ti ei ole edes Strixiä vielä tilattavissa. Harmittais vaihtaa mallia kun useamman generaation mennyt Strixillä (ja sitä ennen DirectCU:lla...)

Joo apajille Gigantista ku itellekki tulee vast 27.9 eli en sittenkään ekojen joukossa saanu 20.9 jos niitä nyt edes Giganttiin tulikaan 20pv. Mut ilma muuta tilausta vetämään :)
 
DLSS itsessään on kuvanlaatuhuijaus.

Se että verrataan tilannetta jossa toisessa on DLSS päällä ja toisessa ei, ei ole mikään "samassa tilanteessa vertailu", eikä se kerro juuri mitään piirien nopeuserosta oikeasti samassa tilanteessa.

Että jospa odoteltaisiin niitä reviewejä, joissa myös

1) Tehdään kunnollinen vertailu piirien välillä siten että DLSS ei ole sotkemassa
2) Analysoidaan kunnolla DLSSn vaikutus kuvanlaatuun.

Sen sijaan että postaillaan noita nykyisiä kuvanlaatuhuijaukseen perustuvia propagandalukuja ympäriinsä.

Ensinnäkin Nvidia ilmoitti 2080:n palkit sekä ilman DLSS että DLSS päällä. Näin ollen vertailu on tehty tasapuolisesti. Toiseksi tarkoitin huijauksella sitä, että Nvidia olisi esimerkiksi väittänyt nopeuslisäksi 60%, kun oikeasti samoilla asetuksilla ja samalla sovelluksella nopeuslisä olisikin vain 30%. Tällöin voitaisiin puhua huijaamisesta. DLSS on samantapainen "huijaus" kuin kaikkien pelien funktio on: kaikki grafiikka on keinotekoisesti luotua, huijausta. Sillä ei kuitenkaan ole mitään käytännöllistä väliä, koska jos sovelluksen grafiikka näyttää tarpeeksi realistiselta ja tarina tuntuu hyvältä, ei "huijaamisesta" ole mitään haittaa. Samaten DLSS:n "huijaaminen" on aivan yksi lysti, mikäli näyttöön piirtyy grafiikkaa, joka on laadullisesti riittävän lähellä ilman DLSS:ää.
Ainakin itse olisin tyytyväinen, että saadaan mitä ilmeisimmin lukuisten kymmenien prosenttien tehoboosti "normaalin" nopeuskasvun lisäksi. Ilmeisesti tämäkin halutaan jollain tavalla saada negatiiviseksi, koska "ei ole täysin samat pikselit". Mitään sellaista ei ole osoitettu, ettei tehohyppäys olisi merkittävä, vaan päinvastoin. Myöskään ei ole esitetty mitään sellaista, että DLSS olisi esimerkiksi käyttökelvoton.
Revieweitä kannattaa ehdottomasti odottaa, se ei poista sitä mitä edellä sanoin. Siinä mielessä ihmettelen negatiivista suhtautumista, koska ei siis ole ainakaan vielä esitetty mitään käytännöllistä järkiperustetta negatiivisuudelle.
 
Viimeksi muokattu:
Kauppa käyny kun Jimmsillä ei kuulemma riitä kaikille tilaajille ensimmäisestä erästä. Pitäisköhän sittenkin pistää ennakkotilaten, varmaan jostain Gigantista pääsis vielä apajille. Tosin tuosta 2080ti ei ole edes Strixiä vielä tilattavissa. Harmittais vaihtaa mallia kun useamman generaation mennyt Strixillä (ja sitä ennen DirectCU:lla...)

Kohta saa halvalla käytettynä kun revikat ja totuus tulee julki. ;)
 
Laittasko toisen 1080 Ti vai 2080 Ti :confused2:

No sanotaan nyt omana mielipiteenä, että SLI ei ainakaan kannata. Tuki on nykyään varsin kehnoa ja säätämään joutuu aika lailla, että saa edes jollain tapaa toimimaan (jos saa). On vähän turhankin tuoretta kokemusta juurikin 1080Ti SLI kombosta. Lämmöt on myös aika kovissa lukemissa ellei ole vesillä.
 
Rtx2080Ti on selkeästi enempi cuda ytimiä kuin Gtx1080Ti
Joka tarkoittaa että eroa tulee aivan varmasti 4K lla ihan yhtälailla.
Ei se pelkkä muistiväylä määritä 4K nopeutta vaikka sekin on 2080Ti isompi. 616 vs 484

Ytimissä kuitenki selvä ero.
Gtx1080Ti
Cuda 3584

Rtx2080Ti
Cuda 4352

Niin ja 2080 ei ole selkeästi enemmän cudaa vs 1080..

Pointti siis on se että 2080 repii 4K resolla eroa 1080 niin paljon koska siinä on enemmän cuda coreja ja suurempi muistikaista.
2080Ti oletettavasti repii eroa 1080Ti:n ainoastaan cudan turvin silloin kun tehdään apples to apples vertailua.
 

Statistiikka

Viestiketjuista
258 125
Viestejä
4 487 442
Jäsenet
74 158
Uusin jäsen
kharim

Hinta.fi

Back
Ylös Bottom