NVIDIA-spekulaatioketju (Lovelace ja tulevat sukupolvet)

Tensoriytimet ja säteenjäljitysytimet ovat eri asioita.

Tensoriytimiä käytetään neuroverkkojen kiihdyttämiseen, säteenjäljitysytimiä säteenjäljitykseen.
(toki nvidia on demonnnut jotain neuroverkkopohjaista kohinanvaimennusta säteenjäljitykseen, mutta kohinanvaimennuksen voi tehdä muullakin tapaa, ja niitä tensoriytimiä voi käyttää moneen muuhunkiin juttuun)

Mutta kummatkaan eivät (merkittävästi) lisää piirin sähkönkulutusta silloin kun niitä ei käytetä.
Hups, kiitos tarkennuksesta.:tup:
 
Oliko tämä täällä jo?

upload_2018-8-22_16-49-3.png


Hands-on with the GeForce RTX 2080 Ti: Real-time Raytracing in Games

Käytännössä osa peleistä, mm. PUBG tukee RTX:iä vaan sen supersamplauksen muodossa, eli se venyttää kuvaa isommaksi käyttämällä AI:ta.
 
Kellotaajuus 1545 vs 1582 MHz (3% vähemmän)

Muistikaista 492 GB/s vs 387 GB/s (27% enemmän)
Shader-linjat ("cuda coret") 4352 vs 3584 (21 % enemmän(18% enemmän kun huomioidaan kello))
TMUt kasvaneet samssa suhteessa kun shader-linjat
ROP-määrä molemmissa 96? (eli 3% vähemmän kun huomioidaan kello)

Mutta, pitää huomioida, että kyseessä on uusi arkkitehtuuri, ja hyötysuhde on voinut jossain muuttua selvästi.
Mutta ne jotka odottaa jotain 40% parannusta, niille sanoisin, että varautukaa suureen pettymykseen. :D
 
Joo, mikäli noita lukuja pyörittää niin joku 20% on tässä vaiheessa aika lähelle osuva arvio siitä tehonlisäyksestä, noin siis pelkän specsien perusteella. Kuten tossa aikasemmin todettiin, niin ei voida tietää lopullista lukemaa kun on uusi arkkitehtuuri kyseessä. Jos 25% toteutuu niin joutuuhan tässä laittamaan ostohousuja jalkaan, RTX on sitten mukava lisä, olettaen että ajurituki ja ennenkaikkea pelien tuki paranee. Tuosta Shadow of the Tomb Raiderin demosta en suurempia johtopäätöksiä vetelisi, kyseessä on julkaisematon peli johon tulee vielä kaupan päälle RTX-tuki vasta myöhemmin pelin julkaisusta, mikä kielii aika vahvasti ettei sitä olla keritty kehittämään kauhean pitkälle vielä.
 
Tuo RT on semmoinen ominaisuus vielä tässä vaiheessa ensimmäisen sukupolven korteilla, että menee samaan sarjaan monien gameworks ominaisuuksien kanssa. Eli mieluimmin laittaa pois päältä että saa lisää FPS:ää.
 
Tuo "Deep learning supersampling" on kyllä feikein ominaisuus mitä on pitkiin aikoihin tietokonegrafiikassa nähty.

Sen tulos voi olla käytännössä ihan mitä tahansa. Toiminee hyvin sentyylisillä sceneillä, millä se on opetettu, mutta sitten vähän oudommissa tilanteissa voi tulos räjähtää täysin käsille ja voi johtaa todella pahoihin kuvanlaatuhäröihin.
 
Käytännössä osa peleistä, mm. PUBG tukee RTX:iä vaan sen supersamplauksen muodossa, eli se venyttää kuvaa isommaksi käyttämällä AI:ta.

Tuli mieleen että voisiko ne huhuillut 4K/ultra/+100 fps tulokset olla saatu tuon DLSS:n avulla? Eli peli rendataan pienemmällä resoluutiolla ja sitten venytetään 4K kokoon.
 
Kellotaajuus 1545 vs 1582 MHz (3% vähemmän)

Muistikaista 492 GB/s vs 387 GB/s (27% enemmän)
Shader-linjat ("cuda coret") 4352 vs 3584 (21 % enemmän(18% enemmän kun huomioidaan kello))
TMUt kasvaneet samssa suhteessa kun shader-linjat
ROP-määrä molemmissa 96? (eli 3% vähemmän kun huomioidaan kello)

Mutta, pitää huomioida, että kyseessä on uusi arkkitehtuuri, ja hyötysuhde on voinut jossain muuttua selvästi.
Muistikaista on 616 GB/s
 
Spekuloidaan lisää ja toivotaan että muuttuu testien jälkeen ejakulointiketjuksi.

Mulla ollut viimeiset neljä sukupolvea SLI käytössä,
690 - 780Ti SLI - 980Ti SLI - 1080Ti SLI ja karkeasti arvioituna aina on uudempi Ti kortti ollut melkein yhtä tehokas kuin edellinen vastaava SLI setti ja toki vähän vaihtelee miten mikäkin peli kahdelle kortille skaalautuu.

Itselläni vasta kolmas SLI setti menossa ja mielenkiinnolla täälläkin odotellaan, että onko 2080 Ti kortista tämän nykyisen 1080 Ti SLI:n korvaajaksi. Hieman skeptisesti kyllä tällä hetkellä suhtaudun siihen ajatukseen, että sama meno jatkuisi, mitä on aikaisempina sukupolvina ollut. Mutta toivotaan kuitenkin parasta :-)

NVLinkin osalta onkin mielenkiintoinen tilanne. Toisaalta on tuntunut koko ajan enemmän ja enemmän siltä, että SLI tuesta ollaan varmaan kohta luopumassa kokonaan, kun se on niin pienen porukan harrastus.

Mutta sitten taas toisaalta näihin uusiin kortteihin tuotiin tuo NVLink, joka mahdollistaa aivan eri planeetalla olevat siirtonopeudet korttien välillä. Näiden uusien Quadro korttien kohdalla uutisoitiin, että yhdistämällä kaksi RTX8000 korttia joissa kummassakin on 48 GB muistia, saisi tuplattua tuon käytettävissä olevan muistin 96 gigaan. Mahtaako onnistua myös pelikorteilla?

Olisi kyllä hienoa, jos NVLinkin, ajureiden ja käyttiksen avustuksella nuo kaksi erillistä korttia pystyttäisiin esittämään peleille yhtenä korttia. Onhan tuota resurssien virtualisointia tehty jo 70-luvulla, niin on se nyt ihme, että herran vuonna 2018 pelikehittäjien pitää vielä koodata erillinen tuki kahdelle GPU:lle :-)
 
Tuo "Deep learning supersampling" on kyllä feikein ominaisuus mitä on pitkiin aikoihin tietokonegrafiikassa nähty.

Sen tulos voi olla käytännössä ihan mitä tahansa. Toiminee hyvin sentyylisillä sceneillä, millä se on opetettu, mutta sitten vähän oudommissa tilanteissa voi tulos räjähtää täysin käsille ja voi johtaa todella pahoihin kuvanlaatuhäröihin.
Nahkatakkisetä kertoi, että ne neuroverkot opetetaan etukäteen Nvidian omilla vehkeillä ja valmiiksi opetetut DLSS-profiilit voi sitten imasta ajureiden mukana RTX:n tensoreiden jauhettavaksi.
 
Kellotaajuus 1545 vs 1582 MHz (3% vähemmän)

Muistikaista 492 GB/s vs 387 GB/s (27% enemmän)
Shader-linjat ("cuda coret") 4352 vs 3584 (21 % enemmän(18% enemmän kun huomioidaan kello))
TMUt kasvaneet samssa suhteessa kun shader-linjat
ROP-määrä molemmissa 96? (eli 3% vähemmän kun huomioidaan kello)

Mutta, pitää huomioida, että kyseessä on uusi arkkitehtuuri, ja hyötysuhde on voinut jossain muuttua selvästi.

Noista gpun kellotaajuuksista on kyllä vaikea sanoa yhtään mitään. Kun ei tiedetä onko käytössä sama boost algo kuin pascalilla ja mikä on se maksimi boost arvo kortin vbiossissa. Tuolle gtx1080ti:llekkin on kaksi boost arvoa, se markkinoinnissa käytetty 1582 MHz ja kortin vbiossissa määritetty maksimi boost arvo joka on noin 1850 MHz. Peleissä nuo gtx1080ti:n kellot pyörii siellä 1,75GHz paremmalla puolen, oikeastaan lähempänä 1,8GHz.
 
Joo, mikäli noita lukuja pyörittää niin joku 20% on tässä vaiheessa aika lähelle osuva arvio siitä tehonlisäyksestä, noin siis pelkän specsien perusteella.
Otettava myös huomioon että lehdistölle on todennäköisesti lähetetty Nvidian ylikellotetut FE-kortit, joten revikoissa ero tulee olemaan hieman normaalia suurempi verrattuna 1000-sarjan referenssimalleihin.
 
Sehän on selvä, mutta ne refutaajuudet ei paljoa kiinnosta jos kortti toimii samaan tapaan kuin paskal ja kullittaa itse itseään virran ja lämpöjen mukaan.

Mun MSI 1080 Ti laatikossa lukee että kullitaajuus corelle jotain 1650mhz (en muista tarkkaan) mutta niin se vaan tikkaa 2139Mhz kun lyö pelit soimaan.

Yritän tässä nyt sanoa että ilman testejä ei voida mitenkään sanoa että 2080 ti:n kellotaajuudet on matalampia kuin 1080 ti:n, koska jo FE-malleja vertaamalla selviää että niiden ilmoitetuissa kelloissa 2080 ti on "edellä". Pitäis saada testiä, eihän tässä edes tiedetä miten 2080 kellottaa itseään.

Toki osaltaan totta. Nvidia ei markkinoi maksimi buusteja, mihin kortit oikeasti buustaa, vaan jotain peruskellotaajuuksien ja maksimi buustin väliltä mihin se ainakin pystyy heidän omalla refublowerilla. Mutta toisaalta kun ylikellottaa tuota boost kelloa muuttuu samaan tahtiin myös se maksimi buusti arvo eli ei se vakio ylikellottamatta yllä sinne ylikellotetun kelloille vaikka ne lämpö rajoitukset paremmalla jäähyllä poistaisikin.

Otettava myös huomioon että lehdistölle on todennäköisesti lähetetty Nvidian ylikellotetut FE-kortit, joten revikoissa ero tulee olemaan hieman normaalia suurempi verrattuna 1000-sarjan referenssimalleihin.

Tämä itseäkin tässä närästää eniten. Jännä nähdä tuleeko tuota revikoissa kuinka huomioitua, luulisi että ainakin tpu W1zzard ne refrenssi kellotaajuuksille pistää ja miksei esim. Io-techin @Sampsa. Mutta kaiken maaliman juutuupittajat aika varmasti hehkuttavat vain noilla ylikelloilla saatuja tuloksia.
 
Nahkatakkisetä kertoi, että ne neuroverkot opetetaan etukäteen Nvidian omilla vehkeillä ja valmiiksi opetetut DLSS-profiilit voi sitten imasta ajureiden mukana RTX:n tensoreiden jauhettavaksi.

Juu, mutta ne esiopetetut neuroverkon parametrit sopii vain niihin tilanteisiin, missä ne on opetettu. Siellä voi olla vaikka yksi parametrisetti lentosimulaattorin pilviselle taivaalle, toinen metsälle ja kolmas kaupungille jossa kiviseiniä, ja käytännössä näistä varmaan voidaan valita sen mukaan, mitä peliä pelataan, mutta sitten kun tulee vastaan jotain sellaista, jolle sitä ei ole opetettu, ollaan ongelmissa. Tai kun pelissä on vähän kaikkea tilanteen mukaan, ja tilanteet vaihtuu randomilla, ollaan ongelmissa.

Potentiaalinen ongelma on myös siinä, jos esimerkiksi jostain tiheän verkkoaidan tai kasvillisuuden raoista pitäisi nähdä läpi sen takana olevia vihollisia(tai siis näistä yksittäisiä tummia pikseleitä), mutta neuroverkko kadottaa ne kokonaan ja korvaa jollakin ihan muulla, koska opetusdatassa verkkoaidan takana ei juuri koskaan ole ollut tummia vihollisia, vaan siellä on ollut jotain muuta.
 
Juu, mutta ne esiopetetut neuroverkon parametrit sopii vain niihin tilanteisiin, missä ne on opetettu. Siellä voi olla vaikka yksi parametrisetti lentosimulaattorin pilviselle taivaalle, toinen metsälle ja kolmas kaupungille jossa kiviseiniä, ja käytännössä näistä varmaan voidaan valita sen mukaan, mitä peliä pelataan, mutta sitten kun tulee vastaan jotain sellaista, jolle sitä ei ole opetettu, ollaan ongelmissa. Tai kun pelissä on vähän kaikkea tilanteen mukaan, ja tilanteet vaihtuu randomilla, ollaan ongelmissa.
Juu, no tämä on toki aika selviö.
 
Tämä itseäkin tässä närästää eniten. Jännä nähdä tuleeko tuota revikoissa kuinka huomioitua, luulisi että ainakin tpu W1zzard ne refrenssi kellotaajuuksille pistää ja miksei esim. Io-techin @Sampsa. Mutta kaiken maaliman juutuupittajat aika varmasti hehkuttavat vain noilla ylikelloilla saatuja tuloksia.

No tietysti riippuu minkälaisella kulmalla testin tekee.

- Edellisen sukupolven referenssi vs uuden sukupolven referenssi
- Edellisen sukupolven founders edition vs uuden sukupolven founders editioin

Jos me saadaan NVIDIAn RTX 20 -sarjan Founders Editionit niin niitä verrataan vs edellisen sukupolven FE & custom.

Veikkaan kylläkin että me ei noita RTX 20 -sarjan FE-kortteja saada mutta nyt jo tiedossa että Asukselta ja MSI:ltä on customit tulossa.
 
No tietysti riippuu minkälaisella kulmalla testin tekee.

- Edellisen sukupolven referenssi vs uuden sukupolven referenssi
- Edellisen sukupolven founders editiovs vs uuden sukupolven founders editioin

Jos me saadaan NVIDIAn RTX 20 -sarjan Founders Editionit niin niitä verrataan vs edellisen sukupolven FE & custom.

Veikkaan kylläkin että me ei noita RTX 20 -sarjan FE-kortteja saada mutta nyt jo tiedossa että Asukselta ja MSI:ltä on customit tulossa.

Se kait tuossa ongelma juuri onkin. Pascalin FE oli referenssi kellotaajuuksilla, Turing taas ylikellotettu. Toisaalta tuo lisää katetta siihen FE:n korkeampaan hintaan, jos sieltä noita refukelloilla pyöriviä AIB:n malleja rupeaa pyörimään FE:n ja refun hintojen välissä.
 
Juu, mutta ne esiopetetut neuroverkon parametrit sopii vain niihin tilanteisiin, missä ne on opetettu. Siellä voi olla vaikka yksi parametrisetti lentosimulaattorin pilviselle taivaalle, toinen metsälle ja kolmas kaupungille jossa kiviseiniä, ja käytännössä näistä varmaan voidaan valita sen mukaan, mitä peliä pelataan, mutta sitten kun tulee vastaan jotain sellaista, jolle sitä ei ole opetettu, ollaan ongelmissa. Tai kun pelissä on vähän kaikkea tilanteen mukaan, ja tilanteet vaihtuu randomilla, ollaan ongelmissa.

Toimisiko homma niin, että kuvaa työstettäisiin useamman neuroverkon yhteistyönä? Eli jotenkin niin, että yksi neuroverkko ensin luokittelee kuvan sisällön/luonteen yleisemmällä tasolla, ja päättää sitten, mikä parametrisetti valitaan seuraavaa vaihetta varten? Jos ajatusta viedään vielä pitemmälle, niin sama frame voitaisiin työstää useammalla parametrisetillä rinnakkain, ja lopussa olisi vielä "sanity check", jolla pahimmat häröt vältettäisiin ja paras lopputulos valittaisiin. NVidian jokin aika sitten demoama kasvokuvien generointihan toimi jotenkin näin: yksi neuroverkko ensin yrittää parhaansa, ja toinen sitten pisteyttää lopputuloksen.

Tietty tällaisissa virityksissä saattaapi palaa kallisarvoisia millisekunteja ihan liikaa, vaikka käytössä olisikin paljon tensoriytimiä.
 
Viimeksi muokattu:
Onkohan tuota 2080 TI-mallia tulossa myös kolmen tuulettimen Strixinä? Asuksenkin sivuilla on vain Turbo ja Dual mallit...
 
Ihan nättejä heijastuksia saadaan aikaan.

Onkos tämä nyt hehkutettu ray tracing täysin Nvidian oma viritys, tyyliin hairworks, eli AMD-miehet voivat vain haaveilla siitä?

Ray tracing on kymmeniä vuosia sitten keksitty realistisempi mutta todella paljon raskaampi täysin erilainen (selvästi realistisempi) tapa piirtää tietokonegrafiikkaa.

Toistaiseksi sitä on käytetty vasta elokuvissa, joissa yhtä framea on voinut rendata vaikka tunteja tuhansilla tietokoneilla, mutta nyt alkaa mooren lain mukana laskentateho olla edennyt siihen pisteeseen, että sitä voidaan pikkuhiljaa kohta alkaa tehdä reaaliaikaisena yhdellä kuluttajahintaisella laitteella.

nVidia on käsittääkseni julkaissut yhden rajapinnan, jolla osa pelien grafiikoista/efekteistä voidaan tehdä ray tracingilla, samalla kun suurin osa grafiikoista piirretään edelleen perinteisellä rasteroinnilla, johon perinteiset GPUn tehty. Tosin muistaisin kuulleeni, että mikkisoftakin olisi directXään jotain ray tracing-rajapintaa speksannut. Mutta en tiedä näistä rajapinnoista kovin paljoa kovin tarkkaan ja saatan muistaa väärin.

Raytracingissa tekniikkana ei siis ole mitään nvidia-spesifistä, nVidia vaan ehti ennen AMDtä ja inteliä tuomaan ulos ray tracingia tekevää rautaa (mutta powerVR ehti tässä nvidiaakin ennemmin jollain mobiili-ip-lohkollaan). Ray tracingia voi kuitenkin tehdä softalla normaalin näyttiksen shader-prosessoreilla tai CPUlla, mutta selvästi hitaammin kun sille optimoidulla raudalla. Muistaakseni esimerkiksi AMD on tainnut julkaista jonkun heidän näyttiksilleen optimoidun OpenCL:llä näyttiksellä pyörivät softa-raytracing-enginen tjsp.

Eli nvidia hypettää noita 6x-nopeutuksiaan sillä, että vertaa uutta rautatoteutustaan vanhan geforcen shader-prosessoreilla pyörivään softatoteutukseen.
 
Viimeksi muokattu:
Kaikki muu on kivaa näissä uusissa korteissa paitsi hinnat. Ilmeisesti tehoa ei tullut niin paljon kuin olisi toivottu, mutta onneksi saatiin tuo RT. On jotain vastinetta menetykselle.

Minä varmaan ostan 2070:n, kun olisi kiva joskus omistaa tehokkaampi kortti, joka vielä olisi uusinta uutta.
 
Voi olla että on mainittukkin jo mutta millois viimeksi oli tämmöinen "paperijulkaisu" että tavaraa ei olekkaan kaupoissa heti (edes muutamaa kappaletta) ja revikoiden tuloajasta ei tiedä kuin ne ketkä on NDA:n alla? Muistaakseni oli joskus ihan lähes normaalia. Vai alanko olla ihan seniili ja muistan kaikki väärin.
Mutta kyllä poltteloo 970:n ja X34P:m omistajana, no enää lähinnä 2080 ja 1080ti ero. Max 1ke olisin voinut laittaa 2080ti:n kiinni.
Tosin vähän mietityttää sekin että mitäköhän "bugeja" tulee löytymään vielä kun kumminkin on kyseessä aika kasa transistoreja piisirulla.
 
Atomic Heart näyttää aika jumalaisen hyvältä RTX:llä :drool:


Minusta tämä oli... aika surkeaa.
Valkoista/harmaata seinää, valkoisia/harmaita vaatteita, valkoista valoa, ei juurikaan muita värejä (paitsi yksi punainen öllötys).
Mattapinnat eivät juurikaan heijastaneet valoa. Lähinnä lopputuloksena oli pehmeitä varjostuksia eikä juuri muuta.
upload_2018-8-22_20-5-21.png
 
DigitalFondry perkasi tuota julkaisua ja ainakin heidän mukaan ongelmat suorituskyvyssä ja efektien toteutuksessa koskivat nimenomaan vain Tomb Raideria. BF5 ja Resident Evil pyörivät kuulemma sulavasti ja efektit toimivat niinkuin piti.

 
Eikö nuokin olleet kuitenkin fullhd resoluutiolla? Vähän ikävää jos siihen joutuu palaamaan 1300 euron näytönohjaimella.
Näissä odotan mielenkiinnolla sitä, että kuinka tuo raytracing skaalautuu resoluutioiden mukana. Eli käytännössä, jos tuo rt-ydin on rajoitteena fps:lle, mutta cudapuolella riittäisi vielä potkua enemmän, niin voisiko resoluutiota nostaa ilman suurempaa suorituskykypenalttia.

Tämä on täysin puhdasta arvailua henkilöltä, jonka tietämys näyttisten toiminnasta on hyvin rajallinen. Hintojensa puolesta nuo uudet rtx:t sulkivat minut kuitenkin ostajien joukosta pois, vaikka teknologia kiinnostaakin.
 
Jotain nvidian käppyröitä 2080 vs 1080 suorituskyvystä julkaistu

NVIDIA publishes GeForce RTX 2080 vs GeForce GTX 1080 comparison - VideoCardz.com

Eli jossain määrin tämä menisi sittenkin niin kuin aikaisemminkin, tosin nyt 4k:lla mutta kuitenkin. Elikkä esim 780ti vähän tehokkaampi kuin 970, 980ti vähän tehokkaampi kuin 1070 ja nyt 1080ti vähän tehokkaampi kuin 2070 jne.

Eiköhän se 2080ti potki ihan tarpeeksi +rtx ominaisuudet :) Toki hinta voisi olla vähemmänkin =) Kunnon revikoita odotellessa, on tämä aika tuskaista :D
 
Eli jossain määrin tämä menisi sittenkin niin kuin aikaisemminkin, tosin nyt 4k:lla mutta kuitenkin. Elikkä esim 780ti vähän tehokkaampi kuin 970, 980ti vähän tehokkaampi kuin 1070 ja nyt 1080ti vähän tehokkaampi kuin 2070 jne.

Eiköhän se 2080ti potki ihan tarpeeksi +rtx ominaisuudet :) Toki hinta voisi olla vähemmänkin =) Kunnon revikoita odotellessa, on tämä aika tuskaista :D
Piinaavaa odottelua suorastaan:D
 
Eivät tuota DLSS:ää ihan kamalasti alleviivanneet julkaisussa. Jos tosiaan noin hyvin nostaa suorituskykyä, niin hattua nostan ja luulisi pelintekijöiden tuollaista mieluusti hyödyntävän.
 
Eivät tuota DLSS:ää ihan kamalasti alleviivanneet julkaisussa. Jos tosiaan noin hyvin nostaa suorituskykyä, niin hattua nostan ja luulisi pelintekijöiden tuollaista mieluusti hyödyntävän.
Eiköhän se tuossa tapauksessa meinaa sitä, että peli rendataan alemmalla resolla ja taiotaan DLSS:llä 4k-resoluutioon.

ninjaedit: Eli siis, ei se mitään nopeuta, vaan mahdollistaa paremman ylöspäin skaalauksen.

edit: nahkatakkikostajan höpinöiden aiheuttama väärinymmärrys
 
Viimeksi muokattu:
Tuon perusteella 2080 olisi kenties hieman tehokkaampi kuin 1080 Ti, joten jos 2080 Ti on paperilla +50% nopeampi kuin 2080, voi olla aikamoinen jytky tulossa.:joy:

Hätäisesti laskeskelin, että 2080 Ti voittaisi 1080:n suurinpiirtein kellotaajuuksia ja CUDA-ytimien määriä vastaavassa suhteessa, jos DLSS jätetään huomiotta. Ja sitten tajusin, että noissa käppyröissä onkin vertailukohtana 2080 (2944 CUDA-corea), eikä 2080 Ti (4352 CUDA-corea)! Huhhuh. Jytkyltä todella vaikuttaa.
 
Näissä odotan mielenkiinnolla sitä, että kuinka tuo raytracing skaalautuu resoluutioiden mukana. Eli käytännössä, jos tuo rt-ydin on rajoitteena fps:lle, mutta cudapuolella riittäisi vielä potkua enemmän, niin voisiko resoluutiota nostaa ilman suurempaa suorituskykypenalttia.

Tämä on täysin puhdasta arvailua henkilöltä, jonka tietämys näyttisten toiminnasta on hyvin rajallinen. Hintojensa puolesta nuo uudet rtx:t sulkivat minut kuitenkin ostajien joukosta pois, vaikka teknologia kiinnostaakin.
Ray-tracing tunnetusti skaalautuu lineaarisesti resoluution mukaan. 4k render vaatii 400% enemmän tehoa mitä 2k render.
 
Eiköhän se tuossa tapauksessa meinaa sitä, että peli rendataan alemmalla resolla ja taiotaan DLSS:llä 4k-resoluutioon.

ninjaedit: Eli siis, ei se mitään nopeuta, vaan mahdollistaa paremman ylöspäin skaalauksen.
Ok en osaa kuvitella mitä tuo käytännössä tarkoittaa. Comparison shotit real4k vs dlss-taiottu 4k ois kiva nähdä.

edit: tuollainen 1080ti TAA vs 2080ti DLSS vertaus löytyi youtubesta:


tl;dw: 2x performance ja näyttää samalta toimittajan silmiin
 
Viimeksi muokattu:
Huom: Nvidian julkaisema Graafi :) Jos kolmannen osapuolen testit näyttää tuota samaa niin uskon :)
 
Graafin mukaan pyörii paremmin AI-AA:lla kuin ilman? Hä?
Eikös tämä ai-aa ole käytännössä ylöspäinskaalausta tekoälyllä. Eli peli itsessään piirtyy alemmalla resolla ja sitten ai laskelmoi puuttuvat pikselit ja nostaa 4k-resoon asti. Täten pienempi isku fps:lle kuin suoraan 4k:na renderöimällä.
 
Ois nahkatakkihermanni voinut lätkäistä tuon nyt sittemmin julkaistun graafin heti siellä esityksessä. Mikäli pitää paikkansa niin kyllähän tuota voisi jytkyksi kuvailla. :tup:
 
Ois nahkatakkihermanni voinut lätkäistä tuon nyt sittemmin julkaistun graafin heti siellä esityksessä. Mikäli pitää paikkansa niin kyllähän tuota voisi jytkyksi kuvailla. :tup:
No joo tuntuu virheeltä ettei esimerkiksi loppuun RT hypetyksen päätyttyä loppukaneettina lätkästy noita graafeja kankaalle.
 
Graafin mukaan pyörii paremmin AI-AA:lla kuin ilman? Hä?

Sain tästä käsityksen, että 4k DLSS ei ole natiivi 4k, vaan upscaling tekniikka. Konsoleilla on käytössä useasti dynaaminen resoluutio tai checkerboard rendering, jotta 4k pyörii sulavasti.
Tämä on ilmeisesti Nvidian vastine siihen. Ei nuo pelit muutoin muutoin hyötyisi noin paljon.

Ei valitettavasti tiedetä, että tuleeko DLSS:n mukana artifakteja. Tuommoinen aina samalta näyttävä techdemo on tod. näk. helpompi "opettaa" DL ytimille kuin peli, jossa jokaisella käyttäjällä voi olla eri grafiikka-asetukset käytössä. Digitalfoundryn videolla keskustelivat tästä lisää.

Tuon graafin mukaan 2080 on suurinpiirtein samalla tasolla kuin 1080 Ti... Idioottimaista, että vertasivat 2080 vs 1080, vaikka kyseessä on ihan eri hintaluokan kortit. 2080 vs 1080 Ti olisi tod. näk. liian tylyä katseltavaa.
Jos oikeat arvostelut sanoo samaa, niin taitaa mennä 2080 tilaus peruutukseen ja 300€ halvempi 1080 Ti tilalle.
 

Statistiikka

Viestiketjuista
258 125
Viestejä
4 487 442
Jäsenet
74 158
Uusin jäsen
kharim

Hinta.fi

Back
Ylös Bottom