NVIDIAn RT- ja tensoriydinten vaikutus Turing-grafiikkapiirien kokoon tarkastelussa

Kaotik

Banhammer
Ylläpidon jäsen
Liittynyt
14.10.2016
Viestejä
21 448



NVIDIA on julkaissut Turing-arkkitehtuuristaan grafiikkapiirejä sekä RT- ja tensoriytimillä varustettuna että ilman niitä. Keskusteluissa onkin spekuloitu paljon sitä, kuinka paljon RT- (Ray tracing) ja tensoriytimet todellisuudessa vaikuttavat grafiikkapiirin kokoon.

NVIDIA esitteli Turing-arkkitehtuurin julkaisun yhteydessä kuvaa, jossa huippupiiri TU102 oli jaoteltu tensoriytimiin, RT-ytimiin ja CUDA-ytimiin. Kuvan mukaan RT- ja tensoriytimet veisivät kumpikin neljänneksen alasta, kun CUDA-ytimet veisivät puolet piirin alasta. Sanomattakin on selvää, että kyseessä oli fiktiivinen jaottelu, eikä piiriä ole jaettu kuvan kaltaisiin osiin millään tasolla, vaan RT- ja tensoriytimet ovat integroitu tiiviisti CUDA-ytimet sisältäviin TPC- (Thread Processing Cluster) ja SM-yksiköihin (Streaming Multiprocessor).



Kun Turing-arkkitehtuurista julkaistiin ensimmäiset versiot ilman edellä mainittuja ytimiä, heräsi keskustelu uudelleen niiden vaatimasta pinta-alasta. Jonkinmoista selvyyttä tilanteeseen saatiin lopulta piirien valokuvauksesta tutun Fritzchens Fritzin julkaisemien TU106- ja TU116-grafiikkapiirien infrapunakuvien myötä.

Redditissä nimimerkillä Qesa tunnettu käyttäjä otti asiakseen selvittää, kuinka paljon RT- ja tensoriytimet todella vievät tilaa kyseisten kuvien pohjalta. Qesan laskelmien mukaan yksi TPC-yksikkö, joka sisältää kaksi SM-yksikköä ja RT-ydintä sekä joukon tensoriytimiä vie TU106-grafiikkapiirillä tilaa 10,89 mm2. Vastaava TPC-yksikkö TU116-grafiikkapiirillä, jossa ei ole lainkaan RT-ytimiä ja tensoriytimet on korvattu FP16-CUDA-ytimillä, vie puolestaan tilaa 8,94 mm2, mikä tarkoittaisi 1,95 mm2 eroa. Qesan arvion mukaan tensoriytimet vievät piiriltä tilaa noin 1,25 mm2 enemmän kuin FP16-ytimet, kun RT-ytimet vaatisivat tilaa noin 0,7 mm2. Koska tensoriytimet on integroitu niin tiukasti CUDA-ydinten rinnalle SM-yksikössä, sisältää niiden vaikutus TPC:n kokomuutokseen myös mahdolliset vaaditut muutokset muihin TPC:n osiin kuten välimuisteihin ja tehtävien vuorottajaan (scheduler).

Lyhyemmin ilmaistuna FP16-ydinten vaihtaminen RT- ja tensoriytimiin kasvattaisi kunkin TPC-yksikön kokoa hieman alle 22 prosenttia. Karkean laskukaavan mukaan TU116:n tapaan FP16-ytimillä varustetun TU102:n pinta-ala kutistuisi 754 mm2:sta 684 mm2:een, TU104:n 545 mm2:sta 498 mm2:een ja TU106:n 445 mm2:sta 410 mm2:een. Kuten luvuista näkee, olisivat kyseiset grafiikkapiirit erittäin kookkaita myös ilman tensori- ja RT-ytimiä. Uutisessa käytetyt lukemat ovat valistuneita arvioita saatavilla olevasta materiaalista, eikä tarkkoja lukuja saada luultavasti ikinä tietää, ellei NVIDIA niitä erikseen lähde paljastamaan.

Lähde: Reddit, Fritzchens Fritz @ Flickr

Huom! Foorumiviestistä saattaa puuttua kuvagalleria tai upotettu video.

Linkki alkuperäiseen uutiseen (io-tech.fi)

Palautelomake: Raportoi kirjoitusvirheestä
 
Viimeksi muokattu:
Liittynyt
17.10.2016
Viestejä
162
TPC yksiköstä noin 20%, mutta koko piiristä vain 10%. Eli ei mitenkään merkittävästi. Olisivat voineet laittaa niitä tuplamäärän, mutta rahastavat mieluummin.
 

IcePen

Typo Generaatroti ;-)
Tukijäsen
Liittynyt
17.10.2016
Viestejä
5 966
Eli kun katsoo mitenkä RT tai Tensori ytimistä on hyötyä peleissä ja kun ottaa huomioon sen että RT ytimet vaatii tilaa aika vähän mutta Tensori ytimet paljon niin jos minä saisi valita niin ottaisin sellaisen Nvidia GPU:n pelikäyttöön jossa olisi ne RT ytimet mutta Tensori ytimiiä ei olisi vaan se tila olisi käytetty normaaleille Cuda ytimille.
 
Liittynyt
17.10.2016
Viestejä
5 658
Aika hyvin menee yksiin sen kanssa, mitä tänne aiemmin laskeskelin Voltan ja Turingin tietoihin perustuen.

Se vaan laittaa kysymään että mikä niiden RT-corejen merkitys ylipäätään on RTX-korteissa.

Titan V
815 mm^2
5120 CUDA-corea
640 tensorcorea
0 RT-corea

2080 Ti
775 mm^2
4352 CUDA-corea
544 tensorcorea
68 RT-corea

Piirit on melkolailla samankokoiset, eli käytännössä Nvidia vaihtoi 768 CUDA-corea ja 96 tensorcorea noihin 68 RT-coreen. Jos nyt sitten niiden RT-corejen sijaan olisi isketty vaikkapa suuruusluokkaa 600 CUDA-corea ja 80 tensorcorea lisää 2080 Ti:hin, olisi se ei säteenseurantaa käyttävissä asioissa sen 10-15% nykyistä tehokkaampi. Ja siitä huolimatta säteenseurantatehokaan tuskin ihan hirveästi olisi nykyistä huonompi, jos ja kun niiden RT-corejen puutteen näyttäisi voivan kompensoida muilla laskentayksiköillä?
 
Liittynyt
17.10.2016
Viestejä
21 879
Onko noi tensoriytimet vain DLSSn takia?
Must ne voisi jättää silloin kyllä pois tykkänään.
Niillä tehdään myös AI/ML-laskentaa. Kaikki ei käytä noita kortteja pelaamiseen..

Minä taas en tee RT-yksiköillä mitään, mutta Tensor-yksiköt tulisivat tarpeeseen.
 
Liittynyt
18.01.2017
Viestejä
791
Eli kun katsoo mitenkä RT tai Tensori ytimistä on hyötyä peleissä ja kun ottaa huomioon sen että RT ytimet vaatii tilaa aika vähän mutta Tensori ytimet paljon niin jos minä saisi valita niin ottaisin sellaisen Nvidia GPU:n pelikäyttöön jossa olisi ne RT ytimet mutta Tensori ytimiiä ei olisi vaan se tila olisi käytetty normaaleille Cuda ytimille.
Olen vähän samoilla linjoilla, tosin painottaisin näitä vähän eri tavalla. Oma toivomukseni Nvidian suuntaan olisi, että 7nm piirisukupolvessa tensorit heitettäisiin mäkeen, ja RT-suorituskyky nostettaisiin vähintään kolmin- tai nelinkertaiseksi. Sen jälkeen niin paljon "perinteistä" cuda-tehoa, kuin jäljelle jäävään pinta-alaan mahtuu.

Olin alkuvaiheessa hyvinkin innostunut noista tensoriytimistä, mutta nyt näyttää siltä ettei niille ole tulossa mitään käyttöä sen paremmin hyötyohjelmissa kuin peleissäkään (DLSS ei vielä ole täysin kuollut ja kuopattu, mutta aika heikossa hapessa kuitenkin).
 
Viimeksi muokattu:
Liittynyt
04.11.2016
Viestejä
1 589
Teoriassa, mutta käytännössä ainakin Battlefield ja Metro käyttävät TAA:ta tohinanpoistoon. Unreal Enginestä ja Tomb Raiderista en tiedä.
TAA on antialiasing tekniikka ei sillä ole mitään tekemistä kohinan poistossa.

Eikös niitä käytetty myös säteenseurannan kanssa kohinan poistoon?
Tensorcoret eivät ole aktiivisia rendauksessa kun DXR:ää käytetään. Kohina poistetaan tn. ihan mixed precision laskuilla, missä Turing on myös hyvä. DXR:n kuitenkin pitäisi toimia kaikilla näytönohjain valmistajilla, joten jos tuo kohinan poisto onnistuisi vain tensoreilla ei sillä juuri olisi tulevaisuutta.

Olen vähän samoilla linjoilla, tosin painottaisin näitä vähän eri tavalla. Oma toivomukseni Nvidian suuntaan olisi, että 7nm piirisukupolvessa tensorit heitettäisiin mäkeen, ja RT-suorituskyky nostettaisiin vähintään kolmin- tai nelinkertaiseksi. Sen jälkeen niin paljon "perinteistä" cuda-tehoa, kuin jäljelle jäävään pinta-alaan mahtuu.

Olin alkuvaiheessa hyvinkin innostunut noista tensoriytimistä, mutta nyt näyttää siltä ettei niille ole tulossa mitään käyttöä sen paremmin hyötyohjelmissa kuin peleissäkään.
No peleistä en tiedä mutta kyllä sille hyötyohjelmissa käyttöä löytyy.
 
Liittynyt
18.01.2017
Viestejä
791
No peleistä en tiedä mutta kyllä sille hyötyohjelmissa käyttöä löytyy.
Nvidian teknologiademot ja tutkimusprojektit eivät nyt ole ihan sitä, mitä hyötyohjelmalla tarkoitin. Kaipaisin jotakin vähän konkreettisempaa, vaikkapa videotoistimen, joka nostaa AI-superresoluutiotekniikkaa hyödyntämällä videon resoluutiota reaaliajassa 1080p -> 4k. Mikään DLSS-tasoinen blurrifiltteri ei kelpaa, vaan kuvanlaadun pitäisi oikeasti olla niin hyvä, että sitä olisi lähes mahdotonta erottaa aidosta 4k:sta.

Yksittäisiä (valo)kuvia editoitaessa tensoriytimiä ei käsittääkseni tarvita, ja laskenta (esim. tuo AI InPainting) voidaan tehdä tarpeeksi nopeasti myös tavallisilla cuda-ytimillä tai jopa CPU:lla.
 

Kaotik

Banhammer
Ylläpidon jäsen
Liittynyt
14.10.2016
Viestejä
21 448
TAA on antialiasing tekniikka ei sillä ole mitään tekemistä kohinan poistossa.
Ainakin Frostbitessä (BF5), SEEDissä (Pica Pica demo) ja Metrossa häiriönpoistossa hyödynnetään nimenomaan TAA:ta
Tensorcoret eivät ole aktiivisia rendauksessa kun DXR:ää käytetään. Kohina poistetaan tn. ihan mixed precision laskuilla, missä Turing on myös hyvä. DXR:n kuitenkin pitäisi toimia kaikilla näytönohjain valmistajilla, joten jos tuo kohinan poisto onnistuisi vain tensoreilla ei sillä juuri olisi tulevaisuutta.
Tensoreita voidaan käyttää kohinanpoistoon (NVIDIA OptiX AI), mutta mitenkään välttämätöntä se ei ole.
 
Liittynyt
04.11.2016
Viestejä
1 589
Nvidian teknologiademot ja tutkimusprojektit eivät nyt ole ihan sitä, mitä hyötyohjelmalla tarkoitin. Kaipaisin jotakin vähän konkreettisempaa, vaikkapa videotoistimen, joka nostaa AI-superresoluutiotekniikkaa hyödyntämällä videon resoluutiota reaaliajassa 1080p -> 4k. Mikään DLSS-tasoinen blurrifiltteri ei kelpaa, vaan kuvanlaadun pitäisi oikeasti olla niin hyvä, että sitä olisi lähes mahdotonta erottaa aidosta 4k:sta.

Yksittäisiä (valo)kuvia editoitaessa tensoriytimiä ei käsittääkseni tarvita, ja laskenta (esim. tuo AI InPainting) voidaan tehdä tarpeeksi nopeasti myös tavallisilla cuda-ytimillä tai jopa CPU:lla.
Samoin tuo resoluutio upskaalaus videoissa(madVR). Tarkoitin tuolla nyt lähinnä että tarjoavat SDK:ta halukkaille.

Jotenkin mennyt tuo TAAn käyttö kohinan poistossa täysin ohi. Mutta jooh ei se ainoa kohinan poistaja kuitenkaan ole(Eurogamer haastattelusta poimittuna):
We weight its importance based on how representative we think it is later. We then have a denoising pass (two actually) on this raw ray data, where we use the importance data, the history data, and the surrounding pixel data to fill in the blanks. That is just to get the ray data ready for light accumulation. We also do a final (third) denoising at the end of the frame along with TAA to clean up the final image.
 
Toggle Sidebar

Statistiikka

Viestiketjut
237 350
Viestejä
4 158 026
Jäsenet
70 410
Uusin jäsen
Eycte

Hinta.fi

Ylös Bottom