NVIDIA-spekulaatioketju (Lovelace ja tulevat sukupolvet)

Tuonne on ilmestynyt videoita. Katson kakkosta:
 
Jaa-a, nyt näyttää siltä, että julkaisussa on vain Quadro 8000, joka on pieni pettymys itselle, kun odotin pelinäytönohjaimia..
 
Kun nyt arvottiin GA102 vs pienemmät piirit, niin otetaan vertailun vuoksi kahdet edelliset XX102 vs XX104 parit, eli GP102 vs GP104, TU102 vs TU104.

MalliDie size (mm^2)Boost clock (MHz)Boost clock avg. per piirikoko
Titan Xp (GP102)47114051468
Titan X (GP102)47114171486
1080 Ti (GP102)47115821468
1080 (GP104)31417331733
1070 Ti (GP104)31416831733
1070 (GP104)31417831733
Titan RTX (TU102)75417701657,5
2080 Ti (TU102)75415451657,5
2080 Super (TU104)54518151745
2080 (TU104)54517101745
2070 Super (TU104)54517701745

TU104:n toteutunut 1657,5 MHz on noin 95,0% tuosta TU102:n 1745 MHz:sta.
GP104:n toteutunut 1468 Mhz on noin 84,7% tuosta GP102:n 1733 MHz:sta.
GA104:lle uumoiltu 2,2 GHz on 88,0% tuosta GA102:lle uumoillusta 2,5 GHz:sta ja tippuu aikalailla kahden edellisen sukupolven väliin tällä mittarilla.

Huomattakoon vielä että TU-piirien suhteellinen kokoero on pienempi kuin GP-piireillä. 72,3% suhde vs. 66,6% suhde.

En toki tiedä mitä "viimeaikoina" kullekin tarkoittaa, mutta kyllä musta kovasti näyttää siltä että "viimeaikoina" on ihan saman kokoluokan suhteellisia eroja ollut.

Taulukon piirikoot ja boost clockit täältä: List of Nvidia graphics processing units - Wikipedia
Älä viitsi. Tiedät kyllä mitä ne kellot on olleet. Yritätkö väittää että 2080 Ti tai 1080 Ti jää alle 1600 MHz? Tiedän kyllä millä kelloilla normaalit näyttikset toimii. Oikeasti. Jos jätetään kellotukset pois niin jossain 1800- 2000 MHz menään 2080 Ti malleilla helposti. Jopa FE pyörii siellä samoissa.
Avaappa hieman tuota taulukkoa. Siellä on piirikokoa kerrottu mikä ei kerro käytössä olevien cuda ytimien määrästä. Boost kelloa mikä ei kerro toteutuneista kelloista. Ja sitten lopuksi vielä jotain keskiarvoa?
Toki olet oikeassa siinä mikä noiden piirien potentiaali on jos kellottamaan lähdetään, kaupasta ostetut näytönohjaimet ei vaan mene sen mukaan.
 
Viimeksi muokattu:
Olihan toi lähestulkoon satavarma homma et pelikortteja ei tässä tapahtumassa nähdä. Ite toisaalta tän tiedostaen silti kävin kurkkaamassa et jospa sittenkin, mutta ei sentään tarvinnu pettyä kun niitä ei odottanukkaan.

Katellaan elokuussa sitten, 1080ti pitäs saada jo lomalle, toivottavasti edes julkasevat Ti:n samalla niin ei tartte jäädä odottelemaan sitä sit jälkijunaan.
 
Älä viitsi. Tiedät kyllä mitä ne kellot on olleet. Yritätkö väittää että 2080 Ti tai 1080 Ti jää alle 1600 MHz? Tiedän kyllä millä kelloilla normaalit näyttikset toimii. Oikeasti. Jos jätetään kellotukset pois niin jossain 1800- 2000 menään 2080 Ti malleilla helposti. Jopa FE pyörii siellä samoissa.
Avaappa hieman tuota taulukkoa. Siellä on piirikokoa kerrottu mikä ei kerro käytössä olevien cuda ytimien määrästä. Boost kelloa mikä ei kerro toteutuneista kelloista. Ja sitten lopuksi vielä jotain keskiarvoa?

Kaikki yli noiden listattujen lukemien on korttivalmistajien omia ylikellotuksia, ei mitään piirien virallisia kelloja. Ja miksi sitten boost clock, eikä base clock? No siksi kun se TPU:n väite koski boost-kelloja.

Kokoajan on ollut puhetta siitä miten piirin koko vaikuttaa niihin kelloihin. Ei miten CUDA-ydinten määrä vaikuttaa kelloihin.

Ja luonnollisesti kun korteista on useampaa mallia samalla piirillä, pitää saman kokoisista piireistä vetää keskiarvoina se tieto yhteen eikä vaan cherrypickailla niitä mitkä sattuu parhaiten omaa näkemystä tukemaan.

Eli, lopeta maalitolppien siirtely ja hyväksy se tosiasia että keskimäärin suuremmilla piireillä ne kellot on pienempiä. Ja ne on vielä suhteessa samaa luokkaa pienempiä kuin tuo aiempi 2,2 GHz vs 2,5 GHz epäily.
 
Viimeksi muokattu:
Jaa-a, nyt näyttää siltä, että julkaisussa on vain Quadro 8000, joka on pieni pettymys itselle, kun odotin pelinäytönohjaimia..
Miksi ihmeessä Nvidia olisi julkaissut pelinäyttiksen nyt? Ei siinä olisi mitään järkeä, kun niillä on jo kovimmat näyttikset. Ne odottaa mitä AMD lyö tiskiin ja sen jälkeen julkaisevat perään vähän paremmat mallit jos(kun) pystyvät. Ei olisi mitään järkeä niiden lähteä antamaan kilpailuetua AMD:lle ja julkaista ennen AMD:tä korttejaan.
 
Herrajumala miten iso piiri sieltä tule TSMC:n 7nm nodella.


826 neliömilliä ?!

Montakohan tuhatta dollaria per täysin toimiva piiri tsmc joutuu laskuttamaan :D
 
Jäi vielä täysin mysteeriksi Amperen RT kyvyt/uudistukset. A100:ssa ei ole RT coreja (disabloitu?).

Oiskohan sitten siggraphissa heinäkuussa RT:stä jotain.
 
Voi hyvin olla, ettei Amperessa edes ole RT ytimiä. Ainakaan tässä versiossa. Voi myös olla, että ne kuluttajalle suunnatut kortit eivät tule koskaan perustumaan Ampereen.

Ellei nahkatakki toisin sanonut. Ja itseasiassa taisikin sanoa, että kaikki tulevat perustumaan Ampereen.
 
Voi hyvin olla, ettei Amperessa edes ole RT ytimiä. Ainakaan tässä versiossa. Voi myös olla, että ne kuluttajalle suunnatut kortit eivät tule koskaan perustumaan Ampereen.
Kyllä näyttäis tulevan Ampere myös Geforceihin:

 


Tuossa vielä tuo A100:n julkaisuvideo. Mielenkiintoinen myös siten että ensimmäinen uudella prosessilla julkastu piiri on kaikista suurin.
 
Kaikki yli noiden listattujen lukemien on korttivalmistajien omia ylikellotuksia, ei mitään piirien virallisia kelloja. Ja miksi sitten boost clock, eikä base clock? No siksi kun se TPU:n väite koski boost-kelloja.

Kokoajan on ollut puhetta siitä miten piirin koko vaikuttaa niihin kelloihin. Ei miten CUDA-ydinten määrä vaikuttaa kelloihin.

Ja luonnollisesti kun korteista on useampaa mallia samalla piirillä, pitää saman kokoisista piireistä vetää keskiarvoina se tieto yhteen eikä vaan cherrypickailla niitä mitkä sattuu parhaiten omaa näkemystä tukemaan.

Eli, lopeta maalitolppien siirtely ja hyväksy se tosiasia että keskimäärin suuremmilla piireillä ne kellot on pienempiä. Ja ne on vielä suhteessa samaa luokkaa pienempiä kuin tuo aiempi 2,2 GHz vs 2,5 GHz epäily.
Eipä vaan ole suuremmilla piireillä ne kellot pienempiä. 2060S/2070S artikkeli.
Olisi jos ne kellot laitettaisiin esim. 90% maksimista tai muuten sen mukaan millaisiin kelloihin GPU pystyy. Mutta paremmista (kalliimmista) malleista otetaan enemmän irti ja halpamalleja tahallisesti rajoitetaan enemmän. (tämä ei koske TITAN malleja, ne ovat yleensä vähän pienemmillä kelloilla jos oikein muistan).
Nvidian boost kellot ei kerro mitään todellisista kelloista pelatessa ja sama kehitys on nähtävissä niin punaisella puolella kuin prosessoreissakin up to kelloina. TPU:n artikkelia lukematta väitän ettei siellä oikeasti uskota että GA102 boost kellot olisi 2,2GHz yläpuolella vaan ne toteutuneet kellot olisi siellä. Ja siinä on iso ero jos mennään samalla suhteella kuin nykyisissä.
Myös nVidian 2080 Ti FE, ( joka on käytännössä oc-malli, eli pyytää kelloja yli ns. referenssi boost taajuuden. 1545MHz/1635MHz ) menee yli 1800MHz pelatessa. Mikä kortti sitten noudattaa niitä virallisia kelloja?
Kuten sanoin jo niin olet oikeassa siinä että piirin koko tai oikeastaan käytössä oleva ydinmäärä vaikuttaa niihin kelloihin mitä saadaan, mitä enemmän ytimiä lämmittämässä niin sitä vähemmän kellotaajuutta. Ja syynä on lähinnä lämpöongelmat jotka pahenee kun viivanleveys pienenee tai ytimien määrä kasvaa.
Käytännössä se vaan ei näy kaupan valikoimassa koska jonnet saattaisi ihmetellä kun halvemmassa on enemmän MHz tai GHz, jopa enemmän GB joissakin erikoismalleissa.
 
Jaa-a, nyt näyttää siltä, että julkaisussa on vain Quadro 8000, joka on pieni pettymys itselle, kun odotin pelinäytönohjaimia..
Ei ollut mitään Quadrojakaan vaan pelkkä A100 ja siihen perustuvat DGX ja HGX. (eikä "Quadro 8000" vastaava tule olemaan tuohon perustuva muutoinkaan)

Tuon A100:n kellotaajuus on ~1,41 GHz.
edit: eikun eipäs olekaan, hetki pieni pitää tarkistaa laskut :D
edit2: onpas. 19,5 TFLOPS 6192 ytimellä teki ainakin nopealla laskulla ~1,41 GHz.
 
Eipä vaan ole suuremmilla piireillä ne kellot pienempiä. 2060S/2070S artikkeli.
Olisi jos ne kellot laitettaisiin esim. 90% maksimista tai muuten sen mukaan millaisiin kelloihin GPU pystyy. Mutta paremmista (kalliimmista) malleista otetaan enemmän irti ja halpamalleja tahallisesti rajoitetaan enemmän. (tämä ei koske TITAN malleja, ne ovat yleensä vähän pienemmillä kelloilla jos oikein muistan).
Nvidian boost kellot ei kerro mitään todellisista kelloista pelatessa ja sama kehitys on nähtävissä niin punaisella puolella kuin prosessoreissakin up to kelloina. TPU:n artikkelia lukematta väitän ettei siellä oikeasti uskota että GA102 boost kellot olisi 2,2GHz yläpuolella vaan ne toteutuneet kellot olisi siellä. Ja siinä on iso ero jos mennään samalla suhteella kuin nykyisissä.
Myös nVidian 2080 Ti FE, ( joka on käytännössä oc-malli, eli pyytää kelloja yli ns. referenssi boost taajuuden. 1545MHz/1635MHz ) menee yli 1800MHz pelatessa. Mikä kortti sitten noudattaa niitä virallisia kelloja?
Kuten sanoin jo niin olet oikeassa siinä että piirin koko tai oikeastaan käytössä oleva ydinmäärä vaikuttaa niihin kelloihin mitä saadaan, mitä enemmän ytimiä lämmittämässä niin sitä vähemmän kellotaajuutta. Ja syynä on lähinnä lämpöongelmat jotka pahenee kun viivanleveys pienenee tai ytimien määrä kasvaa.
Käytännössä se vaan ei näy kaupan valikoimassa koska jonnet saattaisi ihmetellä kun halvemmassa on enemmän MHz tai GHz, jopa enemmän GB joissakin erikoismalleissa.

Niin no kellot ei tietenkään noudattele mitään lakeja jos niitä keinotekoisesti rajoitetaan. Tämä nyt ei varmaan tule yllätyksenä kenellekään?

Ja kun tarkastellaan noita suurimpia (normi tallaajille tarkoitettuja) piirejä XX102 ja XX104, mille nuo kiistakapulana olleet 2,2 GHz ja 2,5 GHz oli heitetty, niin niitä nyt ei keinotekoisesti rajoiteta, vaan pelataan juuri niillä piirikoosta aiheutuvilla säännöillä epätäydellisyyksien ja lämmöntuoton kanssa.

Jos keskustellaan piirien kelloista, niin ei voi yhtäkkiä vaan vaihtaa puheenaihetta taajuuksiin ylikellotettuina. Sehän olisikin siistiä kun olisi jotain luotettavaa tietoa eri piirien oikeista toteutuvista ylikellotuksista. Valitettavasti sellaisia ei vaan ikinä tulla saamaan, koska piirejä binnataan niin monessa eri vaiheessa, julkisuuteen raportoidaan lähinnä vain ne kovaa kulkevat tapaukset, yms yms.
 
Joo-o, nyt kyllä kävi niin, että olin käsittänyt asiat ihan väärin ja odotin liikoja. Katsotaan syksyllä uudestaan. Lompakkoni olisi ollut valmis ja GTX 1080 odottanut päivitystä.
 
Alkaa näyttää tää GV100:kin aika tuhnulta kyllä tohon A100 verrattuna. Onneksi on kuitenkin jo maksanut itsensä takaisin niin ei ees harmita.
 
Pelien yleisimmin käyttämä FP32 on 24% parempi mitä V100 piirillä. Vastaavasti jos kertoo shaderytimet kellotaajudella ja vertaa sitä V100 piiriin, niin tulee myös tuo 24% ero. Sillä puolella ei vaikuttaisi olevan IPC parannusta.

FP16 laskuteho on tuplaantunut, jos korjataan tuo core/kello ero pois. Se on kova uudistus. Uudet pelit käyttää sitä jonkin verran, joten se alkaa jo näkyä pelisuorituskyvyssä.

Edelleen jos katsoo FP32 suorituskykyä, niin TDP kasvoi 33% ja teho 24%. Noin jos katsoo videocardzin speksejä. Ainakin noiden perusteella Amperessa olisi todellakin laitettu ihan kaikki paukut konesalien kaipaamaan laskentakykyyn, joka on polttanut 7nm parannuksen. 2.5x transistoreita ja nuo konesalien kaipaamat laskentatavat on aika brutaaleja.

Eiköhän kuluttajaversio Amperesta ole aika rajusti leikattu versio tuosta arkkitehtuurista, ei tuota pelipuolen kannalta turhaa laskentakykyä kannata mukana kuljettaa. Tekevät piireistä kalliita tehoihin nähden ja ovat haitaksi perf/w vertailussa.

Edit: Olihan sitä päivitysuutistakin tullut:

"Both Ampere Tesla and Ampere GeForce will have different configurations. Tesla is likely to focus on compute oriented calculations (FP8/FP16 and FP64), while gaming series can benefit from faster FP16/32 cores. Jensen confirmed that the architecture will remain the same, but GPU configurations will be different for both markets. "
 
Viimeksi muokattu:


Tuossa vielä tuo A100:n julkaisuvideo. Mielenkiintoinen myös siten että ensimmäinen uudella prosessilla julkastu piiri on kaikista suurin.


Eipä se nyt niin yllätys ole kun datacenterit on kyltymättömiä laskentatehon kanssa ja Voltasta on jo aikaa. Lisäksi toi 7nm node on kyllä jo kypsynyt ja käsittääkseni sillä on saannot erinomaiset.

edit2: onpas. 19,5 TFLOPS 6192 ytimellä teki ainakin nopealla laskulla ~1,41 GHz.

19500/2/6192= ~1,57GHz vai mujistanko jotain väärin?

EDIT: Jaah kaotikilla oli väärin cuda määrä, se on 6912 jolloin tulee toi ~1,41GHz
 
Viimeksi muokattu:
Turhaan laskeskelette, ihan suoraan kertovat, että 1410 MHz :)


Ja TDP 400W...
Juu en ollut tuota vielä bongannut tuossa vaiheessa, mutta laskin oikein kuitenkin vaikka viestissä typotin 6912 > 6192 :D
 
Niin no kellot ei tietenkään noudattele mitään lakeja jos niitä keinotekoisesti rajoitetaan. Tämä nyt ei varmaan tule yllätyksenä kenellekään?

Ja kun tarkastellaan noita suurimpia (normi tallaajille tarkoitettuja) piirejä XX102 ja XX104, mille nuo kiistakapulana olleet 2,2 GHz ja 2,5 GHz oli heitetty, niin niitä nyt ei keinotekoisesti rajoiteta, vaan pelataan juuri niillä piirikoosta aiheutuvilla säännöillä epätäydellisyyksien ja lämmöntuoton kanssa.

Jos keskustellaan piirien kelloista, niin ei voi yhtäkkiä vaan vaihtaa puheenaihetta taajuuksiin ylikellotettuina. Sehän olisikin siistiä kun olisi jotain luotettavaa tietoa eri piirien oikeista toteutuvista ylikellotuksista. Valitettavasti sellaisia ei vaan ikinä tulla saamaan, koska piirejä binnataan niin monessa eri vaiheessa, julkisuuteen raportoidaan lähinnä vain ne kovaa kulkevat tapaukset, yms yms.
Ok. Kiitos muuten asiallisista vastauksista. Se ei aina ole itsestään selvää edes tällä foorumilla.
Itse asiaan palatakseni uskon edelleen että kellotaajuudet tulee nousemaan sinne 2.2GHz mutta ei halvemmilla mennä yli huippumallien tälläkään kertaa.
 
Mielenkiintoista huomata, että nVidian A100-piirejä käyttävässä DGX A100 -kokoonpanossa käytetään 2x AMD EPYC 7742-piirejä (2x64 core). Ei siis esim. Intelin prosessoreita.
Kokoonpano on aika vakuuttava:
- 2x AMD EPYC 7742 64-core/128-threads
- 8x NVIDIA A100 GPU, joissa yhteensä 320 GB HBM2E-muistia (8x 40 GB, 6144-bittinen muistiväylä)
- 8-port Mellanox ConnectX 200 Gbps InfiniBand NIC
- 1 TB of hexadeca-channel (16-channel) DDR4 memory (tässä on kyllä laskettu kahden EPYCin 8-kanavaiset muistiväylät yhteen)
- 2x 1.92 TB NVMe gen 4.0 SSDs
- 15 TB of U.2 NVMe drives (4x 3.84 TB units)
- Hinta: USD $199,000.

 
Tämmöinen tuli vastaan, luotettavuudesta en tiedä:




Poimintoja:
  • NVidia yrittää kompensoida ahtaaksi käymässä olevaa muistikaistaa käyttämällä tensoriytimiä VRAMin häviöttömään pakkaukseen


Häviöllisen pakkauksen olisin uskonut, häviötöntä en.

Häviötön pakkaus on sellaista kombinatoriikkaa ja puuhakua, jossa tensoriytimillä ei tee yhtään mitään.

Häviöllisessä pakkauksessa niillä sen sijaan olisi voinut olla käyttöä.

Voi olla, että huhiissa on perää mutta tuossa on vaan joku väärinymmärys ja kyse todellisuudesta häviöllisestä, mutta joku markkinamiespeelo taas vaan vähän liikaa hypettänyt jotain "melkein häviötöntä" tjsp .
 
Siellä saattaa olla tulossa toinenkin laskentasiru, Drive L5 "RoboTaxissa" näkyy kaksi GPU:ta, missä on 4 stackia HBM:ää per GPU, eli ei ole A100. Tai sitten siellä on nopeimman pelisirun kaverina HBM-muistia.
 
Turhaan laskeskelette, ihan suoraan kertovat, että 1410 MHz :)


Ja TDP 400W...

Jensen Huangin uunin sisällä oli kypsynyt saunan kiuas.

Kivasti jaksoi Huang taas hehkuttaa RTX:ää, ''we did it 10 years earlier than anybody thought'', vaikka pähkinänkuoressa Huangin ''RTX ON 2018'' hehkutusten jälkeen tuki edelleen kourallisessa pelejä, ja lähinnä muutamissa tuo oikeasti merkittävää lisäarvoa. Joo onhan tuo monella tapaa mullistava ominaisuus ja tekeminen varmasti aivan saakelin haastavaa, mutta tuo markkinointihehkutus aina särähtää korvaan. Hieno tulevaisuus tuossa RTX:ssä varmasti on. Ja DLSS 2.0 ottanut myös aika isoja harppauksia.
 
Jensen Huangin uunin sisällä oli kypsynyt saunan kiuas.

Kivasti jaksoi Huang taas hehkuttaa RTX:ää, ''we did it 10 years earlier than anybody thought'', vaikka pähkinänkuoressa Huangin ''RTX ON 2018'' hehkutusten jälkeen tuki edelleen kourallisessa pelejä, ja lähinnä muutamissa tuo oikeasti merkittävää lisäarvoa. Joo onhan tuo monella tapaa mullistava ominaisuus ja tekeminen varmasti aivan saakelin haastavaa, mutta tuo markkinointihehkutus aina särähtää korvaan. Hieno tulevaisuus tuossa RTX:ssä varmasti on. Ja DLSS 2.0 ottanut myös aika isoja harppauksia.
Nvidian raytracing toimii kuitenkin tällä hetkellä paremmin kuin muiden valmistajien ;) Mielestäni ei voi haukkua huonoksi kun ei ole mihin verrata.
 
Jensen Huangin uunin sisällä oli kypsynyt saunan kiuas.

Kivasti jaksoi Huang taas hehkuttaa RTX:ää, ''we did it 10 years earlier than anybody thought'', vaikka pähkinänkuoressa Huangin ''RTX ON 2018'' hehkutusten jälkeen tuki edelleen kourallisessa pelejä, ja lähinnä muutamissa tuo oikeasti merkittävää lisäarvoa. Joo onhan tuo monella tapaa mullistava ominaisuus ja tekeminen varmasti aivan saakelin haastavaa, mutta tuo markkinointihehkutus aina särähtää korvaan. Hieno tulevaisuus tuossa RTX:ssä varmasti on. Ja DLSS 2.0 ottanut myös aika isoja harppauksia.
Nvidian raytracing toimii kuitenkin tällä hetkellä paremmin kuin muiden valmistajien ;) Mielestäni ei voi haukkua huonoksi kun ei ole mihin verrata.
Kätevästi se Jensen (ja täälläkin suurin osa) unohtaa PowerVR:n säteenkiihdytysraudan mikä on ollut tarjolla jo vuosikaudet ja kiihdyttää enemmän askelia koko prosessista NVIDIAn RT-ytimiin verrattuna
 
Kätevästi se Jensen (ja täälläkin suurin osa) unohtaa PowerVR:n säteenkiihdytysraudan mikä on ollut tarjolla jo vuosikaudet ja kiihdyttää enemmän askelia koko prosessista NVIDIAn RT-ytimiin verrattuna

Miten hyvin tuo PowerVR:n rauta pyörittää esim. MineCraft RTX:ää tai Quake 2:sta?
 
Miten hyvin tuo PowerVR:n rauta pyörittää esim. MineCraft RTX:ää tai Quake 2:sta?
Ei se pyöritä, tietenkään. Eikä noita sen enempää ollut olemassa silloin kun PowerVR noita yritti ekaa kertaa puskea.
 
Olette varmaan nähneet jo UE5 enginen testivideon?

Reaaliajassa PS5 pyörittänyt sen 2560x1440 resolla, PC:llä kuulemma 2070S jaksaa saman demon reaaliajassa renderöidä.

Huomasitteko kuinka kaunista, varjot ja valaistuksetkin?

Pointtini on ettei ko. demo edes käytä yhtään Ray Tracingiä eli säteenseurantaa.
 
Ei se pyöritä, tietenkään. Eikä noita sen enempää ollut olemassa silloin kun PowerVR noita yritti ekaa kertaa puskea.
Eipä noita power vr:n tuotoksia ole ollut PC:lla saatavilla, joten kyse on ollut teoreettisesta, ei kiinnostavasta tuotteesta.

Nvidia loi mahdollisuuden ominaisuuden käyttöön PC puolella. Jos Nvidian RTX kortteja ei olisi ollut, niin eipä olisi kovinkaan mutkikkaita RT demoja / pelejä ulkona.

Ensin tarvitaan aina rauta, sitten voidaan suunnitella (ja käyttää) ohjelmistoa..
 
Olette varmaan nähneet jo UE5 enginen testivideon?

Reaaliajassa PS5 pyörittänyt sen 2560x1440 resolla, PC:llä kuulemma 2070S jaksaa saman demon reaaliajassa renderöidä.

Huomasitteko kuinka kaunista, varjot ja valaistuksetkin?

Pointtini on ettei ko. demo edes käytä yhtään Ray Tracingiä eli säteenseurantaa.

Niin 2070s jaksaa sen 30FPS pyörittää siis, koska ko. demo oli 30FPS. Yksikään 2000 sarjan korrti ei jaksasisi sitä pyörittää 60 FPS. Todennäköisesti vaatisi jonkun 3080 kortin, että päästäisiin tuissa demossa sonne 60FPS lukemiin.

Jos 3000 sarjan RTX rauta on niin tehokasta, kun povataan ja luvataan, niin ko. korteilla tuo Global Illuminationin laskenta voisi olla jopa tehokkaampaa hoitaa Ray Tracingilla tuon lumenin sijaan, tuossa UE5:ssa.
 
Viimeksi muokattu:
Olette varmaan nähneet jo UE5 enginen testivideon?

Reaaliajassa PS5 pyörittänyt sen 2560x1440 resolla, PC:llä kuulemma 2070S jaksaa saman demon reaaliajassa renderöidä.

Huomasitteko kuinka kaunista, varjot ja valaistuksetkin?

Pointtini on ettei ko. demo edes käytä yhtään Ray Tracingiä eli säteenseurantaa.
Eiköhän tuo demo ole lähinnä maistiaisia mitä on tulossa joskus 5-10 vuoden sisällä. Epäilen että edes PS5:n rauta jaksaa pyörittää mitään tuollaista järkevillä FPS:lla. Demossakin oli "jännästi" fysikaat melko minimissä. Ai miksiköhän. :)
 
Eiköhän tuo demo ole lähinnä maistiaisia mitä on tulossa joskus 5-10 vuoden sisällä. Epäilen että edes PS5:n rauta jaksaa pyörittää mitään tuollaista järkevillä FPS:lla. Demossakin oli "jännästi" fysikaat melko minimissä. Ai miksiköhän. :)

Joo. Tässä on pari vuosikymmentä kaikenlaisia demoja nähty, aika harvoin se varsinainen gameplay on sitten kuitenkaan vastannut niitä upeita demoja. Eli uskotaan vasta kun nähdään. :smile:
 
Kätevästi se Jensen (ja täälläkin suurin osa) unohtaa PowerVR:n säteenkiihdytysraudan mikä on ollut tarjolla jo vuosikaudet ja kiihdyttää enemmän askelia koko prosessista NVIDIAn RT-ytimiin verrattuna
Tähän väliin kevennys, "PowerVR:n säteenkiihdytysrauta mikä on ollut tarjolla jo vuosikaudet kiihdyttää enemmän", on toki hauska mutta aikuisten oikeasti yrityksen säteenseurannan esittelyä ja paria messuvideota lukuun ottamatta powervr:n raudalla reaaliaikaisia pelejä ei ole pyöritelty. Markkinoilla on tällä hetkellä tasan yksi valmistaja jonka näytönohjaimilla homma toimii (joko raudalla kiihdytettynä tai softaversiona), ehkä amd (ja intel) pääsee powervr:n tasolle lähitulevaisuudessa eli gpu:n rt-rauta "kiihdyttää enemmän askelia koko prosessista NVIDIAn RT-ytimiin verrattuna".
 
Enemmänkin tuo demo vaikuttaa demolta massiivisesta supernopean SSDn käytöstä. PC:llä kysyisin "niin, paljonko tarvittiin keskusmuistia että 2070S ajoi tuon?"

En yllättyisi jos vastaus olis 64GB ja PCIE-väylä keskusmuistiin oli kovilla :D
 
Jos 3000 sarjan RTX rauta on niin tehokasta, kun povataan ja luvataan, niin ko. korteilla tuo Global Illuminationin laskenta voisi olla jopa tehokkaampaa hoitaa Ray Tracingilla tuon lumenin sijaan, tuossa UE5:ssa.
Jep, eikä sen RT-raudan tarvitse välttämättä edes erityisen tehokasta olla jos rautakiihdytettyä RTGI:täkin kehitetään edelleen. Nvidialla kehitteillä oleva RTXGI toteuttaa GI:n hyvin eritavalla kuin ensimmäiset RTGI-ratkaisut. Eräänlainen hybridiratkaisu jossa RT-raudan käyttöä voidaan skaalata tehokkaasti GPU:n suorituskyvyn mukaan ja RT-laskenta on näyttöresoluutiosta riippumaton.

Myös RTXGI on tulossa Unreal Engineen.
 
Nvidian raytracing toimii kuitenkin tällä hetkellä paremmin kuin muiden valmistajien ;) Mielestäni ei voi haukkua huonoksi kun ei ole mihin verrata.
Nvidian toteutus on paras mitä on saatavilla eikä se poista sitä, että tuhnuhan se vielä silti on. Kovat odotukset kuitenkin 3000-sarjalle tuon RT-väännön moninkertaistamisesta. Mikään +50% ei riitä.
 
Nvidian toteutus on paras mitä on saatavilla eikä se poista sitä, että tuhnuhan se vielä silti on. Kovat odotukset kuitenkin 3000-sarjalle tuon RT-väännön moninkertaistamisesta. Mikään +50% ei riitä.
Hyvinkin moneen RT kikkaan tuntuu olevan oikein riittävä.
 
Nvidian toteutus on paras mitä on saatavilla eikä se poista sitä, että tuhnuhan se vielä silti on. Kovat odotukset kuitenkin 3000-sarjalle tuon RT-väännön moninkertaistamisesta. Mikään +50% ei riitä.
Miten voit sanoa sitä tuhnuksi kun ei ole mitään mihin verrata? Olisiko se yhä tuhnu jos AMD:llakin olisi raytracing, joka aiheuttaa yhtä ison haitan fps:ään tai jopa suuremman?

Kyllä, raytracing on siltä kantilta huono, että se laskee fps:n usein liian matalalle, mutta se on silti parempi kuin muiden valmistajien tuotokset joita ei ole. Useampi vaihtoehto ei ole miinus.
 
Miten voit sanoa sitä tuhnuksi kun ei ole mitään mihin verrata? Olisiko se yhä tuhnu jos AMD:llakin olisi raytracing, joka aiheuttaa yhtä ison haitan fps:ään tai jopa suuremman?

Kyllä, raytracing on siltä kantilta huono, että se laskee fps:n usein liian matalalle, mutta se on silti parempi kuin muiden valmistajien tuotokset joita ei ole. Useampi vaihtoehto ei ole miinus.
Ei sillä ole väliä miten AMD asian tekee Nvidialla on menty jo monta vuotta ja seuraavakin on nvidia ellei jotain ihmeitä tapahdu, mutta vastaus kysymykseen on: kyllä olisi.

Tuhnun siitä tekee nimenomaan tuo raju fps droppi, eli ei riitä vielä kunnolla tuo RT-vääntö. Siksi odotan seuraavaan sukupolveen merkittävää boostia tuolle osa-alueelle.
 
Ei sillä ole väliä miten AMD asian tekee Nvidialla on menty jo monta vuotta ja seuraavakin on nvidia ellei jotain ihmeitä tapahdu, mutta vastaus kysymykseen on: kyllä olisi.

Tuhnun siitä tekee nimenomaan tuo raju fps droppi, eli ei riitä vielä kunnolla tuo RT-vääntö. Siksi odotan seuraavaan sukupolveen merkittävää boostia tuolle osa-alueelle.
Minäkin odotan huomattavaa lisäystä RT-tehoihin. Mutta mieleatäni RT on nytkin ihan ookoo. Nvidian käyttäjällä on kyky valita käyttääkö RT:llä vai ilman. Molemmissa hyvät ja huonot puolensa. RT on joka tapauksessa plussa oli se huonosti tai hyvin toimiva. Ymmärrän mitä haet takaa ja olen siinä kanssasi samaa mieltä.
 
DLSS 2.0:n kanssa RT on käyttökelpoinen niissä peleissä joissa tuki sille on.
 
RT on tulevaisuutta ja tulee paranemaan ja yleistymään.
RT on muutenkin valinnainen optio sitä tukevissa peleissä eli voi käyttää tai jättää käyttämättä.

Ehkä joskus vielä tulee tilanne että lukee joidenkin pelien vaatimuksissa RT ohjain pakollinen.
 

Statistiikka

Viestiketjuista
258 254
Viestejä
4 491 086
Jäsenet
74 171
Uusin jäsen
äänihaitta

Hinta.fi

Back
Ylös Bottom