NVIDIA-spekulaatioketju (Lovelace ja tulevat sukupolvet)

100% varmasti fiksu asiakas odottaa, että saadaan mahdollisimman paljon puolueettomia testejä FE ja AIB välillä ja dataa oikeilta käyttäjiltä jokapäiväisestä käytöstä.[

FE on Founder's Edition ja AIB on Add in Board... FE on siis AIB, mutta AIB:lla tarkoitetaan tässä tapauksessa varmaan siis kustomoitua AIB:ta, joka poikkeaa nVidian alkuperäisestä FE AIB:stä? ;)
 
Sinällään jännä kun Turingin INT32 yksiköistä kertoessa Nvidian kaveri kertoili miten uudemmat / monimutkaisemmat pelit alkaa käyttää enemmän ja enemmän INT laskentaa. Nyt kuitenkin "tuplattiin" FP laskentateho.


Ampere näköjään pystyy vaihtamaan int ja fp32 laskentaa tilanteen vaatiessa-- eli muuttamaan.
 
Onko nuo FE:t sellaisia, että Nvidia myy niitä nyt X määrän ja sitten niitä ei enää saa? Vai onko tuo vain mallinimi omille korteille joita myydään kaiken aikaa sen mukaan mitä tuotannosta saadaan? Kiinnostaisi tuo FE ulkonäön puolesta, mutta tekisi mieli odottaa AMDn vastine ja ne arvostelut korttien suorituskyvystä ennen kuin valitsee joko 3080 tai 3090.
 
FE on Founder's Edition ja AIB on Add in Board... FE on siis AIB, mutta AIB:lla tarkoitetaan tässä tapauksessa varmaan siis kustomoitua AIB:ta, joka poikkeaa nVidian alkuperäisestä FE AIB:stä? ;)
Fe on nvidian oma design ja AIb on nvidian partnerikortit virallinen termi ollut tämä.
msi,asus,galax,colorful,manli,evga,gigabyte on AIB partnerit.
ps. palit ja kfa myös ja unohtu gainward.
 
Viimeksi muokattu:
@Cirrus tuossa varmaan tarkoitti, että vaikka se RTX3080 näytönohjain hohkaisi 80'C lämpöisenä niin ei siihen ~24'C lämpöiseen ilmaan mikä virtaa siilen läpi kerkeä siirtyä kuin murto osa eli ei se lämmitä sitä ilmaa 80'C lämpöiseksi.
Ei sen ilman tarvitse lämmitä edes 50 asteiseksikaan ollakseen ongelma muisteille.
40 asteinen ambienttikin olisi jo haaste Samsung B-dielle, koska 50C on käytännössä niiden kestämä maksimilämpötila.

Ja vaikuttaapa ambientti reippaasti prossuunkiin.
Jos asetetaan prossun lämpötilatavoitteeksi vaikka 75C, niin 40C jäähdytysilmalla jäähdytys pitäisi hoitaa 35 asteen gradientin sisällä.
Huoneilman kanssa käytössä oleva gradientti olisi 50C.
Siitä tulee reipas ero jäähyn C/W vaatimukseen.
 
Videocardz.com--- rtx3080 performance 168% vs 2080 in cuda and opencl benchmarks.
40% vs 2080ti

jaaha....
 
Viimeksi muokattu:
Osuus kokonaislämpövuosta ei varmasti ole kuin maks kolmannes.
Tuon takana olevan tuulettimen jäähdyttämän rivaston lämmöistä luokkaa puolet pyrkii koteloon sisään:
NVIDIA GeForce RTX 3080 heatsink leaked - VideoCardz.com
Eli vaikka se rivaston osa hoitaisikin hieman yli puolet lämmön ilmaan haihduttamisesta ollaan edelleen kolmanneksessa kokonaislämpöenergian poistamisessa kotelosta.

Tuulettimen sijoittaminen jäähyn keskiosaan puhaltamaan ilmaa ulos tuulettimen nykyisen sijainnin kohdalla olevan täysipaksuisen rivaston läpi olisi ollut paljon tehokkaampi poistamaan lämpö kotelosta.

Ja lämpöputket ovat todella tehokkaita siirtämään lämpöä matkan päähän.


Luin aluksi että tarkoitit 50% näytönohjaimen puhaltamasta ilmasta siirtyvän ulos kotelosta, mutta ilmeisesti tarkoititkin että 50% takatuulettimen puhaltamasta ilmasta voisi optimistisesti katsottuna siirtyä ulos. Eli tasaisesti jakautuessaan 25% lämpökuormasta poistuisi näytönohjaimen kautta suoraan kotelon takapuolelle, ja loput 75% jäisi pyörimään koteloon sisään.

Lämpöputket siirtävät varmasti lämmön tehokkaasti, mutta sen jälkeen lämmön tulee johtua siileille lähinnä konduktion kautta. Veikkaan että sirun päällä on huomattavasti voimakkaampaa konduktiota siiliin, kuin sivussa pelkillä lämpöputkien kautta. Mutta tuohon varmasti tarvisi hyvän virtaussimuloinnin, millä saisi paikkaansapitävät mallinnukset lämpötilojen siirtymiselle.
 
Ei sen ilman tarvitse lämmitä edes 50 asteiseksikaan ollakseen ongelma muisteille.
40 asteinen ambienttikin olisi jo haaste Samsung B-dielle, koska 50C on käytännössä niiden kestämä maksimilämpötila.

Ja vaikuttaapa ambientti reippaasti prossuunkiin.
Jos asetetaan prossun lämpötilatavoitteeksi vaikka 75C, niin 40C jäähdytysilmalla jäähdytys pitäisi hoitaa 35 asteen gradientin sisällä.
Huoneilman kanssa käytössä oleva gradientti olisi 50C.
Siitä tulee reipas ero jäähyn C/W vaatimukseen.


En näe ongelmaa, koska etutuulettimilta tulevaan ilmaan tuo sekoittuu. Veikkaan että nostaa +-5'C tuossa muistien ja prossutuulettimelle menevää lämpötilaa kunhan pitää siirtotiet suorina ja lyhyinä. Tarvittaessa sitten kääntää tuon poistoilman muistien ohi jollain plexin palalla, jos siitä ongelmaa tulee muistien vakaudelle.

Tuossa uudessa jäähdytys toteutuksessa saadaan ne lämmöt suunnattua noihin suoriin ilmavirtoihin ja tästä on sitten omat hyötynsä.
 
Videocardz.com--- rtx3080 performance 168% vs 2080 in cuda and opencl benchmarks.
40% vs 2080ti

jaaha....

Jotenkin meh, odotin enemmän, oikeasti 100% hyppyä vs 2080. Nyt 40% edelliseen lippulaivaan on aika vaatimaton. Porukka tuntuu olevan ihan mehuissaan näistä pikkupäivityksistä nopeuksiin kun se todellinen näkyvä upgrade pitäisi olla reilusti isompi jos halutaan mennä useampi vuosi säätämättä asetuksia sinne mediumin suuntaan. Odotellaan nyt vielä laajempia revikoita.
 
Jotenkin meh, odotin enemmän, oikeasti 100% hyppyä vs 2080. Nyt 40% edelliseen lippulaivaan on aika vaatimaton. Porukka tuntuu olevan ihan mehuissaan näistä pikkupäivityksistä nopeuksiin kun se todellinen näkyvä upgrade pitäisi olla reilusti isompi jos halutaan mennä useampi vuosi säätämättä asetuksia sinne mediumin suuntaan. Odotellaan nyt vielä laajempia revikoita.
Onhan sitä se peli perf mitä näkee nvidian doom 2080ti vs 3080 videosta tai digital foundryn videosta, plus rtx perf missä saattaa nähdä sen 100% hypyn vs 2080.
 
Onneksi itsellä ei ole kiire myydä 2080ti halvalla :D
Olikos se vain FE versiot, joiden arvostelut tulee 14pv?
 
Fe on nvidian oma design ja AIb on nvidian partnerikortit virallinen termi ollut tämä.
msi,asus,galax,colorful,manli,evga,gigabyte on AIB partnerit.
ps. palit ja kfa myös ja unohtu gainward.

Jatketaan nyt vielä tätä Off Topicia: Niin, siis se on väärin käytetty nimitys toki. Nuo AIB partnerit valmistavat tietenkin myös FE-kortteja, minkä takia AIB:n väittäminen viralliseksi termiksi ei olekaan enää niin virallinen, vaan ainostaan se tavallisesti väärin käytetty termi.
 
Sinänsä DLSS:n kanssa riittäisi kun kaikki isoimmat (=raskaimmat) pelit olisi tuettuna, eli ei tarvitse jokaista kymmenestä tuhanneista vuosittain julkaistusta indiestä tukea. Harmittavasti tuo isoimmat pelit tuettuna on vielä kaukana todellisuudesta eikä siihen varmaan päästä. Jo pelkästään AMD sponsoroi vuosittain aina useampaa isoa julkaisua ja näihin tuskin kovin tasaisesti DLSS tukea tulee.

Hyviä pointteja. Sekä DLSS:n että RT:n tulevaisuuden kannalta tuo pelituki on yksi suurimpia kysymysmerkkejä. Nvidia tehnyt hyvää työtä ja antaa varmasti kaikki työkalut pelistudioille, mutta ei Nvidia voi sponsoroida kaikkia isoja pelifirmoja. Eikös toistaiseksi DLSS ole ollut vain ''Nvidia gameworks'' -leimalla varustetuissa peleissä?

Tuo DLSS ei mulle muutenkaan aivan täysin aukea. Eikö pointti ole käytännössä saada isot resoluutiot ''vähemmillä tehoilla''? Nyt kuitenkin Nvidia tuo pirun tehokkaita näytönohjaimia, joilla varmaan natiivi 4K hyvillä FPS:llä varmaan realismia? Kai tuo DLSS paljon muutakin sisältää, ja linkittyy jotenkin säteenseurantaan. Pitää jatkaa nettiopiskelua.
 
Tuo DLSS ei mulle muutenkaan aivan täysin aukea. Eikö pointti ole käytännössä saada isot resoluutiot ''vähemmillä tehoilla''? Nyt kuitenkin Nvidia tuo pirun tehokkaita näytönohjaimia, joilla varmaan natiivi 4K hyvillä FPS:llä varmaan realismia? Kai tuo DLSS paljon muutakin sisältää, ja linkittyy jotenkin säteenseurantaan. Pitää jatkaa nettiopiskelua.

Kaipa ajatuksena on, että pelit voivat näyttää entistä paremmilta 4K:ssa ja FPS pysyy silti hyvänä näillä uusilla näytönohjaimilla. "Natiivi 4K" Minecraftissa ja jossain Cyberpunk 2077:ssa on vähän eri asia suorituskyvyn kannalta.
 
Tuo DLSS ei mulle muutenkaan aivan täysin aukea. Eikö pointti ole käytännössä saada isot resoluutiot ''vähemmillä tehoilla''? Nyt kuitenkin Nvidia tuo pirun tehokkaita näytönohjaimia, joilla varmaan natiivi 4K hyvillä FPS:llä varmaan realismia? Kai tuo DLSS paljon muutakin sisältää, ja linkittyy jotenkin säteenseurantaan. Pitää jatkaa nettiopiskelua.
DLSS tarkoittaa matalammalla resoluutiolla renderöintiä ja skaalaamista korkeammalle resoluutiolle tekoälyverkon avulla hyödyntäen paria viimeistä framea ja niiden tietoja, jotta lopputulos muistuttaisi mahdollisimman lähelle natiivia. Tekoälyverkon pohjana on malli mille on opetettu "perustotuuksia" mitkä on renderöity selvästi korkeammalla resoluutiolla ja "täydellisellä reunojenpehmennyksellä". Ei liity säteenseurantaan mitenkään, aiheuttaa kuvaan artifakteja mitkä ovat joillekin isompi ongelma, toisille ei ongelma lainkaan.
 
DLSS tarkoittaa matalammalla resoluutiolla renderöintiä ja skaalaamista korkeammalle resoluutiolle tekoälyverkon avulla hyödyntäen paria viimeistä framea ja niiden tietoja, jotta lopputulos muistuttaisi mahdollisimman lähelle natiivia. Tekoälyverkon pohjana on malli mille on opetettu "perustotuuksia" mitkä on renderöity selvästi korkeammalla resoluutiolla ja "täydellisellä reunojenpehmennyksellä".

Tämä selvä! Jossain Nvidian markkinointi slaidissa oli maininta ''2k rendering up to 8k''. Aika kova potentiaali, mutta oisko toteutus ainoastaan RTX 3090 heiniä. Ja 4k varmaan riittää resoluutiona vielä pitkään.

Kaipa ajatuksena on, että pelit voivat näyttää entistä paremmilta 4K:ssa ja FPS pysyy silti hyvänä näillä uusilla näytönohjaimilla. "Natiivi 4K" Minecraftissa ja jossain Cyberpunk 2077:ssa on vähän eri asia suorituskyvyn kannalta.

Näin olen itsekin kuluttajan näkökulmasta ymmärtänyt. Kun tuon kehittely on aloitettu, niin varmaan Nvidiallekkin joku 4k-natiivi on ollut siinä vaiheessa vielä ''täysin tekemätön paikka''.
 
Ihan mielenkiintoista olisi nähdä miltä tuo Control esim. näyttää 8k resolla. Tuo 3090 ajetut testit kun on DLSS päällä ja on ihan hivenen harhaanjohtavaa puhua 8k resoluutiosta jos itse peli pyörii 1440p resolla ja sitten se skaalataan 9x kertoimella 8k resoluutioon. Kertoo aika hyvin toki 8k gamingin osalta markkinointitermistä jos 3090 kortilla peli pyörii natiivina 7fps lukemilla.
 
Tuo DLSS ei mulle muutenkaan aivan täysin aukea. Eikö pointti ole käytännössä saada isot resoluutiot ''vähemmillä tehoilla''? Nyt kuitenkin Nvidia tuo pirun tehokkaita näytönohjaimia, joilla varmaan natiivi 4K hyvillä FPS:llä varmaan realismia?
Natiivi 4k 60fps tulee olemaan Ampereillekin haaste. Esim. RDR2 ja Control ilman säteenseurantaakin jää alle 50fps:n 2080 Ti:llä. Säteenseurannan kanssa Control tippuu alle 30fps:n.

DLSS:lle tulee käyttöä ihan 1440p 144hz ja 4K 60hz monitoreillakin, 4k 144hz ja muista huippunäytöistä puhumattakaan.
 
8K alkaa olemaan muutenki jo sellainen resoluutio monitoreille, että kuka tuota tarvitsee, täytyy olla joku vähintään 100" ruutu kotona että noista pikseleistä hyötyy :D...

Pikselitiheydestä ja DLSS:stä:

Olennaisuus riippuu niin paljon siitä mitä ruudulla tekee. Työpöytäkäytössä istuen ruudun edessä pöydän ääressä, soisi DPI:n olevan mahdollisimman korkea, koska tekstistä ja pienistä elementeistä mitä ruutu on pullollaan havaitsee kyllä kasvaneen terävyyden.
Pelejä taas ei sovi niputtaa yhdeksi nipuksi, sillä vauhdikkaassa rallipelissä et kerkeä tuijottelemaan yksityiskohtia laisinkaan, mihin DLSS sopisi kuin nenä päähän, mutta visuaalisessa pelissä kuten Skyrim missä saatat jäädä tuijottelemaan maisemia, et halua karsia yksityiskohdista lainkaan. Kaikissa peleissä missä ihastellaan grafiikkaa rauhassa ja missä nenä työnnetään kiinni johonkin objektiin mitä tarkastellaan, et halua karsia kuvanlaadusta. DLSS ei ole kotonaan tällaisissa peleissä, sillä tavoitehan sen avulla on vain kasvattaa ruudunpäivitystä minimaalisella kuvanlaadun häviöllä.
Nopeatempoisiin peleihin missä kamera heiluu edes takaisin DLSS sopii hyvin ja ehkä televisiolta pelaamiseen, sillä isosta ruudusta huolimatta ei ihminen voi kovin kaukaa tarkastella yksityiskohtia helposti. Saavutettu korkeampi ruudunpäivitys voi myös auttaa hitusen osumatarkkuudessa - sulavuudesta itsessään ei ole koskaan haittaa.
Puhelimissakin pikselitiheyskeskustelu on olennainen vain silloin kun tiedämme kuinka läheltä käyttäjä näyttöä tuijottaa. Jos pitää käden lähes suorana, jotta ruutu olisi niin kaukana kuin mahdollista silmistä, se on melko sama onko näyttö 1080p:tä tarkempi, mutta tiedän kyllä ihmisiä ketkä nappaavat kännykän yllättävän lähelle naamaa, jolloin pikselitiheys voi ollakin myyntivaltti.

8K:lle on ehdottomasti paikkansa, mutta pelaamisessa siitä lienee eniten hyötyä isolla yli 30" monitorilla joka on varsin lähellä kasvoja. Pelaaminen ei tosin varsinkaan kilpamielessä ole tuolla tavalla mielekästä, kun parasta olisi aina nähdä ruudun kaikki osat selvästi päätä kääntelemättä tai silmiä pyörittelemättä.

MUOK. olipas monta virhettä :O
 
Viimeksi muokattu:
Hankala keksiä tilannetta interaktiivisen median kanssa missä ottaisin 8k 60fps - 4k 144fps sijasta.
Eiköhän se ole vain markkinointia koska se 8k maininta kääntää päitä ja käytännössä juuri kukaan ei käytä yli 4k resoja. Toki sitten on ultrawidet.
 
Hankala keksiä tilannetta interaktiivisen median kanssa missä ottaisin 8k 60fps - 4k 144fps sijasta.
Eiköhän se ole vain markkinointia koska se 8k maininta kääntää päitä ja käytännössä juuri kukaan ei käytä yli 4k resoja. Toki sitten on ultrawidet.

Pidän 8K:ta monitoreissa täysin turhana. Sen ainoa tarkoitus on luoda uusi markkinoitava luokka, vaikka käytännön hyödyt niin televisioissa kuin monitoreissa ovat olemattomia.

Tällaisille resoluutioille on silti ihan oikeaakin tarvetta: VR-sovelluksissa. VR-laseilla mikään pikselitiheys ei ole liioittelua, ja DLSS:n kaltaiset suorituskykyoptimoinnit ovat erittäin tärkeitä, jotta päästään tarvittaviin korkeisiin virkistystaajuuksiin.
 
Btw, mitenköhän Win10 (ja esim Blender?) tukee useampia kortteja?
1080 päivittyy 3080:ksi, mietin että 1080 tuskin saa ropoja enempää niin löytyykö mistään pro ohjelmasta (Blender, Adobe, RealityCapture ect) tukea useammalle kortille nykyään vieläkään? Jos virtalähde antaisi periksi niin fantasioin että jättäisi molemmat koneeseen puksuttumaan..

Blender osaa hyödyntää ainakin cuda kortteja lähestulkoon lineaarisesti. Scenen kokoa rajoittaa pienimmällä VRAM määrällä oleva kortti.
seuraava pätkä on konkreettinen melko tuore (2080ti) blender testi noin puolen vuoden takaa.

 
Pidän 8K:ta monitoreissa täysin turhana. Sen ainoa tarkoitus on luoda uusi markkinoitava luokka, vaikka käytännön hyödyt niin televisioissa kuin monitoreissa ovat olemattomia.

Televisioissa koen sen turhana ellei asu jossain kartanossa jossa 77+ tuuman telkkarissa on jotain järkeäkin, mutta muuten etäisyys on yleensä sen verran iso, että 4K riittää vallan mainiosti.

Sen sijaan tietokonenäytössä 8K olisi vallan mainio. Pirun tarkka kuva työpöydällä, enemmän integer scaling mahdollisuuksia peleissä. 4K tai 1440p onnistuisi. Tuohon vielä DLSS kaveriksi ja yhtäkkiä 8K käyttäminen onkin ihan toimiva ratkaisu. Esim. ottaisin heti 8K version tästä nykyisestä LG CX 48" ruudusta.
 
Minulla on 27-tuumainen 4k-näyttö, ja käytin aiemmin töissä iMaciä, jossa on 27-tuumainen 5k-näyttö (5120x2880). Eron terävyydessä noiden näyttöjen välillä huomasi vielä selkeästi. iMacin pikselitiheydellä 8k-näyttö olisi 40,5-tuumainen, eikä tunnu mitenkään mahdottomalta ajatukselta, että sellainen olisi tässä työpöytänäyttönä. Pöytätilaa vain tarvitsisi vähän lisää.
 
Juu varmasti työkäytössä voi olla vaikka 16k resoluution monitori, mutta peleille kyllä aivan turhaa.
 
Jatketaan nyt vielä tätä Off Topicia: Niin, siis se on väärin käytetty nimitys toki. Nuo AIB partnerit valmistavat tietenkin myös FE-kortteja, minkä takia AIB:n väittäminen viralliseksi termiksi ei olekaan enää niin virallinen, vaan ainostaan se tavallisesti väärin käytetty termi.
no jos löydät fe kortteja vaikka msi.ltä niin kova juttu. löytyyköhän nvidian omalla tuuletinratkaisulla?
50 sixty ot.
 
Viimeksi muokattu:
Jatketaan nyt vielä tätä Off Topicia: Niin, siis se on väärin käytetty nimitys toki. Nuo AIB partnerit valmistavat tietenkin myös FE-kortteja, minkä takia AIB:n väittäminen viralliseksi termiksi ei olekaan enää niin virallinen, vaan ainostaan se tavallisesti väärin käytetty termi.
Eivät valmista.
Valmistivat joskus aiemmin "referenssiversioita" ja sittemmin myös Founders Editioneita jotka olivat vain oman aikansa referenssiversioita, mutta nykyään RTX 20 -sarjasta lähtien NVIDIA on aloittanut kilpailemaan ihan suoraan AIB-valmistajia vastaan noille FE-korteillaan ja ne ovat ihan NVIDIAn oma yksinoikeustuote siinä missä vaikka Strix-mallit on Asuksen.
(toki NVIDIA edelleen valmistuttaa ne jollain ulkopuolisella valmistajalla, todennäköisesti Foxconnilla, mutta se on ihan normaalia eikä kaikki AIB-valmistajatkaan oikeasti valmista korttejaan itse)
 
Toki löytyy:
Niin, tuolloin Founders Edition oli vain hieno nimi referenssille. RTX 20 -sarjasta lähtien se on NVIDIAn oma korttisarja millä se kilpailee AIB-valmistajia vastaan eikä niitä myydä minkään muun merkin alla.
 
Eivät valmista.
Valmistivat joskus aiemmin "referenssiversioita" ja sittemmin myös Founders Editioneita jotka olivat vain oman aikansa referenssiversioita, mutta nykyään RTX 20 -sarjasta lähtien NVIDIA on aloittanut kilpailemaan ihan suoraan AIB-valmistajia vastaan noille FE-korteillaan ja ne ovat ihan NVIDIAn oma yksinoikeustuote siinä missä vaikka Strix-mallit on Asuksen.
(toki NVIDIA edelleen valmistuttaa ne jollain ulkopuolisella valmistajalla, todennäköisesti Foxconnilla, mutta se on ihan normaalia eikä kaikki AIB-valmistajatkaan oikeasti valmista korttejaan itse)

Joo, eivät varmasti valmista kaikkia ja kaikista malleista ja kaikki valmistajat eivät FE malleja tietenkään koskaan valmistakaan tai ole valmistaneetkaan. Pointti oli se, että AIB ei ole sama asia kuin custom.
 
Joo, eivät varmasti valmista kaikkia ja kaikista malleista ja kaikki valmistajat eivät FE malleja tietenkään koskaan valmistakaan tai ole valmistaneetkaan. Pointti oli se, että AIB ei ole sama asia kuin custom.
Eivät ole valmistaneet 10-sarjan jälkeen yhtään mistään eivätkä valmista ellei NVIDIA muuta tapojaan joskus tulevaisuudessa.
Käytännössä AIB-kortit ja customit ovat NVIDIAn kohdalla nykyään synonyymi, koska mitään referenssikortteja ei enää ole. AMD:n kohdalla ainakin vielä viime sukupolvessa voitiin erotella AIB-valmistajien custom-mallit ja refut, koska siellä oli edelleen referenssimalli mitä myös muut valmistivat/myivät.
 
Niin, tuolloin Founders Edition oli vain hieno nimi referenssille. RTX 20 -sarjasta lähtien se on NVIDIAn oma korttisarja millä se kilpailee AIB-valmistajia vastaan eikä niitä myydä minkään muun merkin alla.
2000:ssa fe:n piirilevy oli kuitenkin referenssi. Nyt 3000:ssa fe:n piirilevykin on oma eikä kellään muulla samaa.

En vielä näkisi siis että kakstonnisella kilpailtiin täysiverisesti.
 
Blender osaa hyödyntää ainakin cuda kortteja lähestulkoon lineaarisesti. Scenen kokoa rajoittaa pienimmällä VRAM määrällä oleva kortti.
seuraava pätkä on konkreettinen melko tuore (2080ti) blender testi noin puolen vuoden takaa.

Pitääkin urkkia ja laskeskella tarkemmin! :hmm:
Virtis on 780platinium ja hyvällä tuurilla se ehkä kestäisi sekä 3080 + 1080 (prossuna 5930k). Saisi tuon 1080 hyötykäyttöön..

Osaako kukan laskeskella lonkalta onko onnistumisen mahiksia vai huiteleeko jo liian riskirajoilla? 320w+180(?)+prossu 140w.
Setillä ajettu 970SLI:tä mutta nyt taitaa kyllä virtis natista?
 
Onko kellään teorioita siitä, että millä keinolla Nvidia puristaa 3070:stä vääntöä saman verran kuin 2080Ti:stä, kun tiitisessä on 37,5% enemmän muistikaistaa? Mahtaakohan olla kuinka tilanneriippuvaista noiden erot, kun balanssi shadereiden ja kaistan välillä on ihan totaalisesti erilainen?

Veikkaan että markkinointi on päästetty vauhtiin. Oli pressille ilmeisesti jaettu extra slideja joissa on 3070 vertailtu 2070 1440p resolla. En siis yllättyisi vaikka samalla resolla vertailu olisi "vahingossa" lipsahtanut myös tuota 2080Ti:tä vastaan jolloin ei ole mikään kovin suuri yllätys että tehot on about samat, varsinkin jos on sopivat pelit valittu että CPU pykii jo vastaan.

Isommat (48Gt) ja ehkä nopeemmatkin muistit voi tulla ensi vuonna, muuten en oikein keksi miten tosta voisi korottaa kun käyttävät jo lähes täyttä piiriä.

Tuon alle voi tulla jotain kyllä, esim. huhuttu 3080 20GB muistilla.

Veikkaampa että GA102 on 88SM:n siru. Nvidia on tykänny suunnitella noi piirit jo pitkään melko symmetriseen muotoon ja 82SM ei ole kovin hyvin jaollinen kun taas 88SM on esim 8:lla jos oletetaan että GA102 on suunnittelu noudattelee vaikka TU102:sta jossain määrin
TU102_Carousel2_678x452.jpg


Sinällään jännä kun Turingin INT32 yksiköistä kertoessa Nvidian kaveri kertoili miten uudemmat / monimutkaisemmat pelit alkaa käyttää enemmän ja enemmän INT laskentaa. Nyt kuitenkin "tuplattiin" FP laskentateho.


Varmaankin taas markkinointi ollut vauhdissa. Jotenkinhan se pitää aina koittaa perustella että miksi on tehty jotakin miten on tehty. Jossain oli juttua että turingiin olisi jo haluttu tehdä tää sama cuda rakenne, mutta jouduttiin karsimaan koska siru olisi kasvanut niin isoksi ettei sitä olisi ollut järkevää enää valmistaa.

Ampere näköjään pystyy vaihtamaan int ja fp32 laskentaa tilanteen vaatiessa-- eli muuttamaan.

Siis esim. 3080:ssä on 4352 cudaa detikoitu FP32 laskentaa, aivan samoin kuten on 2080Ti:ssä, mutta nyt amperessa on toiset 4352 cudaa rinnalla jotka voivat laskea joko FP32 tai INT32 kun taas turingissa se rinnalla oleva kykeni ainoastaan INT32 laskentaan.
Eli jossain pelkässä FP32 kuormassa siinä 3080 on teorissa tuplasti ruutia verrattuna 2080Ti, mutta jos sinne työnnetään laskentaa jossa puolet on FP32 ja puolet on INT32 niin se 3080 käyttäytyy aivan samoin kuin 2080Ti.
Lisäksi siellä voi olla jossain muualla sellaisia pullonkauloja että toi tuplateho ei tule missään realisoitumaan. Eli tämäkin on mielestäni enemmänkin markkinoiti temppu kuin oikeasti mullistava asia.

Onhan sitä se peli perf mitä näkee nvidian doom 2080ti vs 3080 videosta tai digital foundryn videosta, plus rtx perf missä saattaa nähdä sen 100% hypyn vs 2080.

Kovin varovaisesti vielä henkseleitä paukuttelisin tuon 100% perf hypyn suhteen. Se voi jossain tilanteissa toteutua mutta realistisempi on varmaan joku 60-100% väliltä.
 
To
Jätän tän tähän. Jos ei oo vielä postattu.

inenkin läytyy
Veikkaan että markkinointi on päästetty vauhtiin. Oli pressille ilmeisesti jaettu extra slideja joissa on 3070 vertailtu 2070 1440p resolla. En siis yllättyisi vaikka samalla resolla vertailu olisi "vahingossa" lipsahtanut myös tuota 2080Ti:tä vastaan jolloin ei ole mikään kovin suuri yllätys että tehot on about samat, varsinkin jos on sopivat pelit valittu että CPU pykii jo vastaan.



Veikkaampa että GA102 on 88SM:n siru. Nvidia on tykänny suunnitella noi piirit jo pitkään melko symmetriseen muotoon ja 82SM ei ole kovin hyvin jaollinen kun taas 88SM on esim 8:lla jos oletetaan että GA102 on suunnittelu noudattelee vaikka TU102:sta jossain määrin
TU102_Carousel2_678x452.jpg



Varmaankin taas markkinointi ollut vauhdissa. Jotenkinhan se pitää aina koittaa perustella että miksi on tehty jotakin miten on tehty. Jossain oli juttua että turingiin olisi jo haluttu tehdä tää sama cuda rakenne, mutta jouduttiin karsimaan koska siru olisi kasvanut niin isoksi ettei sitä olisi ollut järkevää enää valmistaa.



Siis esim. 3080:ssä on 4352 cudaa detikoitu FP32 laskentaa, aivan samoin kuten on 2080Ti:ssä, mutta nyt amperessa on toiset 4352 cudaa rinnalla jotka voivat laskea joko FP32 tai INT32 kun taas turingissa se rinnalla oleva kykeni ainoastaan INT32 laskentaan.
Eli jossain pelkässä FP32 kuormassa siinä 3080 on teorissa tuplasti ruutia verrattuna 2080Ti, mutta jos sinne työnnetään laskentaa jossa puolet on FP32 ja puolet on INT32 niin se 3080 käyttäytyy aivan samoin kuin 2080Ti.
Lisäksi siellä voi olla jossain muualla sellaisia pullonkauloja että toi tuplateho ei tule missään realisoitumaan. Eli tämäkin on mielestäni enemmänkin markkinoiti temppu kuin oikeasti mullistava asia.



Kovin varovaisesti vielä henkseleitä paukuttelisin tuon 100% perf hypyn suhteen. Se voi jossain tilanteissa toteutua mutta realistisempi on varmaan joku 60-100% väliltä.
Juu jäi sanomatta tuo osa että 8704 puolet on lennossa vaihtuvia int ja fp32 corea.Tämä on varmasti
vaikuttamassa kokonaissuoritukseen sillälailla että ei skaalaudu ihan 100%
 
Veikkaampa että GA102 on 88SM:n siru. Nvidia on tykänny suunnitella noi piirit jo pitkään melko symmetriseen muotoon ja 82SM ei ole kovin hyvin jaollinen kun taas 88SM on esim 8:lla jos oletetaan että GA102 on suunnittelu noudattelee vaikka TU102:sta jossain määrin
TU102_Carousel2_678x452.jpg
Ei ole, se on 84 SM:n siru joka on jaettu 7 GPC:een.
 
FE on Founder's Edition ja AIB on Add in Board... FE on siis AIB, mutta AIB:lla tarkoitetaan tässä tapauksessa varmaan siis kustomoitua AIB:ta, joka poikkeaa nVidian alkuperäisestä FE AIB:stä? ;)
Tuossahan jo muut kerkes vastailemaankin, eli FE on Founders Edition, jota myy ja valmistuttaa pelkästään Nvidia tällä kierroksella. Referenssikortit on eri asia, joita myös AIB:t tekee/teettää Nvidian speksien mukaan ja sitten on tietysti vielä customit, joiden suunnittelu on sitten ihan oma taiteen lajinsa. Se, että aiemmin myös AIB:t on FE:tä (lähinnä siis nykyisen referenssikortin vastinetta) myyneet, ei tee tuosta toteamuksestani mitenkään faktuaalisesti väärää tämän nykyisen sukupolven kohdalla. Ajat muuttuu Eskoseni. ;)

Toki olisin voinut muotoilla tuon varmaan kymmenellä eri tavalla, mutta varmasti kaikki ymmärsi mitä tarkoitin FE vs. AIB, kun puhuttiin tuosta Nvidian jäähystä..?
Mutta jos nyt vielä rautalangasta, niin Nvidia on ainoa, joka 30-sarjasta FE kortteja valmistaa/teettää myyntiin. AIB:t sitten tekee joko referenssikortteja erilaisilla jäähdytysratkaisuilla, tai täysin custom design kortteja, joissa siis koko PCB leiska on "omaa käsialaa".
 
Veikkaampa että GA102 on 88SM:n siru. Nvidia on tykänny suunnitella noi piirit jo pitkään melko symmetriseen muotoon ja 82SM ei ole kovin hyvin jaollinen kun taas 88SM on esim 8:lla jos oletetaan että GA102 on suunnittelu noudattelee vaikka TU102:sta jossain määrin
TU102_Carousel2_678x452.jpg
Ei ole, se on 84 SM:n siru joka on jaettu 7 GPC:een.
Koko piiri on tosiaan 84 SM ja on ihan laskettavissa piirin kuvasta (7x12=84, lähde TPU, jossa myös block diagram kuva NVIDIA GA102 GPU Specs):
930-cgi-die-shot.jpg

Edit: Näköjään sama piirin kuva ihan Nvidian omillakin sivuilla, mutta pienempänä NVIDIA GeForce -näytönohjaimet
Edit2: Niin, 3090 tosiaan on 10496 CUDA ydintä, kun taas 84 SM tarkoittaa 10752 (84x128, TPU:n linkin SM diagrammista voi laskea tarvittaessa yhden SM yksikön FP32 yksiköt). Täten 3090Ti/Super/Titan RTX2 lienee mahdollinen, mutta melko vaatimattomalla tehoerolla.
 
Viimeksi muokattu:
Kysymyksenä siellä @JosseTheRedman oli myös, että kuinka pitkään FE-kortteja on tehdään myytäväksi. Osaako tähän joku vastata aiemmista sarjoista osviittaa? Kiinnostaisi itseäkin. :)

Toinen kyssäri kun en Turingin julkaisua seurannut pätkääkään, niin muistatteko oliko hypetys silloinkin vastaavalla tasolla vai selvisikö heti julkkarissa ja huhuissa, että parannukset Pascaliin nähden ovat vaisuhkoja?
 
Jay tuossa viimeisimmässään videossaan kätevästi tuota FE/refu/custom-aspektia selventääkin:


Laitoin linkin hyppäämään kohtaa, jossa alkaa juuri tuosta höpisemään. :)
 
Osaako joku kertoa että kuinka paljon nykypeleissä käytetään FP32 ja INT32 laskentaa jotta saisi kuvan että paljonko sitä INT32 laskentaa tarvitaan ja paljonko on hyötyä tuosta 2xFP32 laskennasta siis silloin kun INT32 laskentaa ei ole ollenkaan.
Edit. Ja kai tuota amperea voi käyttää esim. niin että vaikka 90% FP32 laskentaa ja 10% INT32 tai ainakin siihen min 50/50% asti? Sorry oon pihalla näistä kuin lumiukko.

Edit2. Löysin tällaisen videon turing arkkitehtuurista ja kai nykypelit käyttävät ainakin jossain määrin INT32 laskentaa joten suorituskyky peleissä voi olla vaihtelevaa(tietenkin)


Ampere teksteistä tällaista.
"Doubling the processing speed for FP32 improves performance for a number of common graphics and compute operations and algorithms. Modern shader workloads typically have a mixture of FP32 arithmetic instructions such as FFMA, floating-point additions (FADD), or floating-point multiplications (FMUL), combined with simpler instructions such as integer adds for addressing and fetching data, floating-point compare, or min/max for processing results, etc. Performance gains will vary at the shader and application level depending on the mix of instructions. Ray tracing denoising shaders are good examples that might benefit greatly from doubling FP32 throughput. "
 
Viimeksi muokattu:
Osaako joku kertoa että kuinka paljon nykypeleissä käytetään FP32 ja INT32 laskentaa jotta saisi kuvan että paljonko sitä INT32 laskentaa tarvitaan ja paljonko on hyötyä tuosta 2xFP32 laskennasta.
Riippuu ihan sovelluksesta, Turingin julkaisun aikaan NVIDIA oli sitä mieltä että noin kolmannes olisi INT-laskuja. FP-yksiköt voivat kyllä laskea niitäkin, mutta niiden pitää lopettaa siksi aikaa FP-hommien teko. Turingissa NVIDIA lisäsi SM-yksikköön toisen erillisen datapolun INT-käskyille ja laskuyksiköt siihen kaveriksi. Amperessa on edelleen kaksi erillistä datapolkua, mutta nyt kumpikin polku voi suorittaa FP-laskuja kun ei ole INT-hommia ja kun on, vain toinen datapolku joutuu lopettamaan FP-laskut INT-laskujen ajaksi. Tarkempia detaileja saadaan kun NVIDIA julkaisee Amperen whitepaperit.
Kaksi FP32-yksikköä teoriassa kaksinkertaistaa laskentakyvyn kunhan niitä saadaan ruokittua tarpeeksi.
Alustavien testien perusteella vaikuttaa siltä että siellä on suht massiivisia pullonkauloja muualla, kun 3080:ssa on teoreettisesti liki 3x laskentavoimaa vrt 2080S, mutta suorituskyky paranee NVIDIAn itse valkkaamissakin testeissä vain 60-80%
 
Siis pystyykö amperen kaikki shaderit laskemaan FP32/INT32 laskuja(ei tietenkään samaan aikaan) vai kun minulle jäi sellainen käsitys että 50% on varattu pelkkään FP32 ja loput 50% FP32/INT32? Olenko väärässä? En tiedä mistä jäi tuollainen päähän.
 
Siis pystyykö amperen kaikki shaderit laskemaan FP32/INT32 laskuja(ei tietenkään samaan aikaan) vai kun minulle jäi sellainen käsitys että 50% on varattu pelkkään FP32 ja loput 50% FP32/INT32? Olenko väärässä? En tiedä mistä jäi tuollainen päähän.
Vain puolet ovat FP32/INT32 ja puolet pelkkiä FP32. Alla vielä kuva SM:n rakenteesta ja lisää voi lukea esim. NVIDIA GeForce RTX 30 Ampere GPU Deep-Dive, Full Specs, Thermals, Power & Performance Detailed (whitepaper julkaistaan 17. päivä)
NVIDIA-GeForce-RTX-30-Series-Deep-Dive_RTX-3080_RTX-3090_RTX-3070_Ampere-GA102_Ampere-GA104_GP...png

Edit:
Alustavien testien perusteella vaikuttaa siltä että siellä on suht massiivisia pullonkauloja muualla, kun 3080:ssa on teoreettisesti liki 3x laskentavoimaa vrt 2080S, mutta suorituskyky paranee NVIDIAn itse valkkaamissakin testeissä vain 60-80%
Kieltämättä mielenkiintoinen huomio, sillä raa'assa FP32 suorituskyvyssä teoreettisesti 3080 olisi ~183% tehokkaampi (8704 vs 3072 CUDA) kuin 2080S ja muistikaistaa löytyy ~53% enemmän (760GB/s vs 496GB/s). Puhtaalla INT32+FP32 kuormalla ero olisi ~42% (4352 vs 3072 CUDA) ja sama ~53%.
Digital Foundryn alustavien testien perusteella voitaneen siis päätellä, että kuorma olisi jo melko pitkälti INT32+FP32 (?) ja uuden 6X muistin uudistusten etu sitten vaikuttaa jotenkin.
 
Viimeksi muokattu:

Uusimmat viestit

Statistiikka

Viestiketjuista
259 278
Viestejä
4 502 625
Jäsenet
74 376
Uusin jäsen
wookie

Hinta.fi

Back
Ylös Bottom