NVIDIA-spekulaatioketju (Blackwell ja tulevat sukupolvet)

Mutta tarkoitan että voisiko seuraavan framen rasterointi alkaa jo silloin, kun edellisen DLSS-prosessointi on vielä kesken? Jos tämä laskenta tapahtuu erillisillä AI-ytimillä, siihen ei periaatteessa pitäisi olla estettä.
Pitäisi onnistua niin että kun DLSS operaatioita tehdään niin seuraavan framen renderöinti aloitetaan tai on jo aloitettu.

E: Eiköhän esim Digital Foundry testaa aikanaan tuon että paljonko framerate tippuu uudella skaalaimella 4000 sarjalla.
 
Mutta tarkoitan että voisiko seuraavan framen rasterointi alkaa jo silloin, kun edellisen DLSS-prosessointi on vielä kesken? Jos tämä laskenta tapahtuu erillisillä AI-ytimillä, siihen ei periaatteessa pitäisi olla estettä.
En nyt äkkiseltään keksi miksi ei teoriassa voisi alkaa, mutta mun käsitykseni mukaan tällaista ei kuitenkaan tehdä vaan se DLSS prosessointiaika tulee täysimääräisenä frametimeen (ja frametimejen keskiarvoon, eivät lomitu). Ja tosiaan DLSS skaalauksesta vain osa tehdään tensoreilla, koko homma vaatii muitakin GPU:n laskentaresursseja sekä muistikaistaa.

Enkä kyllä tiedä onko oikein ajatella tensoriytimien olevan jotenkin erillisiä. Jos mä ajan tekoälysoftaa joka hyödyntää tensoriytimiä niin kyllä se voi syödä tehobudjetista sen 100% ja GPU usaget 100%.
 
Viimeksi muokattu:
En nyt äkkiseltään keksi miksi ei teoriassa voisi alkaa, mutta mun käsitykseni mukaan tällaista ei kuitenkaan tehdä vaan se DLSS prosessointiaika tulee täysimääräisenä frametimeen (ja frametimejen keskiarvoon, eivät lomitu). Ja tosiaan DLSS skaalauksesta vain osa tehdään tensoreilla, koko homma vaatii muitakin GPU:n laskentaresursseja sekä muistikaistaa.

Enkä kyllä tiedä onko oikein ajatella tensoriytimien olevan jotenkin erillisiä. Jos mä ajan tekoälysoftaa joka hyödyntää tensoriytimiä niin kyllä se voi syödä tehobudjetista sen 100% ja GPU usaget 100%.

Olen ymmärtänyt että DLSS:ssä AI:tä käytetään lopputuloksen siistimiseen normaalin skaalauksen artefakteista, eli tensorilaskenta tulisi siihen loppuun.

Sinänsä noi on suunniteltu vähän kehnosti, jos tosiaan olisi niin että kortin virransyöttö ei pysyisi perässä siinä, että tensoriytimiä ja cuda-coreja ajettaisiin samaan aikaan. Niitähän voisi myös ajaa vähän pienemmillä kelloilla niin virtaa riittäisi paremmin. Parin millisekunnin AI-grindaus framejen lopussa ei myöskään vaikuttaisi jäähdytystarpeeseen, kun se riippuu lähinnä pidemmän ajan keskiarvosta.

Periaatteessa vois olla niin, että muistikaista menee AI-laskennassa täysin tukkoon. Tai sitten DLSS:n aiheuttama lisäviive on ollut niin pieni, ettei tuollaista ole vaan katsottu tarpeelliseksi tehdä.
 
Sinänsä noi on suunniteltu vähän kehnosti, jos tosiaan olisi niin että kortin virransyöttö ei pysyisi perässä siinä, että tensoriytimiä ja cuda-coreja ajettaisiin samaan aikaan.
Mietin ite lähinnä niin, että jos kumpikin prosessi voisi hyödyntää 100%:iin asti GPU:n tehobudjettia niin onko siitä sitten kuinka paljon iloa ajaa niitä 50% ja 50% tehoilla samanaikaisesti.

Mutta toki nämä on sen verran monimutkaisia juttuja ettei kaltaisellani tuulipuvulla ymmärrys riitä ja varmaan voi hyvin olla että jotain etua saadaan samanaikaisesta laskennasta. Ja ehkä niin jopa tehdäänkin eikä tämä vain ilmennyt itselleni kun noita frametimejä joskus aikoinaan Nvidian GPU Trace ohjelmalla ihmettelin.
 
Mietin ite lähinnä niin, että jos kumpikin prosessi voisi hyödyntää 100%:iin asti GPU:n tehobudjettia niin onko siitä sitten kuinka paljon iloa ajaa niitä 50% ja 50% tehoilla samanaikaisesti.

Mutta toki nämä on sen verran monimutkaisia juttuja ettei kaltaisellani tuulipuvulla ymmärrys riitä ja varmaan voi hyvin olla että jotain etua saadaan samanaikaisesta laskennasta.

Nokun tehobudjetin käyttäminen ei nosta laskentatehoa lineaarisesti. Esim. jos puolittamalla tehobudjetti saa 80-90% laskentatehosta (arvaus, mutta tuskin kauhean pahasti pielessä), noita voisi hyvin kannattaa ajaa rinnakkain. Siihen täytyy olla joku muu syy.
 
Jep, alan vahvasti epäillä perusteita omalle käsitykselleni, etteikö seuraavan framen renderöintiä aloitettaisi jo DLSS prosessoinnin aikana. Mahdollisesti puhtaasti omaa väärinymmärrystäni tämä... :btooth:

Oli miten oli, tuo uusi transformer pohjainen DLSS vaikuttaa kyllä lupaavalta. Vaikka prosessointi olisikin hieman raskaampaa sitä kompensoisi se, että performance mode ei luultavasti enää ole yhtä karun näköinen kuin nykyään ja voisi laskea sitten Q -> P tms.
 
Oli miten oli, tuo uusi transformer pohjainen DLSS vaikuttaa kyllä lupaavalta. Vaikka prosessointi olisikin hieman raskaampaa sitä kompensoisi se, että performance mode ei luultavasti enää ole yhtä karun näköinen kuin nykyään ja voisi laskea sitten Q -> P tms.
En tiedä onko minulla jo näkö huonontunut, mutta tuossa kun pelaillut God of Waria ja vaihdellut natiivin 4k ja DLSS-perffin välillä niin tuntuu että en näe mitään eroa missään. Peli vain pyörii paremmin ja pienemmällä tehonkulutuksella DLSS kanssa. Ehkä tuo on vain suosiollinen peli DLSS:lle ettei eroa ole mutta tuo transformer based model kyllä varmaan mahdollistaa useassakin pelissä juurikin qualityn tiputtamisen perf moodiin eikä eroa välttämättä huomaa.
 
En tiedä onko minulla jo näkö huonontunut, mutta tuossa kun pelaillut God of Waria ja vaihdellut natiivin 4k ja DLSS-perffin välillä niin tuntuu että en näe mitään eroa missään. Peli vain pyörii paremmin ja pienemmällä tehonkulutuksella DLSS kanssa. Ehkä tuo on vain suosiollinen peli DLSS:lle ettei eroa ole mutta tuo transformer based model kyllä varmaan mahdollistaa useassakin pelissä juurikin qualityn tiputtamisen perf moodiin eikä eroa välttämättä huomaa.
Tuossa vaikuttaa näytön/telkkarin koko ja etäisyys.
Itse pelailen 42" 4k näytöllä ja DLSS balanced näyttää mielestäni oikein hyvältä, ehkä ihan pientä eroa qualityyn kun oikein etsimällä etsii. Performancella sitten kuva alkaakin jo muuttua selvästi suttuisemmaksi, mutta jos siirtyisin metrin pari kauemmaksi niin en varmaan huomaisi mitään eroa tuohon balancediin.
 
Saapa nähdä testien ja arvostelujen jälkeen jatkaako sitä vielä 3080 Ti:llä jonkin aikaa eteenpäin. Tonnin luokkaa voisi laittaa rahaa korttiin ja 5070 Ti nyt siihen aikalailla menee, mutta onko sitten tarpeeksi tehoeroa.

5080 muutaman satasen kalliimpi ja ei taida olla wörtti varsinkin kun saman verran muistiakin sisässä.
Itse päivitellyt kun on saanut noin tuplat oikeita freimejä lisää GTX 1070, RTX 3080 ja nyt kiinnostaisi RTX 5080 jos se on oikeasti keskimäärin 30% enemmän potkua 4080 verrattuna mikä vastaisi suurinpiirtein 4090.

Itse en ajatellut 5000 sarjan hinnoittelua ollenkaan. Vertasin vaan 4090 hintaan ja totesin että hinta kohillaan vaikka muistia onkin heikommin.
 
Viimeksi muokattu:
On kyllä jotenkin niin koomisen kokoisia noi rtx 5090/80 näytönohjaimet kun katsoin äskettäin hardware unboxed videon, minkähänlaisia monstereita sitten 60 sarjassa tulee olemaan.

1736331463701.png
 
En tiiä oliko täällä jo julkastu tää linuksen eka kosketus 5090:aan. Tässäpä tuosta kun se pelailee vähän CB2077:aa :D

 
Yksi asia mihin kiinnitin huomiota kun katsoin MSI ja Asuksen kortteja et molemmat ovat siirtyneet phase-change pädeihin lämpötahnan sijaan. Asuksella kaikissa korteissa(näin sanoivat redditissä), MSI streamia katoin missä ne avasi kortteja niin niissäkin kaikissa oli, tosin eivät avanneet halvinta Ventus mallia niin en ole siitä varma. Gaming x ja ylemmissä ainakin oli.

Eli eipä varmaan enään tule ongelmia +100 asteen hotspoteista kun phase change pädit ei pumppaudu ulos samalailla kuin lämpötahna. Ainakin Asuksen korteissa oli tuota ongelmaa aika paljon 3- ja 4 sarjassa.
 
Tuossa asuksen astral versiossa on 4 tuuletinta, neljäs on takana, ja totta puhut että noi 4080/4090 kortit oli kanssa todella isoja.

1736331856893.png
Astral näyttäisi olevan mitoiltaan muutoin sama kuin tuo esim. 4090 Strixin jäähy, mutta paksuutta tullut hieman lisää, eli 3.5slot -> 3.8slot.
Pistin vertailuun 5070 Ti ja 5080, jotta saa kaikki eri Asuksen jäähymallit samaan: TUF-RTX5070TI-O16G-GAMING、PRIME-RTX5070TI-O16G Product different Compare|ASUS Global
Kaikki Asuksen mallit löytyy täältä: All series|Graphics Cards|ASUS Global
 
FE on kyllä nätein (taas) mutta mielenkiintoista nähdä miten tuo uusi design pystyy jäähdyttämään sen 575W kohtuullisilla desibeleillä.
 
En kirveelläkään maksa alimman keskiluokan kortista yli 500 euroa, varsinkaan kun vielä Herran Vuonna 2025 siitä löytyy vain 12 gigatavua muistia, voi morjens.
Aikamoista väittää xx70iä "alimmaksi keskiluokaksi", eiköhän se ole kuitenkin sitä ylintä keskiluokkaa
 
Positiivista tässä generaatiossa on ainakin se, että valmistajilla on heti kättelyssä 80- ja ilm. myös 90-luokassa suorilta SFF-yhteensopiva kortti, joka noudattaa tätä 2/2,5 korttipaikan politiikkaa ja noin 30 cm pituutta. Mm. Asukselta Prime ja Gigabyteltä Aero Nvidian FE-mallien lisäksi. Voipi hyvin olla että joutuu parsimaan ostohousut kasaan ja rakentamaan uuden itx-virityksen talven ratoksi.
 
Itse päivitellyt kun on saanut noin tuplat oikeita freimejä lisää GTX 1070, RTX 3080 ja nyt kiinnostaisi RTX 5080 jos se on oikeasti keskimäärin 30% enemmän potkua 4080 verrattuna mikä vastaisi suurinpiirtein 4090.

Itse olen odotellut että näyttistä saa about 350€ hinnalla ja sitä mukaan päivitellyt. 1070ti -> 3070 on menty nyt. Seuraavassa näyttiksessä pakko olla vähintään 12 GB VRAM:ia eli todennäköisesti tulee olemaan 4070 ti sitten kun tippuu tuohon 350€ paikkeille, joka voi olla mahdollista ihan tässä 6kk aikanakin.
Nuo feikki framet on kyllä tuonyt hyvin lisää elinikää vanhemmillekkin näyttiksille. Eli jos ei tarvitse ray tracingiä, niin tuollaiset 300-400€ näyttikset feikki framella riittää vallan mainiosti jopa 2k pelaamiseen.
 
Mutta tarkoitan että voisiko seuraavan framen rasterointi alkaa jo silloin, kun edellisen DLSS-prosessointi on vielä kesken? Jos tämä laskenta tapahtuu erillisillä AI-ytimillä, siihen ei periaatteessa pitäisi olla estettä.
Muistikaista voi tulla pahasti vastaan siinä mitkä asiat toimii rinnakkain. Tensoriytimien teoreettinen nopeus oli 20x0-40x0 korteissa aikalailla sen mitä muistikaista mahdollisti. 50x0 voi käyttäytyä eri tavalla, ei vielä tiedetä. Nvidiahan vihjasi kyllä siihen suuntaan, että ai-laskenta jollain tapaa rinnakkaistuisi muiden asioiden kanssa paremmin 50x0 sarjassa mutta ei ole kunnon materiaalia näkynyt siitä mitä tuo tarkoittaa.
 
5090 tulee koneeseen 3070fe tilalle. Mikä malli ja valmistaja auki. Toivottavasti arvostelut tulis sen verran ennen myyntiintuloa, että kerkeäisi edes vähän miettiä asiaa datan pohjalta. Ulospäin FE versio näyttää parhaalta/kompakti, mutta onko se esim. huonommin kellottuva tai äänekkäämpi kuin järeämmännäköiset AIB-mallit?

Voi olla, että saa aika pitkään mennä 5090:lla, 4v,6v? ellei joku chiplet tms. vallankumous tapahdu ja saadaan nykyinen aika pieniä parannuksia tuova trendi rikottua. En pidättele hengitystä chiplettien suhteen. Monimutkaisemmat chipletit/paketoinnit voi mennä vielä vuosikausia konesalipiireihin ja kuluttajapiirit paitsiossa.

Yksi hyvä asia mitä ei isommin ole mainittu niin tensoriytimien fp4 tuki. Jos davinci resolve/topaz/... jne. softien neuroverkot voivat käyttää fp4:sta niin neuroverkkoefektien nopeus tuplaantuisi versus fp8/int8. Riittääkö fp4 ja tuleeko se käyttöön, en tiedä.

Toinen kiva juttu, että 3 video enkooderia 5090:ssa. Vaikuttanee suoraan videoiden renderöintiaikaa laskevasti tai jos striimailee tms. niin pelivaraa kuvalähteiden suhteen.
 
Viimeksi muokattu:
Muistikaista voi tulla pahasti vastaan siinä mitkä asiat toimii rinnakkain. Tensoriytimien teoreettinen nopeus oli 20x0-40x0 korteissa aikalailla sen mitä muistikaista mahdollisti. 50x0 voi käyttäytyä eri tavalla, ei vielä tiedetä. Nvidiahan vihjasi kyllä siihen suuntaan, että ai-laskenta jollain tapaa rinnakkaistuisi muiden asioiden kanssa paremmin 50x0 sarjassa mutta ei ole kunnon materiaalia näkynyt siitä mitä tuo tarkoittaa.

No joo, totta. Tosin paljon riippuu myös siitä, että kuinka iso osa DLSS:ssä käytetystä mallista mahtuu cacheen. Siinähän on pakko olla suht. pieni malli, että se ehditään laskea läpi korkeintaan millisekunneissa. Samoin onkohan tensoriytimissä omaa muistia kulloinkin ladattuna oleville painoille yms. Mutta muistikaista kuulostaa kyllä paljon uskottavammalta rajoitteelta kuin tehobudjetti. :hmm:
 
5090 tulee koneeseen 3070fe tilalle. Mikä malli ja valmistaja auki. Toivottavasti arvostelut tulis sen verran ennen myyntiintuloa, että kerkeäisi edes vähän miettiä asiaa datan pohjalta. Ulospäin FE versio näyttää parhaalta/kompakti, mutta onko se esim. huonommin kellottuva tai äänekkäämpi kuin järeämmännäköiset AIB-mallit?

Voi olla, että saa aika pitkään mennä 5090:lla, 4v,6v? ellei joku chiplet tms. vallankumous tapahdu ja saadaan nykyinen aika pieniä parannuksia tuova trendi rikottua. En pidättele hengitystä chiplettien suhteen. Monimutkaisemmat chipletit/paketoinnit voi mennä vielä vuosikausia konesalipiireihin ja kuluttajapiirit paitsiossa.

Yksi hyvä asia mitä ei isommin ole mainuttu niin tensoriytimien fp4 tuki. Jos davinci resolve/topaz/... jne. softien neuroverkot voivat käyttää fp4:sta niin neuroverkkoefektien nopeus tuplaantuisi versus fp8/int8. Riittääkö fp4 ja tuleeko se käyttöön, en tiedä.

Toinen kiva juttu, että 3 video enkooderia 5090:ssa. Vaikuttanee suoraan videoiden renderöintiaikaa laskevasti tai jos striimailee tms. niin pelivaraa kuvalähteiden suhteen.
Yleensä nää on niin hyvin tehdasylikellotettuja (boost), että en usko että sitä kannattaa miettiä muuten kun jos haluaa harrastaa. 4000-sarjassa muistelisin että nvidia otti parhaita piirejä itselleen FE malleihin, joka tarkoittaa että alivoltitettu FE voi olla parempi kuin 500e kalliimpi huippu strix käytännössä.

No, en kyllä jaksanut kaivella oliko joku näistä jotain suurta vertailua tehnyt. Itse ottaisin FE:n, mutta luulen että niiden saatavuus tulee olemaan huonoin, koska se on varmaan halvin malli myös.
 
Tällä hetkellä kärsitään aika pahasti surkeasta EUR/USD kurssista.

RTX 5070 olisi 580€ eli satasen halvempi samalla kurssilla jolla RTX 3080 muuntui 699 USD -> 739€...
 
Jos käytetään 4000-sarjaa (ennen Super refreshejä) esimerkkinä, niin:

>4060
>4060 Ti
>4070
>4070 Ti
>4080
>4090

Siihenhän se tupsahtaa entry level keskiluokkaan.
Se että jätetään lowendiä julkaisematta ei töni ylempiä malleja alempiin luokkiin. 40-sarjasta puuttuu xx50 ja xx30 perinteisistä malleista (eikä se ole eka sarja josta puuttuu osa malleista)
 
No joo, totta. Tosin paljon riippuu myös siitä, että kuinka iso osa DLSS:ssä käytetystä mallista mahtuu cacheen. Siinähän on pakko olla suht. pieni malli, että se ehditään laskea läpi korkeintaan millisekunneissa. Samoin onkohan tensoriytimissä omaa muistia kulloinkin ladattuna oleville painoille yms. Mutta muistikaista kuulostaa kyllä paljon uskottavammalta rajoitteelta kuin tehobudjetti. :hmm:
Kyllä tensoriytimet syö sen koko muistikaistan esim. 40x0:ssa. Näkee kun katsoo perffianalyysidataa peleistä. En jaksa tähän kaivaa kuvia ja linkkejä. Inferenssi noin ylipäänsä on muistirajotteinen kuorma. Toki dlss kestää vain millisekunteja per frame niin se aika missä tensoriytimet imee kaiken muistikaistan on aika lyhyt. Sinne voi rinnalle yrittää laittaa jotain ajoon mikä ei vaadi muistikaistaa jos haluaa ihan kaiken tiristää gpu:sta irti.
 
Kyllä tensoriytimet syö sen koko muistikaistan esim. 40x0:ssa. Näkee kun katsoo perffianalyysidataa peleistä. En jaksa tähän kaivaa kuvia ja linkkejä. Inferenssi noin ylipäänsä on muistirajotteinen kuorma. Toki dlss kestää vain millisekunteja per frame niin se aika missä tensoriytimet imee kaiken muistikaistan on aika lyhyt. Sinne voi rinnalle yrittää laittaa jotain ajoon mikä ei vaadi muistikaistaa jos haluaa ihan kaiken tiristää gpu:sta irti.

En osaa tarkemmin sanoa juuri DLSS:stä, mutta inferenssin muistirajoitteisuuden asteen pitäisi kyllä riippua mallin koosta. Jos malli mahtuu cacheen, niin painoja ei tarvi koko ajan olla hakemassa muistista toisin kuin isompien mallien kanssa, vaan riittää pelkän datan haku ja talletus.
 
En osaa tarkemmin sanoa juuri DLSS:stä, mutta inferenssin muistirajoitteisuuden asteen pitäisi kyllä riippua mallin koosta. Jos malli mahtuu cacheen, niin painoja ei tarvi koko ajan olla hakemassa muistista toisin kuin isompien mallien kanssa, vaan riittää pelkän datan haku ja talletus.
Netissä(beyond3d forumi) analysoitiin dlss:aa nsight:in avulla. Niistä kuvista näki selvästi että tensoritytimet syö käytännössä kaiken muistikaistan kun ovat ajossa + samaan aikaan ei muuta tapahdu. Youtubessa on myös nvidian gdc/gtc videoita näin dlss toimii/integroit engineen missä iteroidaan sama asia. En jaksa kaivaa linkkejä, mutta näin se vaan menee ainakin 40x0 sarjaan asti. 50x0 on voinut muuttaa asioita kun jensen puhui keynotessa parannuksista siihen miten neuroverkkoja voidaan ajaa myös shadereissa tensoriytimien lisäksi 50x0 sarjassa + fp4 tuki. Toisaalta jossain oli juttua, että olis 4x isompi dlss4 neuroverkko versus dlss3.
 
Viimeksi muokattu:
Jos käytetään 4000-sarjaa (ennen Super refreshejä) esimerkkinä, niin:

>4060
>4060 Ti
>4070
>4070 Ti
>4080
>4090

Siihenhän se tupsahtaa entry level keskiluokkaan.
Tarkoitit varmaan:

>4010 (low-)
>4050
>4060 (mid-)
>4060 Ti
>4070
>4070 Ti (high-)
>4080
>4090

Ylempään keskiluokkaan vähintäänkin menee -70 sarja.
 
Netissä(beyond3d forumi) analysoitiin dlss:aa nsight:in avulla. Niistä kuvista näki selvästi että tensoritytimet syö käytännössä kaiken muistikaistan kun ovat ajossa + samaan aikaan ei muuta tapahdu. Youtubessa on myös nvidian gdc/gtc videoita näin dlss toimii/integroit engineen missä iteroidaan sama asia. En jaksa kaivaa linkkejä, mutta näin se vaan menee ainakin 40x0 sarjaan asti. 50x0 on voinut muuttaa asioita kun jensen puhui keynotessa parannuksista siihen miten neuroverkkoja voidaan ajaa myös shadereissa tensoriytimien lisäksi 50x0 sarjassa + fp4 tuki. Toisaalta jossain oli juttua, että olis 4x isompi dlss4 neuroverkko versus dlss3.

Voi hyvin olla, en osaa sanoa asiasta. On kyllä erikoista että sinne on laitettu niin paljoa tensoriytimiä että myös kevyemmillä malleilla muistikaista menee tukkoon ennen kuin corejen laskentakapasiteetti loppuu. Laittamalla vähän vähemmän olisi siten säästänyt piirin koossa menettämättä mitään.
 
Voi hyvin olla, en osaa sanoa asiasta. On kyllä erikoista että sinne on laitettu niin paljoa tensoriytimiä että myös kevyemmillä malleilla muistikaista menee tukkoon ennen kuin corejen laskentakapasiteetti loppuu. Laittamalla vähän vähemmän olisi siten säästänyt piirin koossa menettämättä mitään.
Ei dlss ole "kevyt" malli. Se on optimoitu tarkoituksella tiettyyn ms kestoon ja käyttää sen keston ajan kaiken muistin ja laskentatehon. Ihan kuin nvidian insinööri olisi osannut katsoa, että laskentakapasiteettia X käytössä ja muistia Y ja käytetään X:aa niin että Y saturoituu, ei rasvaa. Keveäksi voi tietenkin ajatella siinä mielessä että ajoaika lyhyt, toisaalta intensiivinen. Mitä lyhyempi kesto dlss:lla niin sitä enemmän fps boostaantuu. Toisaalta mitä enemmän sille antaa aikaa sitä enemmän kuvaa voi parantaa. Jonkinlainen kompromissi tehtävä ajoajan ja laadun välillä, algoritmi intensiivisesti syö kaiken muistin ja laskentatehon yrittäen maksimoida lopputuloksen annetun ajoaikabudjetin sisällä.
 
Ei se dlss ole "kevyt" malli. Se on optimoitu tarkoituksella tiettyyn ms kestoon ja käyttää sen keston ajan kaiken muistin ja laskentatehon. Ihan kuin nvidian insinööri olisi osannut katsoa, että laskentakapasiteettia X käytössä ja muistia Y ja käytetään X:aa niin että Y saturoituu, ei rasvaa. Keveäksi voi tietenkin ajatella siinä mielessä että ajoaika lyhyt, toisaalta intensiivinen. Mitä lyhyempi kesto dlss:lla niin sitä enemmän fps boostaantuu. Toisaalta mitä enemmän sille antaa aikaa sitä enemmän kuvaa voi parantaa. Jonkinlainen kompromissi tehtävä ajoajan ja laadun välillä, algoritmi intensiivisesti syö kaiken muistin ja laskentatehon.

Pakko sen on olla "kevyt" eli suht. pieni malli että inferenssin voi ylipäätään ajaa läpi millisekunneissa. Vissiin DLSS ei myöskään vie gigatavuja muistia, mutta viekö edes satoja megatavuja?

Luulisi ainakin että esim. framejen generointi olisi selvästi monimutkaisempi malli, eli se kuluttaisi enemmän muistia ja siten pienempi osa siitä mahtuisi cacheen, joten sen kanssa muistikaista olisi vielä pahemmin tukossa.

Muistikaistan käyttöhän nimenomaan riippuu juuri datan ja mallin koosta, jos molemmat mahtuu cacheen niin periaatteessa muistikaistaa ei tarvisi inferenssin aikana ollenkaan. Mitä isommaksi ne menee, niin sitä enemmän tarvii mennä cachen ulkopuolelle. :hmm:
 
Sellaset saivartelut sieltä. 4010 on kiina-eksklusiivi, jolla voi pelailla miinaharavaa ja 4050 löytyy pelkästään läppäreistä.
Äly hoi, älä jätä. Jos tarkoitus on listata näytönohjaimet alimmasta ylimpään, ei varmaan jätetä niitä alimman luokan näytönohjaimia mainitsematta? Toki jätit ne pois tarkoituksella, jotta voit selittää -70 sarjan olevan "entry level keskiluokkaa".
 
Pakko sen on olla "kevyt" eli suht. pieni malli että inferenssin voi ylipäätään ajaa läpi millisekunneissa. Vissiin DLSS ei myöskään vie gigatavuja muistia, mutta viekö edes satoja megatavuja?

Luulisi ainakin että esim. framejen generointi olisi selvästi monimutkaisempi malli, eli se kuluttaisi enemmän muistia ja siten pienempi osa siitä mahtuisi cacheen, joten sen kanssa muistikaista olisi vielä pahemmin tukossa.

Muistikaistan käyttöhän nimenomaan riippuu juuri datan ja mallin koosta, jos molemmat mahtuu cacheen niin periaatteessa muistikaistaa ei tarvisi inferenssin aikana ollenkaan. Mitä isommaksi ne menee, niin sitä enemmän tarvii mennä cachen ulkopuolelle. :hmm:
data+malli ei mahdu cacheen. Dlss on optimoitu mahdollisimman lyhytkestoiseksi softan puolesta. Tensoriytimet syö kaiken muistiresurssin dlss:ssa. Tän kanssa voi mennä pankkin. Lopetan vänkäämisen tähän. Totuus ei vänkäämällä muutu enkä jaksa alkaa kaivamaan lähteitä kun noi jutut on nvidian puolesta ja harrastajienkin kautta vuosia sitten kerrottu ja mitattu.

Vaikka 100m on kevyt matka versus maraton niin silti satasella mennään täysiä. 100m dlss jota ajetaan lyhyt aika maksimi intensiteetillä.
 
Viimeksi muokattu:
Huutista. Nahkatakki miehen fanit paniikissa selittelemässä.
Voisit kääntää ne aivot välillä on-asentoon, niin keskustelu olisi helpompaa molemmille.

4000-sarja taisi olla ensimmäinen, jossa ei julkaistu työpöytäversiota -50 kortista. Käsittääkseni sen takia, koska 3000-sarjaa myytiin yhä rinnalla (?). Voisin kuitenkin olettaa, että 5000-sarjasta tulee taas noita low-end kortteja, ellei sitten jätetä low-endiksi vanha 4000-sarja.

Jos väittää 700 euron näytönohjainta "entry level" kortiksi, on kyllä todella irtaantunut todellisuudesta. Kun sanon, että -70 kortit ovat ylempää keskiluokkaa, se on kritiikkiä Nvidiaa kohtaan, jos niiden ominaisuuksissa pihtaillaan.
 
Tuosta Asus astralista:
RTX 5080 mallista on jo listattu Filippiinien pesoilla 90,000 hinnaksi (noin 1490€) ja Asusin asiakaspalvelusta kertoivat että 200-400€ lisää FE-hintaan, joka olisi myös about sinne 1500€ tienoille.

RTX 4080 Superin Strix:hän oli about 1400€ julkaisussa.

Eli melkoista preemiumia kyllä AIB:n lippulaivat tuovat lisää. Mutta omaan silmään kortti on upea ja ymmärrän kyllä miksi nvidia luopui niistä halkoista, mutta piru vie kyllä mielytti silmää ne. :kahvi:
 
Eli melkoista preemiumia kyllä AIB:n lippulaivat tuovat lisää. Mutta omaan silmään kortti on upea ja ymmärrän kyllä miksi nvidia luopui niistä halkoista, mutta piru vie kyllä mielytti silmää ne. :kahvi:
Suomihinnoilla 5080 ROG strix on varmaan 1500€ paikkeilla ja siihen Astral-lisät päälle. Näkee kyllä rahastuksen läpi kun lisätään jo valmiiksi kalleimman tuotebrändin päälle vielä överimpi (parempikatteinen) malli. MSI:llä sentään lisättiin lippulaivan ja Gaming X:n väliin tuo Vanguard enemmän RGB:tä haluavile.
 
Suomihinnoilla 5080 ROG strix on varmaan 1500€ paikkeilla ja siihen Astral-lisät päälle. Näkee kyllä rahastuksen läpi kun lisätään jo valmiiksi kalleimman tuotebrändin päälle vielä överimpi (parempikatteinen) malli. MSI:llä sentään lisättiin lippulaivan ja Gaming X:n väliin tuo Vanguard enemmän RGB:tä haluavile.
Astral on "strix" malli 80 ja 90-näyttiksissä.

Strix löytyy sitten 70 ja 70ti
 
Tuosta Asus astralista:
RTX 5080 mallista on jo listattu Filippiinien pesoilla 90,000 hinnaksi (noin 1490€) ja Asusin asiakaspalvelusta kertoivat että 200-400€ lisää FE-hintaan, joka olisi myös about sinne 1500€ tienoille.

RTX 4080 Superin Strix:hän oli about 1400€ julkaisussa.

Eli melkoista preemiumia kyllä AIB:n lippulaivat tuovat lisää. Mutta omaan silmään kortti on upea ja ymmärrän kyllä miksi nvidia luopui niistä halkoista, mutta piru vie kyllä mielytti silmää ne. :kahvi:
Asus on aina ollut kallein valmistaja varsinkin niissä yläpään korteissa. Kuten tuolla aiemmin jo ennustelin niin se 1500€ 5080 ja 3000€ 5090 huippupään malleista ei varmasti oo hirveen kaukana totuudesta. Veikkaan et Asusin Astral-mallit tulee tohon lähimaastoon suurella varmuudella osumaan


Eli nämä. Toivon että TUF olis edelleen kohtuuhintanen, mut ei se tainnu nyt 40-sarjassa olla. 30-sarjassa se tuli myyntiin MSRP hinnalla ja oma 3080 TUF onkin ollu ihan hyvä investointi siihen 759€ hintaan mitä tästä maksoi.

Mut siitä huolimatta en usko et kovinkaan suurta merkitystä minkä valmistajan kortin hommaa. Suorituskyvyssä harvemmin on suurta eroa ja loppupeleissä se on sit jäähystä kiinni. Ja jos kuten ite laittaa kortin jokatapauksessa vesiblokille, niin se merkitys häviää sit siinä samantien. Eli ainut ero itellä mikä voi olla valmistajien välillä on se et miten ne kellottuu ja kuinka korkeelle virtarajat saa laitettua. Ja kellotuskin on ollut aika ajanhukkaa viimeseen 4 vuoteen nyt kun ainakin 3080 ja 3090 kortteja alivoltitettiin hiessä että saatiin ne viimeset prosentit rutisteltua pois, ja 350w vs 450w virrankulutuksella ei juurikaan merkitystä ollut suorituskyvyn kannalta. Nää on niin tiukalle viritettyjä jo paketista ja ne viimeset pisarat tulee ihan käsittämättömän virrankulutuksen hinnalla. En usko että muuttuu tältäkään erää.
 
DLSS4 tehovaatimuksiin liittyen nvidian videolla kerrottiin että parametrien määrä tuplattu ja laskentatehon tarve nelinkertaistettu dlss4 vs. dlss3. Mielenkiintoista nähdä miten vanhat kortit jaksaa ajaa tuota kun niistä puuttuu fp4 tuki mikä tuplaa suorituskyvyn ja vähentää muistinkulutusta 50x0 sarjan korteilla.

1736356384494.png


 
DLSS4 tehovaatimuksiin liittyen nvidian videolla kerrottiin että parametrien määrä tuplattu ja laskentatehon tarve nelinkertaistettu dlss4 vs. dlss3. Mielenkiintoista nähdä miten vanhat kortit jaksaa ajaa tuota kun niistä puuttuu fp4 tuki mikä tuplaa suorituskyvyn ja vähentää muistinkulutusta 50x0 sarjan korteilla.

1736356384494.png



Nelinkertaistettu tehontarve miltei selittyy jo suoraan MFG:llä, jos DLSS3 FG:n lisäfreimi on 1x, niin DLSS4 freimit 3 ja 4 ovat 2x ja 3x.
Mutta jäitä hattuun laittaisin ainakin itse, sillä kyllä tuossa varmasti on markkinointilisää mukana, jotta uutta rautaa saataisiin kaupaksi.
Niinhän se oli tuon FG:n kanssakin, kun väitettiin ettei RTX 3000-sarjalla toimi, mutta kyllä se softamodaajien ansiosta toimi sittenkin.. Nvidia vain halusi pitää päänsä ja selittää kuinka on pakko käyttää optical flow sensoreita tjn.
Ja tuosta FP4 tuesta DLSS yhteydessä ei ilmeisesti ole mitään varmuutta vielä, itselläkin meni sormi lopulta suuhun, että miten tuo nyt tarkalleen onkaan, kun Nvidia itse sitä hehkuttaa tosiaan vain FLUX.1 AI-mallin kohdalla esim. täällä: New GeForce RTX 50 Series Graphics Cards & Laptops Powered By NVIDIA Blackwell Bring Game-Changing AI and Neural Rendering Capabilities To Gamers and Creators
 
Nelinkertaistettu tehontarve miltei selittyy jo suoraan MFG:llä, jos DLSS3 FG:n lisäfreimi on 1x, niin DLSS4 freimit 3 ja 4 ovat 2x ja 3x.
Mutta jäitä hattuun laittaisin ainakin itse, sillä kyllä tuossa varmasti on markkinointilisää mukana, jotta uutta rautaa saataisiin kaupaksi.
Niinhän se oli tuon FG:n kanssakin, kun väitettiin ettei RTX 3000-sarjalla toimi, mutta kyllä se softamodaajien ansiosta toimi sittenkin.. Nvidia vain halusi pitää päänsä ja selittää kuinka on pakko käyttää optical flow sensoreita tjn.
Ja tuosta FP4 tuesta DLSS yhteydessä ei ilmeisesti ole mitään varmuutta vielä, itselläkin meni sormi lopulta suuhun, että miten tuo nyt tarkalleen onkaan, kun Nvidia itse sitä hehkuttaa tosiaan vain FLUX.1 AI-mallin kohdalla esim. täällä: New GeForce RTX 50 Series Graphics Cards & Laptops Powered By NVIDIA Blackwell Bring Game-Changing AI and Neural Rendering Capabilities To Gamers and Creators
Olihan tuosta jo digital foundryn previkkaa. Ainakin cp2077:ssa parantaa kuvanlaatua versus dlss3. Transformer pohjainen neuroverkko on vähän erilainen kuin CNN:t. Todellisuus lienee sama kuin ennenkin, ei täydellinen mutta paranee versio versiolta.

FP4:een liittyen sanoivat edellisen postauksen nvidian videossa "for 50 series users lower memory usage and faster performance". Ei tuo lause oikein selity millään muulla kuin fp4:en käytöllä. Ei välttämättä kaikki kerrokset ole fp4:sta niin siksi sanoin vähentää muistin kulutusta enkä esimerkiksi "Puolittaa" muistinkulutuksen.

 
Nelinkertaistettu tehontarve miltei selittyy jo suoraan MFG:llä, jos DLSS3 FG:n lisäfreimi on 1x, niin DLSS4 freimit 3 ja 4 ovat 2x ja 3x.
Mutta jäitä hattuun laittaisin ainakin itse, sillä kyllä tuossa varmasti on markkinointilisää mukana, jotta uutta rautaa saataisiin kaupaksi.
Niinhän se oli tuon FG:n kanssakin, kun väitettiin ettei RTX 3000-sarjalla toimi, mutta kyllä se softamodaajien ansiosta toimi sittenkin.. Nvidia vain halusi pitää päänsä ja selittää kuinka on pakko käyttää optical flow sensoreita tjn.
Ja tuosta FP4 tuesta DLSS yhteydessä ei ilmeisesti ole mitään varmuutta vielä, itselläkin meni sormi lopulta suuhun, että miten tuo nyt tarkalleen onkaan, kun Nvidia itse sitä hehkuttaa tosiaan vain FLUX.1 AI-mallin kohdalla esim. täällä: New GeForce RTX 50 Series Graphics Cards & Laptops Powered By NVIDIA Blackwell Bring Game-Changing AI and Neural Rendering Capabilities To Gamers and Creators
Tuolla videolla 3:22 eteenpäin NVIDIAn insinööri puhuu nimenomaan siitä skaalausmallista ja sanoo, että vaatii sen 4x enemmän tensorivääntöä:
 

Statistiikka

Viestiketjuista
264 065
Viestejä
4 574 143
Jäsenet
75 353
Uusin jäsen
JaniM

Hinta.fi

Back
Ylös Bottom