NVIDIA-spekulaatioketju (Blackwell ja tulevat sukupolvet)

Olishan se tavallaan ihan hauska ajatus, että kengätkin maksaisi sen mukaan miten iso jalka sattuu olemaan :D
OFFTOPIC (eikä jatketa tätä) Niinhän ne maksaakin, itsellä kun on koon 49/50 jalka niin ei löydy kenkiä kuin erikoisliikkeistä (esim specinet) ja niistä ei juuri sopivia hyviä kenkiä alle 150e saa. Kaiholla katselee jotain samanlaisia Jalaksen popoja tarjouksissa 50e max koko joku 44 neuvolakoipi. Nyyh : /
 
Eiköhän tuolla FGx4 fps lukemat tosiaan kovasti kasva ja välttämättä latenssikaan ei ole paha jos vaan lähtöfps on riittävä. Mutta sitten ne artefaktit. Varmaan aika henkilökohtaista häiritseekö virheet vai ei ja vaihteleeko tuo voimakkaasti pelistä riippuen. Joillekin varmaan riittää että peli rullaa menemään riippumatta kuinka "rikki" kuva menee. Haastava arvosteltava joka tapauksessa ja varmaan riippuu aika paljon pelaajasta mikä "virhemäärä" on hyväksyttävä.

Ihan mielenkiintoista myös nähdä mitä tuo tarjoaa esim. 5070 kortin ostajalle. 5090:lle kun tuon hyöty on (todennäköisesti) vähän niin ja näin.
 
Melkoista että joku möisi 24GB maailman toiseksi nopeimman kortin johonkin 1400€ - 1600€.

E: näköjään onkin sama kortti mikä itellä myynnissä tuolla kauppa-alueella 1900€. Takuullinen, lähes täysin äänetön, 24GB. Itse laittaisin hinnan 2000€. :)

1500e-1700e on Torissa ollut halvempi pää, ja noikin pyyntejä. Muutamaa outoa 1000e/1300e ilmoitusta lukuunottamatta.
 
Jos joku myy siistiä 4090-yksilöä alle 5080n hinnan niin epäilen että viedään käsistä ja epäilen lähtökohtaisesti melkein kusetukseksi :D
 
Ostajiakin on monenlaisia, mutta jos joku maksaa 2v vanhasta 4090 vaikkapa 1500e niin suurehkolla riskillä mennään kun näissä erinäisiä joskin ilmeisen harvinaisia ongelmia(kvg) ollut. Eskaloituessa voi sitten ostaa uuden käytetyn samalla rahalla jonka jälkeen voi miettiä olisiko kannattanut ostaa vaikka uusi 5090 halvemmalla. Tuoreemmasta vaikkapa vielä 1,5v takuullisesta sitten kehtaisi maksaa tuon jos tällaista halajaisi. Raudan kiimassa tietysti tulee tehtyä tyhmiä päätöksiä ja myyjät kiittää eikä siinäkään yleisesti mitään väärää ole.
 
Ostajiakin on monenlaisia, mutta jos joku maksaa 2v vanhasta 4090 vaikkapa 1500e niin suurehkolla riskillä mennään kun näissä erinäisiä joskin ilmeisen harvinaisia ongelmia(kvg) ollut. Eskaloituessa voi sitten ostaa uuden käytetyn samalla rahalla jonka jälkeen voi miettiä olisiko kannattanut ostaa vaikka uusi 5090 halvemmalla. Tuoreemmasta vaikkapa vielä 1,5v takuullisesta sitten kehtaisi maksaa tuon jos tällaista halajaisi. Raudan kiimassa tietysti tulee tehtyä tyhmiä päätöksiä ja myyjät kiittää eikä siinäkään yleisesti mitään väärää ole.
Tämä on itseäni ihmetyttänyt jo pitkään. Kauppa käy lähes uuden hinnalla, ihan kuin nopeus olisi ainoa parametri joka vaikuttaa hintaan ja komponentin ikä olisi täysin merkityksetön asia. Ei se sinänsä haittaa näin uusia näytönohjaimia ostavaa, kun päivitys on halpaa.
 
Ostajiakin on monenlaisia, mutta jos joku maksaa 2v vanhasta 4090 vaikkapa 1500e niin suurehkolla riskillä mennään kun näissä erinäisiä joskin ilmeisen harvinaisia ongelmia(kvg) ollut. Eskaloituessa voi sitten ostaa uuden käytetyn samalla rahalla jonka jälkeen voi miettiä olisiko kannattanut ostaa vaikka uusi 5090 halvemmalla. Tuoreemmasta vaikkapa vielä 1,5v takuullisesta sitten kehtaisi maksaa tuon jos tällaista halajaisi. Raudan kiimassa tietysti tulee tehtyä tyhmiä päätöksiä ja myyjät kiittää eikä siinäkään yleisesti mitään väärää ole.

Monessa julkarissa ostetussa 4090 on vielä melkein toista vuotta takuuta jäljellä, niin sanoisin semmoisen oston olevan hyvä sijoitus jollain 1200-1400ellä. Esim juurikin omistamani Gigabyten 4090 omaa 4v takuun.
 
Tämä on itseäni ihmetyttänyt jo pitkään. Kauppa käy lähes uuden hinnalla, ihan kuin nopeus olisi ainoa parametri joka vaikuttaa hintaan ja komponentin ikä olisi täysin merkityksetön asia. Ei se sinänsä haittaa näin uusia näytönohjaimia ostavaa, kun päivitys on halpaa.
Eihän se 2-3v vanha ole vasta kuin sisäänajettu ja testattu että on varmasti toimiva.
 
Tämä on itseäni ihmetyttänyt jo pitkään. Kauppa käy lähes uuden hinnalla, ihan kuin nopeus olisi ainoa parametri joka vaikuttaa hintaan ja komponentin ikä olisi täysin merkityksetön asia. Ei se sinänsä haittaa näin uusia näytönohjaimia ostavaa, kun päivitys on halpaa.
Ei siinä lopulta mitään hirvää ihmettä ja kummaa ole:
- 4090 on ihan hyvä tuote, eikä 5xxxx näyttisten tultua markkinoille ihan heti muuksi muutu. Toki jos 5xxx sarjan uusien RT ominaisuuksien tuki tulee peleihin nopeasti ja se nopeuttaa selkeästi 5xxx näyttiksiä, niin sitten kiinnostavuus pelikäytössä 4090:aa kohtaan tippuu, mutta sille 4090:lle porukat keksii muutakin käyttöä.
- Saatavuus on "ei ole", joten kannattaa siksikin pyytää paljon. 5xxx näyttiksiä ei vielä saa ja ilmeisesti ei saa helposti ihan heti..
- Kun vilkaisin näyttikset kauppaosiota, niin 4090:n ostetaan ilmoituksien määrä on moninkertainen vs myynti-ilmoitusten määrä. (Eka sivu, juuri 5 min sitten)
 
Viimeksi muokattu:
Noniin,

Nythän tässä kävi niin, että tämä hermanni ei jaksanut enää odotella kun korttia olin vailla ja menin tekemään kaupat 12-2024 ostetusta RTX 4070 Ti Superista hintaan 750e. Perustelut päätökselle on se, että minulla on 4k/60Hz VRR 43" TV näyttönä, joten feikki freimejä en tarvitse mihinkään. 5080 hinta nousee sietämättömän korkealle ja 5070Ti en jaksa odottaa ja kyllä tuonkin hinta on pitkälle yli 1000e kun kauppoihin tulee ja ei näitä kuitenkaan saa mistään ensimmäiseen 6kk ostettua. AMD kun rupesi perseilemään tuon julkkarin kanssa niin jaksa niidenkään kortteja odotella ja jos huhut pitää paikkaansa niin aika samoihin tehoihin päästään tuon 4070Ti Superin kanssa. Itse pidän DLSS on kuitenkin melkoisen paljon parempana mitä AMD:n FRS viritystä ja tuota DLSS 4 on kehuttu mikä onneksi valuu myös 4000 - sarjalle.

Teinkö nyt sillai tyhmästi, että koko kortillisen menin ostamaan?
 
Eipä tuossa mennyt mielestäni mikään poskelleen. Jos olisi odottanut 5070ti launchiin olisi ehkä voinut saada käytetyn kortin hitusen halvemmalla, mutta puhutaan todennäköisesti kymppien erosta (oletus: 5070ti helposti saatavissa hyllystä OVH:lla)
 
Noniin,



Teinkö nyt sillai tyhmästi, että koko kortillisen menin ostamaan?

Se on helppo olla lungisti kun itsellä koneessa 4090. Voin suhtautua asioihin halutessani, että "katellaan". En tiedä mikä kortti sinulla oli ennestään ja se vaikuttaa siihen oliko se tyhmää vai ei. Itse esimerkiksi en lähestulkoon missään tilanteessa ostaisi 5080 korttia 16GB muistilla. Sitä joko odottaisin seuraavaa sarjaa tai 24GB varianttia. Jos siis olisin sellaista jostain syystä ostamassa. Noin niin kuin esimerkkinä. Joka tapauksessa 16GB on ehdoton minimi nykyisin ja tuossa sinun kortista se löytyy.
 
Se on helppo olla lungisti kun itsellä koneessa 4090. Voin suhtautua asioihin halutessani, että "katellaan". En tiedä mikä kortti sinulla oli ennestään ja se vaikuttaa siihen oliko se tyhmää vai ei. Itse esimerkiksi en lähestulkoon missään tilanteessa ostaisi 5080 korttia 16GB muistilla. Sitä joko odottaisin seuraavaa sarjaa tai 24GB varianttia. Jos siis olisin sellaista jostain syystä ostamassa. Noin niin kuin esimerkkinä. Joka tapauksessa 16GB on ehdoton minimi nykyisin ja tuossa sinun kortista se löytyy.
Minulla oli RTX 3080Ti jonka olin käytettynä ostanut vuonna 2022 800e:llä. Möin sen tuossa kaksi viikkoa sitten 500e:llä, jotta olisin "valmis uusiin kortteihin". RTX 3080Ti ei enää ihan pärjännyt kaikkien pelien kanssa 4K:lla vaikka onki vain 60Hz näyttö, että sinäänsä olin voimaa vailla + korttia missä pienempi tehonkulutus.
 
Aika rankkaa kritiikkiä sai Nvidian 5070 = 4090 väite HUB Timiltä videossa jossa testaa multiframegenerationia.
Käytännössä MFG vaatii pohjalle 120fps että kuvanlaatu sekä viive on hyväksyttävällä tasolla. (Joissain peleissä 80fps saattaa riittää jos ei ole herkkä viivelle, virheet kuvassa saattaa tosin olla jo häiritseviä)

Eli 5070 ei todellakaan missään tilanteessa ole vastaava kuin 4090. FPS laskuri saattaa näyttää vastaavanlaisia lukemia, mutta pelikokemus on huomattavan paljon huonompi viiveen sekä kuvassa olevien virheiden takia.

Tästä kuvasta esim näkee hyvin miten järkyttävä ero on viiveessä jos 4090 saa 2x FG:llä saman FPS:n kuin 5070 4xMFG:llä.
Alan Wake II viiveet:

1737809580167.png



Eli 4090:lla 120 fps viive 57.7 ms ja 5070:lla 120 fps viive 108.4 ms...
 
Eli 4090:lla 120 fps viive 57.7 ms ja 5070:lla 120 fps viive 108.4 ms...

Miten ne on tuon testanneet? Jotenkin tuo raw-FPS on limitoitu esim. 60:een ja sitten kytketty FG päälle? Toi 110ms viive tuntuu ihmeen suurelta kun 1/30 on 33ms. Ymmärtäisin jonkun 50-60ms viiveen mutta toi on jo aika paha.
 
Miten ne on tuon testanneet?
Varmaan Nvidian PC latency mittarilla, jonka saa näkymään ruudulle tai varmasti jotenkin loggamaankin.

40-60ms on se vaihteluväli mitä toi mittari oman kokemukseni mukaan näyttää FG:n kanssa 120hz näytöllä kun ruudunpäivitys tapissa eli 116fps. Eli siitä syystä veikkaan että tuota tai ehkä jotain muuta softapohjaista mittaria käyttävät.
 
Viimeksi muokattu:
Laitetaan nyt vielä linkkikin tuohon videoon. Tim kyllä osaa hommansa DLSS/FSR suhteen.

Video pähkinänkuoressa:
4x MFG on parhaimmillaan silloin kun sitä ei tarvitse, ja huonoimmillaan silloin kun sitä tarvitsee. Artifaktit melkoisia varsinkin alemmilla fps-lukemilla.



Huomionarvoista myös tuo kuinka paljon 4x MFG syö natiivisuorituskykyä. Tässä esim. 132 fps -> 97 fps.

1737813975590.png

Miten ne on tuon testanneet? Jotenkin tuo raw-FPS on limitoitu esim. 60:een ja sitten kytketty FG päälle? Toi 110ms viive tuntuu ihmeen suurelta kun 1/30 on 33ms. Ymmärtäisin jonkun 50-60ms viiveen mutta toi on jo aika paha.
Oliskohan rajoittanut GPU:n suorituskykyä power limitillä tms. jokaisessa skenaariossa erikseen saavuttaakseen nuo lähtökohdat. Ainakin noin tuon pystyisi tekemään.
Edit: Taitaakin toimia suoraan noin tuon natiivi fps:n rajoittuminen rajoittamalla maksimi fps:n 120:een.
 
Viimeksi muokattu:
Nyt oli kyse noista lähtökohdista (30, 40, 60), eli mistä boostataan tuonne 120 hertsiin.
V-Sync päälle Nvidian settareista niin FPS limitti määrittyy automaattisesti näytön virkistystaajuuden mukaisesti, kun FG + Reflex käytössä. 120hz näytöllä se on ~116fps (ja tämä siis lopullinen fps FG:n kanssa). Ainakin G-Sync näytöllä näin.

(Tulipa Paapaan viesti aiemmin ymmärrettyä väärin että kysyikin tuota kuinka rajoitettu fps eikä kuinka mitattu viive... hups.)
 
Pelaajia aletaan vain totuttamaan tulevaisuuden pilvipelaamiseen. Kun viive ja häröilevä kuva on uusi normi niin siirtymä on luonnollinen eikä tarvita enää paikallista rautaa tuottaa ja saadaan enemmän profittia kk-maksuista. Ei mutta framegen on varmaan ihan kiva jos pelaa hidastempoisia kävelysimulaattoreita rt päällä ja haluaa smoothin kuvan uudelle hienolle näytölle. Tämä olisi kyllä parempi tekniikka vaikka animaatioiden tekoon kuin pelaamiseen. Mietin vaan miksi tämä purkkaviritys on tehty. Mikään AI ei 60fps kuvasta ennusta nyt eikä tulevaisuudessa näkymätöntä kuvadataa. Jotkut kyllä pelaa konsolillakin tyytyväisenä tv;n movie modella 200ms viiveellä, mutta pc pelaajat, ainakin ennen, arvotti pelattavuuden ykköseksi. Edelleen toivon vastuuta devaajilta, dlss on jo vakio, kunhan fg ei ole se tulevaisuuden 60fps vaatimus. Jännä muuten sekin, että grafiikoita on pakko viedä eteenpäin vaikka tekniikka ei pysy perässä.
 
Nyt oli kyse noista lähtökohdista (30, 40, 60), eli mistä boostataan tuonne 120 hertsiin.
Niin, jos ulostulo on max 120 Hz niin miten boostaat siitä muuten kuin leikkaamalla maksimit niin pieneksi että framet mahtuu? Ei taida tuo osata lennossa säätää väliframejen määrää...

EDIT:
Selitän vielä toiselta kantilta. Jos laitat VSYNC päällä framegenin päälle, se leikkaa natiiviframejen "vscyncin" (max)/(MFG kerroin).
 
Mietin vaan miksi tämä purkkaviritys on tehty.
Yksinkertaista.

NVIDIA on pistänyt paljon paukkuja ja piirialaa Tensor-coreihin koska AI. Ja koska ei ole taloudellisesti järkevää valmistaa piiriä pro-kortteihin täysin omalla arkkitehtuurillaan, pitää näille coreille löytyä käyttöä pelikäytössä.

DLSS lähti tästä tarpeesta hyödyntää tuota osaa piiristä peleissä ja samalla hakea etua kilpailijoiden kortteihin joissa moisia ei ollut. Frame Generation on vain uusi tapa yrittää hyödyntää tätä piirin osaa ja markkinointiosasto on varmasti iloinen kun keksitään tapa jolla markkinointinumeroita saa isommaksi. Kyllähän jo DLSS upscaleakin myytiin häpeilemättä "bigger fps number"-kusetuksella jossa häivytettiin se että todellisuudessa rendataan alemmalla resoluutiolla ja samaan aikaan DLAA-tyylistä käyttöä pyrittiin häivyttämään koska sen kanssa luonnollisesti numerot ovat pienempiä vaikka kuvan laatu olisi huikeasti parempi ja framerate varmasti parempi kuin jos rendattaisiin yli näytön tarkkudella (super resolution tms). Tämä siis sen sijaan jos olisi sanottu toisin päin että hei tämä kortti pystyy saamaan alemman 1080p reson näyttämään huikeasti paremmalta sun 1440p näytöllä ja se myös sitten pyörii nopeammin. Normaalia markkinointia.

Joku voisi tarjota keppiä NVIDIAn markkinointiosastolle että lopettakaa kuluttajien sumuttaminen, mutta niin kauan kuin tämä toimii, kukaan ei tätä tule tekemään. Tavalliset kuluttajat ostelevat sattumanvaraisesti mitä ostavat, PC-komponenttien viidakko on sitä samaa täysin sekavaa soppaa josta Tavallinen Jamppa ei ymmärrä mitään ja alaan harrastajat lähinnä naureskelevat markkinointiosastoille ja osoittelevat sormella koomisia prebuilt-kokoonpanoja joita pelikoneina myydään jne. ja matka jatkuu.

Se tosin sitten on ihan totta että pidemmällä aikavälillä - sanotaan 2-3 generaatiota eteenpäin kortteja ja DirectXn kehitystä - AI-juttuja tulee mukaan enemmän ja enemmän renderöintiin ihan vaan siksi että näin voidaan paljon pienemmällä virrankulutuksella saada parempaa lopputulosta. Ja NVIDIAn nykyiset tuotokset ovat askeleita tähän suuntaan. Nämä vain ottavat vuosia koska pelintekijät eivät voi nojata tällaiseen ennen kuin joka jampalla on kortit jotka näitä tukevat. RT alkaa olla nyt relevantti peleissä "pohjatasona" ja rautatuki tuli kuusi vuotta sitten...

Ja kunnes ollaan siellä, NVIDIAn markkinointiosaston pitää keksiä jippoja joita sitten toteutetaan osaan peleistä markkinointiosaston rahoituksella. Että kortit käyvät kaupaksi.
 
Niin, jos ulostulo on max 120 Hz niin miten boostaat siitä muuten kuin leikkaamalla maksimit niin pieneksi että framet mahtuu? Ei taida tuo osata lennossa säätää väliframejen määrää...

EDIT:
Selitän vielä toiselta kantilta. Jos laitat VSYNC päällä framegenin päälle, se leikkaa natiiviframejen "vscyncin" (max)/(MFG kerroin).
Aivan juu eli jos nyt ymmärsin oikein, niin ei tarvitsekkaan kikkailla power limittien kanssa, vaan natiiviframet rajoittuu ns. automaattisesti FG:n kanssa, kun fps on rajoitettu tiettyyn kohtaan (oli sitten VSYNC/G-syncillä Nvidia control panelista tai fps-capilla (?).
 
Eli peleissä taitaa sitten olla sen +10-15%, riippuen siitä miten paljon peli hyötyy nopeammasta videomuistista. Aika lailla siellä pallokentällä minkä pystyi jo arvaamaan CUDA-ytimien määrästä.
 
Kyllähän jo DLSS upscaleakin myytiin häpeilemättä "bigger fps number"-kusetuksella jossa häivytettiin se että todellisuudessa rendataan alemmalla resoluutiolla

Ja nykyään suurin osa laittaa ihan kiltisti vaikkapa dlss qualityt päälle ja uskottelee ettei huomaa mitään eroa, vaikka samanlainen kusetus kyseessä kun FG.

Halvempaa ostaa tuhnu kortti ja lyödä dlss päälle vs ostaa kalliimpi kortti ja ajaa natiivina.
 
Ja nykyään suurin osa laittaa ihan kiltisti vaikkapa dlss qualityt päälle ja uskottelee ettei huomaa mitään eroa, vaikka samanlainen kusetus kyseessä kun FG.

Halvempaa ostaa tuhnu kortti ja lyödä dlss päälle vs ostaa kalliimpi kortti ja ajaa natiivina.

Tuhnuilla korteilla ei ole tarpeeksi natiivipotkua että voisi laittaa dlss:ää päälle

Tuohan ei ole mikään low end korttien tehonlisääjä vaan hyvä ominaisuus niille joilla on jo valmiiksi iso reso ja paljon frameja
 
Tuhnuilla korteilla ei ole tarpeeksi natiivipotkua että voisi laittaa dlss:ää päälle

Tuohan ei ole mikään low end korttien tehonlisääjä vaan hyvä ominaisuus niille joilla on jo valmiiksi iso reso ja paljon frameja
Köyhää voi se voi itkettää jos kokeilee ilman DLSS, niin kuin minulle kävi kun kokeilin miltä Stalker 2 näyttää natiivina 3080:llä. Siirappimainen pehmeys katosi ja oli kuin olisin saanut uudet silmälasit sopivalla vahvuudella. Harmi että peli pyöri high asetuksilla noin 30-35 fps ilman DLSS:ää. :cry:
 
Eli peleissä taitaa sitten olla sen +10-15%, riippuen siitä miten paljon peli hyötyy nopeammasta videomuistista. Aika lailla siellä pallokentällä minkä pystyi jo arvaamaan CUDA-ytimien määrästä.
Aika surkean pieneksi ovat kyllä nämä parannukset rasterointisuorituskyvyssä menneet. RTX 2000 -sarjaa haukuttiin väliinputoajaksi mutta kumminkin 2080 oli noin 30% nopeampi ainakin mitä 1080.

Hyvä puoli on ettei tarvitsisi enää päivittää näyttistä kovin usein, mutta kun keksivät että pitää käyttä näitä kuvanlaatua huonontavia ja latenssia lisääviä kikkoja niin kai tuo tarkoittaa että tulevaisuuden pelit "optimoidaan" niin etteivät enää pyöri ilman niitä, eli tarvitsee sen uuden näyttiksen kumminkin vaikkei mikään "oikeasti" parannu.
 
Omat veikkaukset on, että 6000 sarjassa 5090->6090 on noin 10-25% lisää tehoa mutta 6080 kohdalla voi tulla selkeä hyppäys ylöspäin. Lisäävät mm cuda ytimiä siihen. Vakio muisti 6080 alkaa 20GB tai enemmän. 5090 on enempi ja vähempi lähes äärimmilleen viety piiri mitä kannattaa tehdä 4nm nodella ja näin ollen ei yhden noden parannuksella varmaan kovin kummosia saavuteta. 6000 sarjan kohdalla tod.näk vielä GDDR7 käytössä ellei sitten Nvidia taas lanseeraa tyyliin GDDR7X muisteja Micronin kanssa tms.
 
Omat veikkaukset on, että 6000 sarjassa 5090->6090 on noin 10-25% lisää tehoa mutta 6080 kohdalla voi tulla selkeä hyppäys ylöspäin. Lisäävät mm cuda ytimiä siihen. Vakio muisti 6080 alkaa 20GB tai enemmän. 5090 on enempi ja vähempi lähes äärimmilleen viety piiri mitä kannattaa tehdä 4nm nodella ja näin ollen ei yhden noden parannuksella varmaan kovin kummosia saavuteta. 6000 sarjan kohdalla tod.näk vielä GDDR7 käytössä ellei sitten Nvidia taas lanseeraa tyyliin GDDR7X muisteja Micronin kanssa tms.
6000 sarja tulee uudella nodella, "2nm" tai "3nm". Siitä saadaan jo parannusta, ellei sitten laiteta tosi pieniä siruja.

UDNA/RDNA5 tuo toivottavasti taas kilpailua high endiin myös.
 
6000 sarja tulee uudella nodella, "2nm" tai "3nm". Siitä saadaan jo parannusta, ellei sitten laiteta tosi pieniä siruja.

UDNA/RDNA5 tuo toivottavasti taas kilpailua high endiin myös.
3nm ei ole kovin realistinen kun sram ja io ei skaalaa pienemmäksi. Iso osa piiristä ei kutistu 3nm:iin mennessä ja hinta per 1mm2 pompsahtaa.

Jopa apple nikottelee 2nm hinnan kanssa. Ei tarvinne odotella lähivuosina 2nm kuluttajatuotteita nvidialta. Applekin apajilla vasta 2026: Apple's decision to delay use of TSMC's 2nm node until 2026 based on wafer prices

Kai se on seuraavassa generaatiossa chiplettien aika. Rubin konesalipiiri kertoo paljon. Miten 3nm rubinissa ratkaistu sram skaalautuminen(logiikka 3nm ja 4nm sram chipletit?) Toki blackwell konesalipiirinkin tapaan kovimman 60x0 pelikortin voisi tehdä chiplettinä+tsmc 4np.

GB202 Kuvasta voi bongata isot cachet ja io:n mitkä eivät 3nm:lla skaalaannu pienemmäksi. CUDA ytimissäkin cachea vaikkei kuvasta sitä näe
1737902649708.png

 
3nm ei ole kovin realistinen kun sram ja io ei skaalaa pienemmäksi. Iso osa piiristä ei kutistu 3nm:iin mennessä ja hinta per 1mm2 pompsahtaa.

Jopa apple nikottelee 2nm hinnan kanssa. Ei tarvinne odotella lähivuosina 2nm kuluttajatuotteita nvidialta jos applenin apajilla vasta 2026: Apple's decision to delay use of TSMC's 2nm node until 2026 based on wafer prices

Kai se on seuraavassa generaatiossa chiplettien aika. Rubin konesalipiiri kertoo paljon. Miten rubinissa ratkaistu sram skaalautuminen(chiplet?) Toki blackwell konesalipiirinkin tapaan kovimman kortin voisi tehdä chiplettinä+tsmc 4np.

Kuvasta voi bongata isot cachet ja ip:n mitkä eivät 3nm:lla skaalaannu pienemmäksi. CUDA ytimissälin cachea vaikkei kuvasta näe
1737902649708.png

Meinaatko että tehtäs kolmannen kerran käytännössä samalla nodella? Epäilen vahvasti.
 
Meinaatko että tehtäs kolmannen kerran käytännössä samalla nodella? Epäilen vahvasti.
Kun katso mitä realistisia vaihtoehtoja on niin 3nm monoliitti ei toimine kun sram ja io ei skaalaa. 2026 2nm liian kallis. Jäljelle ei oikein jää kuin chiplet tai odotella vuosi/kaksi lisää että 2nm monoliitti on järkevän hintainen

Rubin kertoo paljon miten nvidia ratkaisee sram skaalaamisongelman. Ehkä maaliskuussa gtc messuilla tietoa 3nm rubinista. Toinen vaihtoehto tehdä 2xtsmc 4np sirut ja niitata ne yhteen kuten blackwell konesalipiirissä on tehty. Konesalipiirissä 10TB/s väylä piirien välissä. Riittänee siihen että yhteenlaitetut piirit toimivat kuten monoliitti.

Kuvan konesalipiiri 2 erillistä piiriä ja välissä 10TB/s väylä.
1737903481377.png
 
Viimeksi muokattu:
Kun katso mitä realistisia vaihtoehtoja on niin 3nm monoliitti ei toimine kun sram ja io ei skaalaa. 2026 2nm liian kallis. Jäljelle ei oikein jää kuin chiplet tai odotella vuosi/kaksi lisää että 2nm on järkevän hintainen

Rubin kertoo paljon miten nvidia ratkaisee sram skaalaamisongelman. Ehkä maaliskuussa gtc messuilla tietoa 3nm rubinista. Toinen vaihtoehto tehdä 2xtsmc 4np sirut ja niitata ne yhteen kuten blackwell konesalipiirissä on tehty. Konesalipiirissä 10TB/s väylä piirien välissä. Riittänee siihen että chiplet toimii kuten monoliitti.

Kuvan konesalipiiri 2 erillistä piiriä ja välissä 10TB/s väylä.
1737903481377.png
Tässä ehtii vielä tapahtumaan paljon ennen 2027 alkua, toki voidaan tehdä kolmas 4nm refreshi. Sitten voidaan tuoda 10x frame generation ja kattoo miten kauppa käy.

4090 ois paras ostos ikinä kun sillä pärjäis hyvin 6 vuotta melkein :hmm:
 
Tässä ehtii vielä tapahtumaan paljon ennen 2027 alkua, toki voidaan tehdä kolmas 4nm refreshi. Sitten voidaan tuoda 10x frame generation ja kattoo miten kauppa käy.

4090 ois paras ostos ikinä kun sillä pärjäis hyvin 6 vuotta melkein :hmm:
Jos mä löisin nyt vetoa niin pitäisin kahtena todennäköisimpinä vaihtoehtoina 3nm logiikkapiiri + vanhemman piiriteknologian sram chiplet tai konesali blackwell tyylinen 2xtsmc 4np piirit yhteen liimattuna ratkaisuja. 4NP hieman tiheämpi ja parempi kuin mitä nyt pelikorteissa käytössä. Chipletin realistisuus riippunee täysin paketointikapasiteetin riittävyydestä. Tällä hetkellä kapasiteetista pulaa, konesalia menis enempi kaupaksi kuin mitä piiriä saadaan paketoitua.

En pidä mitään ratkaisua varmana. Rubin kertoo paljon kunhan se julkaistaan.
 
Tuo 2 piiriä yhteen menee kyllä sektoriin "ihanan kallista". Jos $2000 tuntui hapokkaalta niin jos tämä tempaus tehtäisiin 60-sarjaan niin se lähemmäs tuplaisi hinnan. Okei, piirit voisivat olla vähän pienempiä, mutta ei niin hirveästi että tilanne varsinaisesti muuttuisi ja tuo yhteenliimaus-paketointi on ihanan kallista.

$3000 lippulaivapelikortti? Missä menee älyttömyyden raja?
 
Tuo 2 piiriä yhteen menee kyllä sektoriin "ihanan kallista". Jos $2000 tuntui hapokkaalta niin jos tämä tempaus tehtäisiin 60-sarjaan niin se lähemmäs tuplaisi hinnan. Okei, piirit voisivat olla vähän pienempiä, mutta ei niin hirveästi että tilanne varsinaisesti muuttuisi ja tuo yhteenliimaus-paketointi on ihanan kallista.

$3000 lippulaivapelikortti? Missä menee älyttömyyden raja?
Siinä jos on valmis maksamaan sen 3000e ja joutuu taistelemaan korteista :D
 
Tuo 2 piiriä yhteen menee kyllä sektoriin "ihanan kallista". Jos $2000 tuntui hapokkaalta niin jos tämä tempaus tehtäisiin 60-sarjaan niin se lähemmäs tuplaisi hinnan. Okei, piirit voisivat olla vähän pienempiä, mutta ei niin hirveästi että tilanne varsinaisesti muuttuisi ja tuo yhteenliimaus-paketointi on ihanan kallista.

$3000 lippulaivapelikortti? Missä menee älyttömyyden raja?
kyllähän chipletit teki niin tai näin nostaa hintaa. Syynsä siihenkin miksi rdna4 ei ole chiplet.

Ehkä joku 256 tai 384bit piiri mistä tehdään kahden piirin versiolla 768bit 6090 ja 256/384 bit 6080 hieman auttaa. Pienemmät piirit sitten monoliitteja. Suunnittelu, tapeout, maskit, valmistus, yhden kehitys ja valmistuskuluilla kaksi tuotetta. Toisaalta piirien välinen kommunikaatio vaatii pinta-alaa. Toinen vaihtoehto erilliset logiikka+cache piirit.

Rubin kertoo, liekö rubin allaolevaan perustuva? Erillinen logiikka ja cache piiri: GPU Domain Specialization via Composable On-Package Architecture | Research

1737908872133.png
 
Tuo 2 piiriä yhteen menee kyllä sektoriin "ihanan kallista". Jos $2000 tuntui hapokkaalta niin jos tämä tempaus tehtäisiin 60-sarjaan niin se lähemmäs tuplaisi hinnan. Okei, piirit voisivat olla vähän pienempiä, mutta ei niin hirveästi että tilanne varsinaisesti muuttuisi ja tuo yhteenliimaus-paketointi on ihanan kallista.

$3000 lippulaivapelikortti? Missä menee älyttömyyden raja?

Onhan nyt jo osa 5090 korteista yli 3000€ Euroopassa... Täällä varmaan sitten mentäisiin yli 4000€.
 
Puhuin nyt ihan taalahinnoista ilman veroja. $2400 konvertoituu noin 3000 euroksi kun tulee vähän herkullista 25,5% ALVia päälle.
 
Chiplettien välinen kommunikaatio on hidasta (VS monoliitti), vie virtaa ja vaatii ylimääräisiä transistoreja ja liimailu ja alustatkin maksaa.. Taisi AMD:lläkin mennä suunnitemat jo kertaalleen vituiksi, kun eikös AMD:llä ollut suunnitelmissa chiplettinäyttikset ja nyt tilanne on se, ettei ole oikein mitään kunnollista..
 
Chiplettien välinen kommunikaatio on hidasta (VS monoliitti), vie virtaa ja vaatii ylimääräisiä transistoreja ja liimailu ja alustatkin maksaa.. Taisi AMD:lläkin mennä suunnitemat jo kertaalleen vituiksi, kun eikös AMD:llä ollut suunnitelmissa chiplettinäyttikset ja nyt tilanne on se, ettei ole oikein mitään kunnollista..
Nvidialla on 10TB/s konesali blackwell:ssa kaistaa piirien välillä
1737930119147.png


Arvelen, että amd:n suunnitelma kuluttajapuolella hajosi kun kaikki paketointikapasiteetti menee konesalipiireihin.
 

Statistiikka

Viestiketjuista
265 986
Viestejä
4 601 677
Jäsenet
75 745
Uusin jäsen
Juokkis

Hinta.fi

Back
Ylös Bottom