NVIDIA-spekulaatioketju (Blackwell ja tulevat sukupolvet)

DLSS ja FG on kehitetty ray tracing sp peleille joissa se pieni lisä viive ei haittaa vs parempi sulavuus. Online pvp peleissä ei tarvitse skaalausta kun mikä tahansa moderni gpu pelaa niitä tarpeeksi hyvin muutenkin.
Jopa lossless scaling, joka ei osaa asiaa yhtä hyvin kuin dlss fg, on tarpeeksi hyvä yksinpeleille.

FG ruutujen arvo vs natiivi olisi ehkä ongelma jos muun brandin kortit olisivat kilpailukykyisiä ja niitä pitää vertailla, mutta tällä hetkellä 90% kuluttajista vain ostaa parhaan nvidia gpun mihin on varaa.
Itseä se pieni lisäviive ainakin haittaa myös yksinpeleissä. Täytyi oikein taas koittaa frame geniä DLSS:än kaverina Indiana Jonesissa ja eihän sitä latenssia, tai miten tuota tahmeaa hiiren liikettä kuvailisikaan, sietänyt kauaa. Pohjalla oli tässä 80 fps. Paljon mielummin natiivi 80 fps kuin frame genillä tuosta tuotettu x fps. Asetuksia kun pienensi, sai lähtötilanteen reiluun 100 fps:ään, jolloin FG tuntui jo paremmalta, mutta sitten tuli artifaktit ja huonommat grafiikat kaupan päälle.

FG:n isoin ongelma siis mielestäni on, että se tarvitsee suuressa osassa pelejä tuon 100+ fps toimiakseen kohtalaisesti, mikä tulee olemaan aika hankalaa saavuttaa uusissa peleissä jollain RTX 5070:llä käyttäen hyviä grafiikka-asetuksilla ja esim. UWQHD:ta, puhumattakaan 4K:sta. Tämän vuoksi myös Nvidian tapa mainostaa uutta FG:tä juuri 5070:llä on mielestäni huvittavaa. Mielummin otan raakaa rasterointisuorituskykyä ja laitan DLSS:än tai FSR:än päälle hyvillä grafiikoilla, kuin käytän frame geniä.
 
Itseä se pieni lisäviive ainakin haittaa myös yksinpeleissä. Täytyi oikein taas koittaa frame geniä DLSS:än kaverina Indiana Jonesissa ja eihän sitä latenssia, tai miten tuota tahmeaa hiiren liikettä kuvailisikaan, sietänyt kauaa. Pohjalla oli tässä 80 fps. Paljon mielummin natiivi 80 fps kuin frame genillä tuosta tuotettu x fps. Asetuksia kun pienensi, sai lähtötilanteen reiluun 100 fps:ään, jolloin FG tuntui jo paremmalta, mutta sitten tuli artifaktit ja huonommat grafiikat kaupan päälle.

FG:n isoin ongelma siis mielestäni on, että se tarvitsee suuressa osassa pelejä tuon 100+ fps toimiakseen kohtalaisesti, mikä tulee olemaan aika hankalaa saavuttaa uusissa peleissä jollain RTX 5070:llä käyttäen hyviä grafiikka-asetuksilla ja esim. UWQHD:ta, puhumattakaan 4K:sta. Tämän vuoksi myös Nvidian tapa mainostaa uutta FG:tä juuri 5070:llä on mielestäni huvittavaa. Mielummin otan raakaa rasterointisuorituskykyä ja laitan DLSS:än tai FSR:än päälle hyvillä grafiikoilla, kuin käytän frame geniä.
Ongelma ratkeaa säätämällä ensin fps sellaiseksi ettei viive haittaa. Jos säädön jälkeen on löysää monitorissa niin ottaa löysät pois FG:n avulla. Mä voisin kuvitella nostavani 72fps natiivin 144fps:aan(144Hz monitori mulla). Joku toinen voi olla että 120fps-240fps konversio ja kolmas ei koske tähän pitkällä tikullakaan.

Bonuksena koska pelissä on FG niin pelissä on myös reflex2. Tarkoittaa että peli on latenssioptimoitu vaikka ei käyttäisi FG:ta. Sekin voittaa joka ei edes käytä FG:ta kun aikaa on käytetty latenssiasian kanssa painimiseen.
 
Viivettä isompi ongelma FG:ssä on mielestäni artifaktit / ghostaukset, joita ainakin omalla 4090:lla tulee sitä käytettäessä. Joku wukong näyttää ihan kamalalta. Tosin ehkäpä se uusi transformer modeli tuo parannusta.

Näihin uusi dlss lupaa korjausta. NVIDIA appiin pitäisi tulla .dll switcher jolla ghostaus/artifaktipäivitykset saa myös vanhoihin peleihin itse päivitettyä. Lisäksi nämä muutokset pitäisi tulla myös 4000-sarjan kortteihin.

FG latenssiin käsittääkseni tulee myös jotain parannuksia uuden reflex 2:n avulla, että sen ei pitäisi olla niin paha.

Ada 6000 maksaa 10000€ eikä isolla muistilla varustetut macitkaan ole halpoja. 32-giganen kortti 2450€ on ihan OK lähtökohta.
 
Ada 6000 maksaa 10000€ eikä isolla muistilla varustetut macitkaan ole halpoja. 32-giganen kortti 2450€ on ihan OK lähtökohta.
Ei siinä 4090/5090 mitään vikaa ole jos pystyy muistirajoituksen kanssa elämään. Moni firmakin käyttää 4090:sta inferenssiin ja myös pienempien mallien tuunaamiseen omalla datalla.

Digits alkaen 3000$+verot ja sisältää 1PFlop fp4, 128GB muisti, konesali blackwell arkkitehtuuri. Noita saa kaksi linkattua yhteen ConnectX:lla niin muistikapasiteetti tuplaantuu. Hitaampi kuin 5090 mutta iso muisti. Toi on kai tarkoitettu puhtaaksi r&d alustaksi jossa saa debugattua ja kehiteltyä isoja kielimalleja. Pääasia iso muisti eikä niinkään maksimaalinen suorituskyky.

1736687302969.jpeg

 
En tiedä oliko jotain kautta tullut jo vahvistus (spekulaatiota kyllä oli), mutta tukka-Steve mainitsee RTX 5000 roundupissaan, että FE:ssä olisi nestemetallia corella:

1736687813689.png

Ajassa ~7:45 puhuessaan Asuksen phase-change lämmönsiirtomateriaalista
Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.
 
Ongelma ratkeaa säätämällä ensin fps sellaiseksi ettei viive haittaa. Jos säädön jälkeen on löysää monitorissa niin ottaa löysät pois FG:n avulla. Mä voisin kuvitella nostavani 72fps natiivin 144fps:aan(144Hz monitori mulla). Joku toinen voi olla että 120fps-240fps konversio ja kolmas ei koske tähän pitkällä tikullakaan.
Juu ja siihen tarvitaan sitä raakaa tehoa, mitä nämä Nvidian uutuudet eivät vaikuta ihan hirveästi tuovan lisää. 120->240 konversion tapauksessa RTX 5070:n tehot riittänee uusissa peleissä hädin tuskin 1440p:llä, kun 4090 riittää edelleen 4K:lla.
 
Juu ja siihen tarvitaan sitä raakaa tehoa, mitä nämä Nvidian uutuudet eivät vaikuta ihan hirveästi tuovan lisää. 120->240 konversion tapauksessa RTX 5070:n tehot riittänee uusissa peleissä hädin tuskin 1440p:llä, kun 4090 riittää edelleen 4K:lla.
Millä meinasit sitä raakaa tehoa tehdä enemmän ilman, että hinnat menis katosta läpi? 5090 on suurinpiirtein niin iso piiri, kuin 4nm teknologialla voit valmistaa. 512bit muistiväylä, 575W, löysät on otettu pois. 3nm on kallis ja sram ei skaalaannu. Et paljoa saa lisätehoa vaikka tekisit maksimikokoisen 3nm piirin ja hinta olis ... järjetön.

Eletään aikaa missä ei enää valmistusteknologian avulla tehdä ilman hinnan älytöntä pompsahtamista isoa lisätehoa 2v välein. Chipletit voi jossain kohtaa muuttaa tätä yhtälöä, mutta sen aika ei ollut 2025 kuluttajapiireissä. Konesali blackwell tyylinen ratkaisu olis ollut mahdollisuus pelipuolellekin, mutta paketointikapasiteetti ja hinta.
 
Millä meinasit sitä raakaa tehoa tehdä enemmän ilman, että hinnat menis katosta läpi? 5090 on suurinpiirtein niin iso piiri kuin 4nm teknologialla voit valmistaa. 3nm on kallis ja sram ei skaalaannu. Et paljoa saa lisätehoa vaikka tekisit maksimikokoisen 3nm piirin ja hinta olis ... järjetön.
En minä 5090:stä kai mitään puhunut. Siinä riittää vääntö ihan mihin tahansa. 5070 taas sitten aivan eri kortti pienellä muistilla ja vaatimattomalla tehonlisäyksellä vs. 4070, ja sitä Nvidia yrittää markkinoida 4090 tehoisena.
 
En minä 5090:stä kai mitään puhunut. Siinä riittää vääntö ihan mihin tahansa. 5070 taas sitten aivan eri kortti pienellä muistilla ja vaatimattomalla tehonlisäyksellä vs. 4070, ja sitä Nvidia yrittää markkinoida 4090 tehoisena.
Tämä on ihan eri argumentti kuin se mihin lähdin vastaamaan, ts. lagi. Saman säädön voi tehdä 5070:lla. Ensin fps kohdalleen niillä asetuksilla mitä kortti sallii. Jos monitorissa on löysää laittaa FG:n päälle. Jos haluaa lisätehoa niin avattava lompakkoa ihan kuten jos haluaa ferrarin eikä fiattia.

Kyllä minäkin haluaisin fiatin hinnalla ferrarin tai 5070 hinnalla 5090 mutta maailma ei vain toimi niin. AMD jo totesi ettei highend kortteja edes kannaa suunnitella ja valmistaa. Onneksi edes nvidia tekee isompia ja nopeampia piirejä edelleen.
 
Tämä on ihan eri argumentti kuin se mihin lähdin vastaamaan, ts. lagi. Saman säädön voi tehdä 5070:lla. Ensin fps kohdalleen niillä asetuksilla mitä kortti sallii. Jos monitorissa on löysää laittaa FG:n päälle. Jos haluaa lisätehoa niin avattava lompakkoa ihan kuten jos haluaa ferrarin eikä fiattia.

Kyllä minäkin haluaisin fiatin hinnalla ferrarin tai 5070 hinnalla 5090 mutta maailma ei vain toimi niin. AMD jo totesi ettei highend kortteja edes kannaa suunnitella ja valmistaa. Onneksi edes nvidia tekee isompia ja nopeampia piirejä edelleen.
On kyllä vähän tyhmää verrata jotain autoja tietokoneen komponenttien hintoihin kun autot maksavat niin paljon enemmän mutta monille se fiatti riittää vaikka haluaisikin sen ferrarin. Ne kenellä on rahaa oli todellista tarvetta tai ei niin ostaa sen ferrarin vaikka sillä fiatilla pärjäisi.
 
Itseä se pieni lisäviive ainakin haittaa myös yksinpeleissä. Täytyi oikein taas koittaa frame geniä DLSS:än kaverina Indiana Jonesissa ja eihän sitä latenssia, tai miten tuota tahmeaa hiiren liikettä kuvailisikaan, sietänyt kauaa. Pohjalla oli tässä 80 fps. Paljon mielummin natiivi 80 fps kuin frame genillä tuosta tuotettu x fps. Asetuksia kun pienensi, sai lähtötilanteen reiluun 100 fps:ään, jolloin FG tuntui jo paremmalta, mutta sitten tuli artifaktit ja huonommat grafiikat kaupan päälle.

FG:n isoin ongelma siis mielestäni on, että se tarvitsee suuressa osassa pelejä tuon 100+ fps toimiakseen kohtalaisesti, mikä tulee olemaan aika hankalaa saavuttaa uusissa peleissä jollain RTX 5070:llä käyttäen hyviä grafiikka-asetuksilla ja esim. UWQHD:ta, puhumattakaan 4K:sta. Tämän vuoksi myös Nvidian tapa mainostaa uutta FG:tä juuri 5070:llä on mielestäni huvittavaa. Mielummin otan raakaa rasterointisuorituskykyä ja laitan DLSS:än tai FSR:än päälle hyvillä grafiikoilla, kuin käytän frame geniä.

Tämä on hyvin yksilöllistä. Varmasti jos on kilpapelitaustaa FPS-pelien saralla, tuo pieni lisäviive tuntuu heti selkeämmin. Itse pelailen hiirellä ihan tyytyväisenä 45-50 FPS pohjalla joka "tuplaantuu" sinne 80-100 FPS välille. Toki tuo vaihtelee vähän pelistä riippuen, miten paljon DLSS Frame gen lisää lagia. Kyllähän sen huomaa, jos keskittyy liikuttelemaan hiirtä nopeasti edes takaisin, mutta ei semmoisella ole oikein tarvetta useissa yksin peleissä. Jossain Doom Eternalissa ei kyllä itsellenikään tulisi mieleen laittaa Frame geniä päälle. No se peli pyörii muutenkin sen 200+ FPS:llä, niin eipä ole tarvettakaan.
 
On kyllä vähän tyhmää verrata jotain autoja tietokoneen komponenttien hintoihin kun autot maksavat niin paljon enemmän mutta monille se fiatti riittää vaikka haluaisikin sen ferrarin. Ne kenellä on rahaa oli todellista tarvetta tai ei niin ostaa sen ferrarin vaikka sillä fiatilla pärjäisi.
Ei se 5090 isompi piiri, isompi muistimäärä, parempi pcb, parempi virransyöttö, 575W lämmöntuoton hanskaava jäähy yms. ole ilmaisia. Toinen puoli, jos olisi kermaa amd ei olisi luovuttanut highendin kanssa. Olisihan nuo kiva saada 5070 hinnalla, mutta se ei ole realistista.
 
Ei ole vielä tainnut käydä niin että valmistusprosessin hinta ei tulisi alas ajan kanssa, eiköhän niin käy myös 3 nm prosessin kanssa. Tuota on jo toitotettu 4000 sarjan julkaisussa että nyt tuli seinä vastaan, mutta silti julkaisevat tehokkaampia malleja taas jopa niin että osa on halvempia kuin edelliset. Eiköhän aika kerro miten käy, mutta tällä hetkellä siruvalmistaijlla on tietenkin helppo hinnoitella kaikki pilviin kun kysyntä on enemmän kuin ehtivät valmistaa.
 
Ei se 5090 isompi piiri, isompi muistimäärä, parempi pcb, parempi virransyöttö, 575W lämmöntuoton hanskaava jäähy yms. ole ilmaisia. Toinen puoli, jos olisi kermaa amd ei olisi luovuttanut highendin kanssa. Olisihan nuo kiva saada 5070 hinnalla, mutta se ei ole realistista.

Mutta Nvidia mainostaa 5070:aa 4090 tehoisena korttina jota se ei ole. FG:n kanssa toki ruutuja saa saman verran, mutta jos lähtötilanne on vaikka 40fps niin ei se pelikokemus todennäköisesti ole lähellekkään vastaava kuin 4090:lla...
 
Ei ole vielä tainnut käydä niin että valmistusprosessin hinta ei tulisi alas ajan kanssa, eiköhän niin käy myös 3 nm prosessin kanssa. Tuota on jo toitotettu 4000 sarjan julkaisussa että nyt tuli seinä vastaan, mutta silti julkaisevat tehokkaampia malleja taas jopa niin että osa on halvempia kuin edelliset. Eiköhän aika kerro miten käy, mutta tällä hetkellä siruvalmistaijlla on tietenkin helppo hinnoitella kaikki pilviin kun kysyntä on enemmän kuin ehtivät valmistaa.
Hinnat on menneet ylöspäin. TSMC nostaa 10% hintoja tänä vuonna myös vanhemmille prosesseille. Viime vuonna oli myös useampi hinnanosto. Ongelma 3nm:ssa hinnan lisäksi se ettei sram:nin ja io:n koko skaalaannu. Ilmeisesti 2nm:ssa sram skaalaantuu, mutta jopa apple kakoo 2nm hinnan ja kapasiteetin kanssa. Yksi ratkaisu on chipletit.

Toinen puoli, että r&d, tapeout, maskien teko yms. kalliimpaa uusille prosesseille ja yhä isommille piireille. Tämä ei ole ongelma jos piirejä tehdään paljon, mutta matalamman voluumin tuotteissa r&d, maski/tapeout hinta alkaa näkymään merkittävästi piiritasolla. Tämä voi olla yksi lisäsyy siihen miksi amd ei halunnut lähteä enää kisaamaan pienen voluumin highend tuotteista.

2025:

TSMC to Raise Wafer Prices by 10% in 2025, Customers Seemingly Agree​

Reddit - Dive into anything
2024:
1736691858430.png

https://seekingalpha.com/article/46...024-as-revenue-growth-underperforms-customers

Oli kai noita enemmänkin mutta ei jaksa googletella jokaista rasausta.

2nm apple: TSMC's Sky-High Costs For 2nm Chips And Tight Production Capacity Scared Apple Into Dropping Them From iPhone 17 Pro Models

Applen 2nm hinnoittelu saattaa ajaa asiakkaita samsungin suuntaan. Tai ehkä samsung saannot yms. ei riitä ja samsungia käytetään neuvotteluvälineenä: NVIDIA Is Now Rumored To Switch Towards Samsung Foundry For 2nm Process, Ditching TSMC Due To High Costs
 
Hinnat on menneet ylöspäin. TSMC nostaa 10% hintoja tänä vuonna myös vanhemmille prosesseille. Viime vuonna oli myös useampi hinnanosto. Ongelma 3nm:ssa hinnan lisäksi se ettei sram:nin ja io:n koko skaalaannu. Ilmeisesti 2nm:ssa sram skaalaantuu, mutta jopa apple kakoo 2nm hinnan ja kapasiteetin kanssa. Yksi ratkaisu on chipletit.

Toinen puoli, että r&d, tapeout, maskien teko yms. kalliimpaa uusille prosesseille ja yhä isommille piireille. Tämä ei ole ongelma jos piirejä tehdään paljon, mutta matalamman voluumin tuotteissa r&d, maski/tapeout hinta alkaa näkymään merkittävästi piiritasolla. Tämä voi olla yksi lisäsyy siihen miksi amd ei halunnut lähteä enää kisaamaan pienen voluumin highend tuotteista.

2025:

2024:
1736691858430.png

https://seekingalpha.com/article/46...024-as-revenue-growth-underperforms-customers

Oli kai noita enemmänkin mutta ei jaksa googletella jokaista rasausta.

2nm apple: TSMC's Sky-High Costs For 2nm Chips And Tight Production Capacity Scared Apple Into Dropping Them From iPhone 17 Pro Models

Applen 2nm hinnoittelu saattaa ajaa asiakkaita samsungin suuntaan. Tai ehkä samsung saannot yms. ei riitä ja samsungia käytetään neuvotteluvälineenä: NVIDIA Is Now Rumored To Switch Towards Samsung Foundry For 2nm Process, Ditching TSMC Due To High Costs
TSMC on samalla nostanut liikevaihtonsa ja tuloksensa samalle tasolle kuin covidin aikaisen ylikysynnän aikana. Kysyntää on ja se nostaa hintoja itsessäänkin merkittävästi.
 
Isot firmat kilpailuttaa noita vastakkain että saa paremmat diilit. Koska Samsung on halvempi, sen tavara on siis huonompaa koska muuten pyytäisivät enemmän. Mutta TSMC ei ole niin paljoa parempi että siitä maksettaisiin myöskään mitä vaan. Sitten neuvotellaan, testaillaan, säädetään ja katsotaan miten paljon tulee takkiin suorituskyvyssä vs. hinta jos valitaan Samsung vs TSMC. Ja sitten TSMC antaa vähän aletta ja lasketaan uudestaan ja pitkän veivauksen jälkeen valitaan toinen näistä. Ihan normisettiä. Ja hävinnyt nuolee haavojaan ja yrittää parantaa hinta-laatusuhdettaan seuraavaan kierrokseen.

Niin ja Intel Foundries yrittää hypätä myös tähän sekaan mutta taitaa vielä olla vähän "lol joo ehkä sitten joskus kun saatte jotain toimimaan"-sektoria. En jaksa uskoa että esim. NVIDIA pistäisi ison tilauksen GPU-piirejä Inteliltä vielä vuosikausiin. Jos jotain sieltä tilaa, todennäköiseti koemielessä jotain pientä. Esimerkiksi jos NVIDIA hypoteettisesti tekisi uuden Shield-vekottimen version jossa maailma ei kaadu jos suunnitelmat viivästyy vuodella niin voisi ehkä sen piirin teettää koemielessä muualla.
 
En tiedä oliko jotain kautta tullut jo vahvistus (spekulaatiota kyllä oli), mutta tukka-Steve mainitsee RTX 5000 roundupissaan, että FE:ssä olisi nestemetallia corella
Ja tiiseröi videolla että on tehnyt sen erään Nvidian jäähyinsinöörin kanssa videota uudesta jäähystä jo, joten varmaankin häneltä saatua vielä julkaisematonta tietoa tämä nestemetalliasia.
 
Isot firmat kilpailuttaa noita vastakkain että saa paremmat diilit. Koska Samsung on halvempi, sen tavara on siis huonompaa koska muuten pyytäisivät enemmän. Mutta TSMC ei ole niin paljoa parempi että siitä maksettaisiin myöskään mitä vaan. Sitten neuvotellaan, testaillaan, säädetään ja katsotaan miten paljon tulee takkiin suorituskyvyssä vs. hinta jos valitaan Samsung vs TSMC. Ja sitten TSMC antaa vähän aletta ja lasketaan uudestaan ja pitkän veivauksen jälkeen valitaan toinen näistä. Ihan normisettiä. Ja hävinnyt nuolee haavojaan ja yrittää parantaa hinta-laatusuhdettaan seuraavaan kierrokseen.

Niin ja Intel Foundries yrittää hypätä myös tähän sekaan mutta taitaa vielä olla vähän "lol joo ehkä sitten joskus kun saatte jotain toimimaan"-sektoria. En jaksa uskoa että esim. NVIDIA pistäisi ison tilauksen GPU-piirejä Inteliltä vielä vuosikausiin. Jos jotain sieltä tilaa, todennäköiseti koemielessä jotain pientä. Esimerkiksi jos NVIDIA hypoteettisesti tekisi uuden Shield-vekottimen version jossa maailma ei kaadu jos suunnitelmat viivästyy vuodella niin voisi ehkä sen piirin teettää koemielessä muualla.
Switch2:en piiri huhuttu samsung 8nm. Se tosin on vanhaakin vanhempi piiri ampere gpu:lla. Seuraava konesalipiiri Rubin(2026) on vahvistettu tsmc 3nm:lle. Lieköhän maaliskuun gtc-messuilla saataisiin ensimaistiaiset rubin:sta.

 
Jep, ja tietoa odotetaan kuka väsää seuraavan sukupolven consumer rautaa, vai skippaako consumer-kortit koko generaation Voltan tyyliin. Samsung ja TSMC ovat ainakin kisassa mukana.
 
Jep, ja tietoa odotetaan kuka väsää seuraavan sukupolven consumer rautaa, vai skippaako consumer-kortit koko generaation Voltan tyyliin. Samsung ja TSMC ovat ainakin kisassa mukana.
Mun silmiin ei ole osunut vahvistusta siihen mitä nvidia aikoo 2nm:lla valmistaa. Voipi olla, että konesali menee 2nm:lle ja kuluttajapuolelle tulee jotain muuta. Mielenkiinnolla odotan tuleeko rubiniin erillinen cache piiri vanhemmalla prosessilla ja 3nm logiikkapiiri. konesali 2xkonesali blackwellin liimaa jo yhteen 10TB/s väylä niin lienee ihan mahdollista tehdä erillinen cache piiri ja logiikkapiiri.

mietteitä nvidialta 2021 loppuvuodelta. Liekö tuo sitten rubin ja myös ehkä pelipuolen tulevaisuus.
We show how a COPA-GPU enables DL-specialized products by modular augmentation of the baseline GPU architecture with up to 4× higher off-die bandwidth, 32× larger on-package cache, and 2.3× higher DRAM bandwidth and capacity, while conveniently supporting scaled-down HPC-oriented designs. This work explores the microarchitectural design necessary to enable composable GPUs and evaluates the benefits composability can provide to HPC, DL training, and DL inference. We show that when compared to a converged GPU design, a DL-optimized COPA-GPU featuring a combination of 16× larger cache capacity and 1.6× higher DRAM bandwidth scales per-GPU training and inference performance by 31% and 35%, respectively, and reduces the number of GPU instances by 50% in scale-out training scenarios.
1736706226619.png


Huhuavat, että gb202 pelipiiri olisi sisäisesti suunniteltu "chiplet" valmiiksi eli erilliset 2x256bit piirit ja cache välissä, mutta toteutus monoliitti. Jos pitää paikkansa vähentää riskiä matkalla chipletteihin kun osa työstä on jo tehty ja tuotannossa. Seuraavassa generaatiossa splitataan kahdeksi eri piiriksi tai vaihtoehtoisesti iso cache omalle piirille ja logiikka 3nm piirille.
 
Viimeksi muokattu:
Joo näistä on vielä vaikea varmuudella sanoa. Historiallisesti ammattikortit oli vaan ei-nerffattuja kuluttajakortteja ja niistä pystyi arvaamaan paljon pelikorttien tulevaisuudesta, mutta nykyään data center on niin iso juttu NVIDIAlla että voivat ihan huoletta tehdä sinne täysin custom-piirejä joissa on ihan omia keitoksia joilla ei ole mitään tekemistä kuluttajaraudan kanssa. Joo, tietyt arkkitehtuurin peruspalikat varmasti jaetaan edelleen molempien kesken, mutta vain halvimmat ammattikortit ovat pelikorttien kanssa samoilla piireillä (esim. nyt kun 5090 tulee, perässä tulee taatusti jokin RTX 6000 Blackwell Generation jossa sama piiri hieman isomalla CUDA-corecountilla ja tuplamuistlla. Oletettavasti kevään GTC:ssä näistä lisää maaliskuussa)

Koska datacenter-Rubinia on vedetty aiemmaksi (taotaan kun rauta on kuumaa ja kaikki menee kaupaksi) on vaikeaa sanoa vielä mitä tapahtuu pelikorttipuolella. Teoriassahan NVIDIA voisi tehdä Rubin-pohjaisen pelikortin jo 2026 alkuun, mutta onko järkeä jos voi chillaillla Blackwellillä pelipuolella kaksi vuotta ja sen sijaan panostaa että 2027 alussa on sitten jytkyä jolla torpata AMDin seuraavat yritykset pysyä relevanttina. Näin on myös vielä hyvin avoinna missä tehtaassa piirit seuraavan sukupolven pelikortteihin tehdään. Jos tulee vasta 2027 alkuun tai 2026 jouluksi, päätöstä ei vielä taida olla tehty.
 
Viimeksi muokattu:
Joo näistä on vielä vaikea varmuudella sanoa. Historiallisesti ammattikortit oli vaan ei-nerffattuja kuluttajakortteja ja niistä pystyi arvaamaan paljon pelikorttien tulevaisuudesta, mutta nykyään data center on niin iso juttu NVIDIAlla että voivat ihan huoletta tehdä sinne täysin custom-piirejä joissa on ihan omia keitoksia joilla ei ole mitään tekemistä kuluttajaraudan kanssa. Joo, tietyt arkkitehtuurin peruspalikat varmasti jaetaan edelleen molempien kesken, mutta vain halvimmat amattikortit ovat pelikorttien kanssa samoilla piireillä (esim. nyt kun 5090 tulee, perässä tulee taatustu jokin RTX 6000 Blackwell Generation jossa sama piiri hieman isomalla CUDA-corecountilla ja tuplamuistlla. Oletettavasti kevään GTC:ssä näistä lisää maaliskuussa)

Koska datacenter-Rubinia on vedetty aiemmaksi (taotaan kun rauta on kuumaa ja kaikki menee kaupaksi) on vaikeaa sanoa vielä mitä tapahtuu pelikorttipuolella. Teoriassahan NVIDIA voisi tehdä Rubin-pohjaisen pelikortin jo 2026 alkuun, mutta onko järkeä jos voi chillaillla Blackwellillä pelipuolella kaksi vuotta ja sen sijaan panostaa että 2027 alussa on sitten jytkyä jolla torpata AMDin seuraavat yritykset pysyä relevanttina. Näin on myös vielä hyvin avoinna missä tehtaassa piirit seuraavan sukupolven pelikortteihin tehdään. Jos tulee vasta 2027 alkuun tai 2026 jouluksi, päätöstä ei vielä taida olla tehty.
Eiköhän toi väli ole vähintään 2v blackwell peli gpu - seuraava peli gpu eli aikaisintaan 2026 lopussa uudet pelipiirit. Ehkä kolmekin vuotta jos ei ole järkevää keinoa tehdä nopeampaa peli gpu:ta ilman, että hinta pompsahtaa tai että valmistus on pois konesalipuolelta(chiplettien paketointi, miksi amd perui chiplet peli gpu:t,...).

Nvidia on mennyt pitkän aikaa jo all in ai avustimiin koodaus/piirisuunnittelussa. Tuo voi heittää jakoavaimia perinteiseen sykliin jos insinöörit ovat tehokkaampia kuin ennen. Jotain custom hommaa ovat laittamassa taiwaniin pystyyn tyhjistä. Uskon, että tuo custon on lähinnä custom konesalipiirejä isoille asiakkaille, ehkä myös custom piirejä robotteihin, pelikonsoleihin ja läppäreihin. Taiwanin uusi kehitysyksikkö auttanee kehityskuorman jakamisessa. Mediatek myös taiwanissa myös ja huhuttu paljon mediatek+nvidia win11 arm läppäreitä

 
Viimeksi muokattu:
Onko jossain ollut tietoa käyttääkö tuo RTX 5080 samanlaista pientä PCB kuin RTX 5090? Nvidian sivuilla kuvissa ainakin sama jäähdytin ja mitat täsmää millilleen.
 
Onko jossain ollut tietoa käyttääkö tuo RTX 5080 samanlaista pientä PCB kuin RTX 5090? Nvidian sivuilla kuvissa ainakin sama jäähdytin ja mitat täsmää millilleen.
Varmasti käyttää lähes identtistä ratkaisua. Ei noita tuulettimia muuten saisi puhaltamaan rivaston läpi molemminpuolisesti.
 
Mihin näissä 4090 ja 5090 tarvitaan tota wattimäärää? Omaa alivoltannu huolella ja saa virhemarginaalin sisällä olevaa suorituskykyä -100w tehoerolla ja se näkyy lämmöissäkin jo.
 
Mihin näissä 4090 ja 5090 tarvitaan tota wattimäärää? Omaa alivoltannu huolella ja saa virhemarginaalin sisällä olevaa suorituskykyä -100w tehoerolla ja se näkyy lämmöissäkin jo.
Kai se on markkinointihommaa, saadaan maksimi fps:t ulos. Toisella puolella helppo alikellottaa ylijäreää korttia, mutta vaikea ylikellotella jos virransyöttö, jäähy yms. ottaa vastaan. Voi myös vaikeuttaa kilpailijoiden elämää, kun on otettu löysät pois.
 
Kai se on markkinointihommaa, saadaan maksimi fps:t ulos. Toisella puolella helppo alikellottaa ylijäreää korttia, mutta vaikea ylikellotella jos virransyöttö, jäähy yms. ottaa vastaan. Voi myös vaikeuttaa kilpailijoiden elämää, kun on otettu löysät pois.
Jooh, eiköhän tää 4090 jaksa vielä pari vuotta ilman et tarvii nahkatakki-ukkoo heittää täysin vittuun. Semikehno päivitys kyllä.
 
Itellä yleensä se dlaa+fg päällä esim tuossa grayzonessa ja fps avg varmaan sen 92 ja powertarget säädetty 50% niin ei käy liian kuumana, hyvin pelaa omalla näytöllä 4090. Eli näillä näkymin saattaa vielä mennä seuraavaan julkkariin kevyesti ellei sitten nvidia ala kunnolla jarruttaa vanhaa valmistetta ajureilla
 
Mihin näissä 4090 ja 5090 tarvitaan tota wattimäärää? Omaa alivoltannu huolella ja saa virhemarginaalin sisällä olevaa suorituskykyä -100w tehoerolla ja se näkyy lämmöissäkin jo.

Piipaloissa on yksilöllisiä eroja. Pala 1 voi toimia vakiokelloilla 100W pienemmällä tehomäärällä, pala 2 vaatii sen 100W lisää tai kaatuu. Mitä alemmas laitat vakio-virrat, sitä enemmän piirejä menee hylsyyn.

Lisäksi moni nykykorttien alivoltittaja unohtaa sen että shader coret ovat vain osa piiristä. Piiri voi olla vakaa reilusti alemmilla volteilla jos siinä ajaa vain rasterointikuormaa, mutta vakiosetin pitää toimia vaikka siellä olisi rasteria, säteitä ja tensorytimien kurmotusta samalla kun muistikaista on aivan nakissa. Moni "täysin vakaa" alivoltitus on vain melkein vakaa, mutta testaus ei vain tuo esiin sitä satunnaista kaatumista maksimikuorman alla ja vakioasetuksilla tämä ei kelpaa koska silloin kortti tulee takaisin takuuseen...
 
Mihin näissä 4090 ja 5090 tarvitaan tota wattimäärää? Omaa alivoltannu huolella ja saa virhemarginaalin sisällä olevaa suorituskykyä -100w tehoerolla ja se näkyy lämmöissäkin jo.
Itse uskon että syy on ainoastaan se että kortti ei hakkaisi power limittiä vasten ja näin sen kaiken potentiaalin pystyy hyödyntämään. 4090 on ensimmäinen kortti pitkään aikaan mikä ei ole power limit rajoitteinen. Viimeisimmät kortit eli 7900 XTX, 4070 ti, 6900 XT, 3080, 2080 kaikki hakkasivat enemmän tai vähemmän power limittiä vasten jopa alivoltitettuna. 4090 on siis ainoa jossa limitti on tarpeeksi korkea eikä se kurista, joten uskon että tuon korkean power limitin ainoa idea on se, että ei olisi missään tilanteessa se hidastava tekijä näissä lippulaivakorteissa.


Edit. Lisätään vielä se, että vaikka tuo maksimi tehonkulutus on 4090:lla korkein nykyisistä korteista, se on kuitenkin hyötysuhteeltaan kaikista virtapihein kortti. 7900 XTX hakkasi jatkuvasti 420W rajaa kun 4090 isommilla fps:llä jää alle 400W.
 
Viimeksi muokattu:
Mihin näissä 4090 ja 5090 tarvitaan tota wattimäärää? Omaa alivoltannu huolella ja saa virhemarginaalin sisällä olevaa suorituskykyä -100w tehoerolla ja se näkyy lämmöissäkin jo.

AMD 7000-sarjaan huhuiltiin erittäin kovaa suorituskykyä ja kortti ei koskaan saavuttanut niitä tuloksia mitä AMD itsekin lupaili ennen julkaisua (ja joita oli sitten revikkaohjeisiin muistaakseni jo laskettu)

nVidialla on ihan selvästi asenne että markkinoiden nopein kortti on heidän tuote, maksoi mitä maksoi (rahan lisäksi piirin koon, kulutuksen, muistin nopeuden ja määrän suhteen jne) Tämän vuoksi 4090 oli potentiaalia vaikka 600W asti, että oltaisiin voitu julkaista se tiukasti binnattu 4090 Ti vielä +10% suorituskyvyllä, jos RX 7900 XTX olisi ollut jytkympi mitä se todellisuudessa oli. Ei tarvinnut

Nyt sitten piti antaa lisää poweria kun arkkitehtuuriparannus ei ollut tarpeeksi iso, jotta saatiin tarpeeksi iso ero 4090 ja 5090 välille, ettei näytä tuhnulta päivitykseltä. 4090 omistajat ovat 5090 myynnin osalta ykköstargetti aivan varmasti
 
Kumpihan olisi nyt kannattavampi ostos? 4090 tai 5080? Jos 4090:n sais noin 1,3k hintaan.
Takuullinen käytetty 4090 taitaa tarjota miltei parasta vastinnetta rahoille tuossa hintakategoriassa. 5080 on hyvin suurella todennäköisyydellä hitaampi kaikessa paitsi Tensor Coreilla kiihdytetyissä asioissa kuten @Jarnis mainitsikin. Tulevilla ajuripäivityksillä 5080 luultavasti saa yksittäisiä prosentteja lisää suorituskykyä, mutta 4090 tulee silti olemaan nopeampi kortti raakassa suorituskyvyssä.

Olen juuri tekemässä videota omista näkemyksistäni tästä koko julkaisusta. Esitän speksit graafien muodossa, jos joillekin olisi helpompaa hahmottaa korttien eroja "teoriassa".
 
Pelit todennäköisesti tullaan ”optimoimaan” tuota multi frame geniä ajatellen, joten 5xxx sarja on vääjäämättä peleihin parempi vaihtoehto.
 
Pelit todennäköisesti tullaan ”optimoimaan” tuota multi frame geniä ajatellen, joten 5xxx sarja on vääjäämättä peleihin parempi vaihtoehto.

Tuskinpa ihan heti tulee olemaan kovin isossa osassa jos koskaan. Mitä enemmän frameja generoidaan, sitä vähemmän siitä on hyötyä kun viiveet alkaa kasvaa. Esim. 30fps-->120fps olisi varmaan jo aika kehno tuntumaltaan ja toisaalta taas 60fps->240fps tuskin huomaa eroa 60fps->120fps.
 
Itse en kyllä paljon järkeä näkisi päivittää Rtx 4090->Rtx 5080 jos ei ehdottomasti halua hiukan parempaa säteenseurantaa, moni frame generation ja parempaa nvenc striimausta.

Menee kuitenkin aikaa ennen kuin DLSS 4 tukea kunnolla alkaa monissa peleissä olemaan joten jos ei halua Rtx 4090->Rtx 5090 niin sitten odottaa seuraavaa sukupolvea joka tulee ehkä 2027.
 
Tuskinpa ihan heti tulee olemaan kovin isossa osassa jos koskaan. Mitä enemmän frameja generoidaan, sitä vähemmän siitä on hyötyä kun viiveet alkaa kasvaa. Esim. 30fps-->120fps olisi varmaan jo aika kehno tuntumaltaan ja toisaalta taas 60fps->240fps tuskin huomaa eroa 60fps->120fps.
75 peliä tulee käyttämään heti korttien julkaisussa tuota DLSS4 + Multiframe gen.
 
Tuohon 5080 vs 4090 kannattaa ottaa mukaan myös powrivaatimukset, jotka speksien mukaan voisivat olla aika paljon alemmat 5080:llä. Eli jos nykyinen power ei riitä 4090:lle, voi se keikauttaa valintaa.
 
Mulla on siis edessä koko koneen päivitys, sillä tässä tätä kyselen, tuo 4090 oli aiempi valinta mutta korttien julkaisu tuli taas hyvään saumaan että sai päänpyörälle.
 
75 peliä tulee käyttämään heti korttien julkaisussa tuota DLSS4 + Multiframe gen.

Entäs sitten? Ei sillä edelleenkään tee mitään, jos ei halua tuplata frameja reilusta sadasta yli 200fps kun tarvii joka tapauksessa luokkaa 60fps ennen generointeja että homma toimii järkevästi.
 
Itse en kyllä paljon järkeä näkisi päivittää Rtx 4090->Rtx 5080 jos ei ehdottomasti halua hiukan parempaa säteenseurantaa, moni frame generation ja parempaa nvenc striimausta.

Menee kuitenkin aikaa ennen kuin DLSS 4 tukea kunnolla alkaa monissa peleissä olemaan joten jos ei halua Rtx 4090->Rtx 5090 niin sitten odottaa seuraavaa sukupolvea joka tulee ehkä 2027.
Onko varmuutta että säreenseurantasuorituskyky on 5080:lla parempi? 4090 on kuitenkin 64% suorituskykyisempi säteenseurannassa kuin 4080.
 
Entäs sitten? Ei sillä edelleenkään tee mitään, jos ei halua tuplata frameja reilusta sadasta yli 200fps kun tarvii joka tapauksessa luokkaa 60fps ennen generointeja että homma toimii järkevästi.
Kyllähän tuo 240Hz näytöillä auttaa, jos näytön Overdrive asetukset on optimoitu tuolle maksimivirkistustaajuudelle, kuten omassa näytössäni (Gigabyte M27Q X).
 

Statistiikka

Viestiketjuista
284 948
Viestejä
4 890 366
Jäsenet
78 924
Uusin jäsen
Henri.I

Hinta.fi

Back
Ylös Bottom