NVIDIA-spekulaatioketju (Blackwell ja tulevat sukupolvet)

Nvidia olisi helposti voinut tehdä +/- 500 sq. mm 5080 piirin ihan hyvällä kannattavuudella se vain päätti kasvattaa katteitaan pienemmällä piirillä.
Ei siinä olisi ollut mitään järkeä. Tuollainen 500mm2 piiriä vastaava tuote tulee jossain kohtaa GB202:sta piiriä leikkaamalla kun saannot tuskin on 100%. Joku 384bit tms. versio GB202:sta vuoden päästä 5080 super.
 
Tämmösestä tulee jonkunlainen chiplet rakenne ja viiveet kasvaa, joten onko saatu hyöty viiveen arvoinen. Ehkä keksitään joku parempi paketointitapa mut aikalailla isot haasteet on nyt jokaisella piirikehittäjällä tästä eteenpäin. Niin paljon logiikkapiirit tarvii muistia lähelle, siksi varmaan tässä 5090 on iso kakku keskellä, mahdollisimman lyhyt matka kaikkiin seuraavan tason kakkuihin.

Piirien 3d ladonta tulee varmaan yleistymään AMD:n x3d prosessoreiden tapaan.
 
Ottamatta kantaa onko tämä kovin hyvä taulukko, mutta selittäkääpä enemmän tietävät(ei arvailuja) näin ummikolle, että miten tämmönen seinä tuli nyt "yhtäkkiä" vastaan. Tuossa aika tasaisesti otettu noita kymmenien prosenttien hyppyjä kahden vuoden välein. Nyt sit käytännössä kasvu jää johonki ~15% max ja väliä on 3 vuotta. Onko siis teknisesti jotain saavutettu viime generaatiossa että tätä hyppyä ei enää tule ja tiedettiinkö se jo tuolloin? Onko tulevaisuus väkisinkin sit jotain softapuolen ratkaisuja tai jotain muuta kuten esim. multicoret prossun puolella kun gigahertzi seinät tuli vastaan.
1738321774848.png

Siksi koska voi. Tämän näki jo ennen kuin tiesi speksejä. 4090 Ti:kin jätettiin julkaisematta, koska ei tarvinnut.

3080 aikoihin AMD oli vielä kilpailussa mukana. Ne pelkäsi oikeasti RX6800 sarjaa minkä takia hintakin oli naurettava ja luokka stfu and take my money... Lisäksi top tier 3090 oli vain n.10-12% nopeampi kuin 3080, mutta hinta yli 2x. 3080 oli siis aivan liian tehokas ja liian suosittu bisneksen kannalta huono. Sillä kyllä saatiin hyvin painettua AMD:n markkinaosuuksia alaspäin, jotta saatiin vapaammat kädet rahastaa jatkossa. Tähän vielä onnistunut tuotekehitys, että saatiin top kortti/kortit reilulla kaulalla niin homma valmis.

30x0 jälkeen AMD lähtenyt kohti pohjamutia. En usko, että aiemmin historiassakaan tilanne on ollut näin epäreilu markkinaosuuksien suhteen.


YearNVIDIAAMD
201055.544.5
201159.2140.79
201262.7237.28
201363.7736.23
201468.6231.38
201579.820.2
201671.9728.03
201770.4329.57
201871.1228.88
201971.7628.24
202076.5423.46
202178.9821.02
202281.916.8
202381.517.17
20249010
 
Mä olen käsittänyt niin, että hbm4:ssa tulee uutena juttuna hbm-muistipinon pohjalle logiikkapiiri. Tuolle logiikkapiirille voidaan laittaa muistiohjaimet + muuta logiikkaa. Kun nuo muistiohjaimet saadaan muistipinoon niin jää enemmän esim. gpu piirille tilaa lisätä logiikkaa. Ongelma tässä aikaisemmin ja ehkä vieläkin lämmöntuotto, lämpölaajeneminen jne.

Nvidian 2026 konesalipiiri rubin käyttää tuollaista hbm4 muistia. Mielenkiintoista nähdä onko esim. isot cachetkin siirretty hbm-pinon alla olevaan logiikkapiiriin tms. Joku tän tyyppinen mahdollistaisi sen, että itse gpu on lähinnä logiikkaa täys ja huonosti skaalaantuvat jutut on muistipiiriin niitatussa logiikkapiirissä.

Jotain huhuja netistä selannut niin ilmeisesti ainakin sk-hynix tekee jonkin nvidia spesifisen logiikkapiirin hbm4 muisteihin.


Siis tarkoitin että miksei samaa voisi käyttää myös gddr-muistien kanssa? Laittaa pelkät muistiohjaimet ja cachet jämänodella tehtyyn piiriin, joka tulee pohjalle, ja sitten päälle uudella prosessilla tehty logiikkapiiri? Eikös AMD:n 9800x3d ole tehty samalla tavalla poislukien eri piirillä oleva muistiohjain, joten miksei sama toimisi näyttispuolella?

Tällöin ei tarvisi käyttää kallista hbm-muistia, vaan riittäisi gddr ja kahden piirin pinoaminen.
 
Harvoin se tuote on huono, vaan siitä pyydetty hinta. Ei tämä 5000-sarjakaan olisi niin "floppi", jos hinnoittelu olisi järkevämpi.

Katsotaan mitä AMD saa aikaan.
Kun nyt myy 5070:n 5080:n nimellä niin ensi sukupolveen saadaan vielä suorituskykyyn parannus: 6080 = nyt julkaisematta jäänyt "5080"-koon piiri. Vaikea toki sanoa mitä sitten 2030-luvulla myydään, jos ja kun kvanttitietskarit eivät ihan heti breikkaa.
 
Mä olen käsittänyt niin, että hbm4:ssa tulee uutena juttuna hbm-muistipinon pohjalle logiikkapiiri. Logiikkapiirille voidaan laittaa muistiohjaimet + muuta logiikkaa. Kun muistiohjaimet saadaan muistipinon pohjalle niin jää enemmän esim. gpu piirille tilaa lisätä logiikkaa. Ongelma tässä aikaisemmin ja ehkä vieläkin lämmöntuotto, lämpölaajeneminen jne.

Nvidian 2026 konesalipiiri rubin käyttää tuollaista hbm4 muistia. Mielenkiintoista nähdä onko esim. isot cachetkin siirretty hbm-pinon alla olevaan logiikkapiiriin tms. Joku tän tyyppinen mahdollistaisi sen, että itse gpu on lähinnä logiikkaa täys ja huonosti skaalaantuvat jutut on muistipiiriin niitatussa logiikkapiirissä.

Jotain huhuja netistä selannut niin ilmeisesti ainakin sk-hynix tekee jonkin nvidia spesifisen logiikkapiirin hbm4 muisteihin.

Juurikin jotain tämmöistä kikkailua täytyy kehittää, että ongelmasta päästään. sitten voidaan vain miettiä, minkä hintaista tämä on, HBM -muisti kun ei ole edelleenkään ole ollut se halvin vaihtoehto, AMD:kin sen jo nyt tietää. Only time will tell..
 
Ei siinä olisi ollut mitään järkeä. Tuollainen 500mm2 piiriä vastaava tuote tulee jossain kohtaa GB202:sta piiriä leikkaamalla kun saannot tuskin on 100%. Joku 384bit tms. versio GB202:sta vuoden päästä 5080 super.
Ai sinä sittenkin myönnät että Nvidialla olisi helposti ollut varaa tehdä tehokkaampi 5080 ;-)
 
Ai sinä sittenkin myönnät että Nvidialla olisi helposti ollut varaa tehdä tehokkaampi 5080 ;-)
Nyt sä laitat sanoja mun suuhun. Mä sanon, että nvidia suunnitteli järkevän tuotepinon mistä saadaan esim. 5080 super tehtyä GB202:sta leikkaamalla. Piirien nimeäminen on täysin looginen koska gb202=5090, gb203=5080, gb205=5070 ja joku gb20x tulee olemaan 5060. Nvidian ei ollut järkevää tehdä 384bit tuotetta koska se saadaan tehtyä käyttämällä osittain rikkinäisiä GB202 piirejä.

Se miksi ei saatu massiivisia parannuksia transistorimääriin on, että ei ole järkevää käyttää parempaa valmistusteknologiaa joten uudet piirit samalla valmistusprosessilla kuin vanhat. AMD päätyi ihan samaan lopputulokseen eikä lähtenyt 3nm:iin.

TLDR, roger mooren laki on kuollut. Kuollut kissa voi pompata, jos tulee jotain mahtavaa innovaatiota kuten chipletit tai jos pompsautetaan hintoja esim. hbm4 muisteilla.
 
Ai sinä sittenkin myönnät että Nvidialla olisi helposti ollut varaa tehdä tehokkaampi 5080 ;-)
eli leikata heti alussa toimivia 5090:siä 5080:ksi massana, enpä tiedä, kuulostaa aika tyhmältä. Olisihan tuo 5080 voinut olla isompikin piiri heti kättelyssä, silti tilanne näyttää siltä, että kaikki myy joten kyllä nVidia tiesi mitä pitää julkaista. Niin uskomatonta kuin se onkin (katsoin suu auki ihmeissäni kun muutamassa minuutissa jopa kaikki 1600e+ 5080 oli ostettu).
 
Siis tarkoitin että miksei samaa voisi käyttää myös gddr-muistien kanssa? Laittaa pelkät muistiohjaimet ja cachet jämänodella tehtyyn piiriin, joka tulee pohjalle, ja sitten päälle uudella prosessilla tehty logiikkapiiri? Eikös AMD:n 9800x3d ole tehty samalla tavalla poislukien eri piirillä oleva muistiohjain, joten miksei sama toimisi näyttispuolella?

Tällöin ei tarvisi käyttää kallista hbm-muistia, vaan riittäisi gddr ja kahden piirin pinoaminen.
En tiedä, olen tuota sama miettinyt. Ehkä yksi syy se, että tuo tulee uutena ominaisuutena hbm4:ssa ja hbm4 ei ole vielä todellinen tuote. Huhuttu, että sk-hynix hbm4 tapeout olis ollut viime loppuvuodesta ja nvidia sais samplea keväällä/alkukesästä.

Voi liittyä hintaan, paketointiin yms. myös.

Voi myös liittyä siihen, että ehkä fiksumpaa tehdä joku zen cpu tyylinen io-die+3d v-cache ja niitata se gpu:n kylkeen samaan tyyliin kuin miten kaksi konesali blackwell piiriä on niitattu yhteen 10TB/s väylällä.

Mä uskon, että rubin kertoo paljon. Kunhan se nyt joskus saataisiin julkaistua. Ehkä maaliskuussa gtc-messuilla, ehkä ei.
 
...gb205=5070 ja joku gb20x tulee olemaan 5060. ...
Itse veikkaan että 5060 tulee olemaan uudelleen nimetty 4000 sarjalainen kun sen teholuokassa ei DLSS4 4x tilassa ole mitään järkeä (skaalaus tapahtuisi niin matalasta FPS lukemasta että lopputulos olisi todella tökkivä kokemus).

Tienkin nahkatakkimies voi tehdä pienen totaaalisen alitehoisen Blackwell sarjalaisen paskalla DLSS4 4x kokemuksella 5060 näyttistä varten ja hehkuttaa kuinka se pystyy 120+ FPS:ään surkeimmalla super resolution asetuksella.
 
Itse veikkaan että 5060 tulee olemaan uudelleen nimetty 4000 sarjalainen kun sen teholuokassa ei DLSS4 4x tilassa ole mitään järkeä (skaalaus tapahtuisi niin matalasta FPS lukemasta että lopputulos olisi todella tökkivä kokemus).

Tienkin nahkatakkimies voi tehdä pienen totaaalisen alitehoisen Blackwell sarjalaisen paskalla DLSS4 4x kokemuksella 5060 näyttistä varten ja hehkuttaa kuinka se pystyy 120+ FPS:ään surkeimmalla super resolution asetuksella.
Eiköhä se GB207 tms. tule 128bit väylällä ja on 5060. Nvidia tarvii tuon vähintään läppäreihin. Virtaoptimoitu gddr7 konfiguraatio blackwell:sta vie 40x0 piirejä per W kuin litran mittaa. 3GB piireillä sais tehtyä 5060:en missä 12GB muistia.
 
... 3GB piireillä sais tehtyä 5060:en missä 12GB muistia.
Joo saisi tehtyä ja sen 12GB tarvisi mutta Nvidian tuntien tulee pihisttelty 8GB.

Juu en hoksannut ajatella alemman luokan läppäreitä.

Ylemmän luokan läppäreissä on huono tilanne kun 5090 läppäri versiossa ei ole lisää ytimiä ja tehorajakin on sama kuin 4090 läppäri piirissä siten ainoaksi eroksi 4090 läppärin ja 5090 läppärin välille jää käytännössä DLSS4.
 
Viimeksi muokattu:
Joo saisi tehtyä ja sen 12GB tarvisi mutta Nvidian tuntien tulee pihisttelty 8GB.

Juu en hoksannut ajatella alemman luokan läppäreitä.

Ylemmän luokan läppäreissä on huono tilanne kun 5090 läppäri versiossa ei ole lisää ytimiä ja tehorajakin on sama kuin 4090 läppäri piirisssa siten ainoaksi eroksi 4090 läppärin ja 5090 läpppärin välille jää käytännössä DLSS4.
Sekin vielä, että ne piirit nimetään läppäreissä hassusti kun pöytäkoneen 5080 onkin yhtäkkiä läppärissä 5090. 5060 desktop saattaa olla yhtäkkiä premium 5070ti 12GB läppärissä.

Blackwellin virransäästöominaisuudet paperilla vakuuttavat. Toteutuuko noi oikeissa läppäreissä, vaikea sanoa. Nopeampi kellojen säätöä, uusi syvempi sleep moodi, parempi mahdollisuus kytkeä virtaa pois. Tulisko viimein dgpu läppäriin mikä ei normi desktop käytössä ime akkua hetkessä tyhjäksi? 40x0 ja vanhemmissa dgpu läppäreissä käytännössä pakko viritellä niin että dgpu aina pois päältä kun mahdollista ja ajaa igpu:lla niin paljon kuin mahdollista
In the case of the deepest sleep state, Blackwell is 10x faster to enter sleep than Ada, enabling
much more power savings in the lowest-power sleep state
Accelerated frequency switching can adjust clocks to dynamic workloads 1000x faster than before.
New clock gating capabilities allow entire clock trees to be shut off very quickly, saving dynamic
power even in regions of work where only part of the chip is idle, or where idleness is so short it
would typically be considered “active”. For Blackwell one of the big focuses was on memory power
management to achieve peak efficiency by leveraging GDDR7’s fast-wakeup clocking
architecture. Now the entire memory clock tree can be gated for the first time.
GDDR7 delivers substantially higher bandwidth. These advancements also enable notable improvements in energy efficiency, offering superior performance and extended battery life, particularly in power-constrained systems.
1738350755185.png


 
5000-sarjan desktop GPU:than vie "idlenä" eli varmaan Windowssin desktoppia tuijottaessa 2x enemmän virtaa kuin 4000-sarja. Eli jos syynä ei ole joku drivereilla korjattava bugi niin yllä olevat figuurit taitaa olla hieman pielessä...
 
5000-sarjan desktop GPU:than vie "idlenä" eli varmaan Windowssin desktoppia tuijottaessa 2x enemmän virtaa kuin 4000-sarja. Eli jos syynä ei ole joku drivereilla korjattava bugi niin yllä olevat figuurit taitaa olla hieman pielessä...
Eipä nuo nyt ihan tuplilta vaikuta, 5080 on ihan samoilla kulutuslukemilla kuin 4080/S idle, multimonitor ja video playback käytössä (varianssia toki kortista riippuen):

Nuo idle kulutukset eivät ottane huomioon tuota kuinka nopeasti vaihtaa matalampaan tilaan, joka läppäreissä sitten voi tuoda hieman akun säästöä.
 
5000-sarjan desktop GPU:than vie "idlenä" eli varmaan Windowssin desktoppia tuijottaessa 2x enemmän virtaa kuin 4000-sarja. Eli jos syynä ei ole joku drivereilla korjattava bugi niin yllä olevat figuurit taitaa olla hieman pielessä...
Ihmettelin samaa. Tosin ei nvidian kuvassa pitäisi olla eroa idlessä tai maksimikuormassa. Erojen pitäisi tulla siitä miten nopeasti päästään isompiin kelloihin ja takaisin idleen. Toinen puoli, että gddr7 muistit saadaan ehkä optimoitua maksiminopeus versus virrankulutus. Voipi olla joku windowsin virtatilakin takana idlessä, maximum performance vs. power save tms.

Mielenkiinnolla odotan myöhemmin keväällä tulevia läppäreitä. Josko tulis hyviä vai jääkö vaan paperille parannukset.
 
Yllättävältä suunnalta kommenttia 5000-sarjasta. Olen kyllä samaa mieltä Snowdenin kanssa.

Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.

Näinhän se on. Sietää vain toivoa että AMD ja Intel suunnittelevat imperiumin vastaiskua laboratoriossaan.

Hauskaa että aikoinaan oli samat fiilikset Intelistä, että tulisipa AMD ja tekisi toimivaa. No sieltähän tuli, mutta siinä kesti todella kauan. Intel taisi kermoja kuoriessaan laiskistua liikaa ja sit kävi niin että AMD:n innovaatiot söi. Historia toistaa itseään, ainakin toivottavasti.
 
Viimeksi muokattu:
Voi myös heilahtaa takaisin - AMDn tämän generaation innovaatio oli cachen siirto päältä alle joka oli riittävä että pelivaltikka irtosi reilusti (osaksi koska intel tumpeloi 285Kn). Ensi kierrokselle tarvittaisiin jo jotain oikeasti merkittävää tai on riski että Intel kun saa 18A-kamaa kauppaan niin node-etu on syöty ja...

Sama juttu NVIDIAn näyttisdominoinnissa. Ei ole valmistusteknologia-etua, joten AMD *voisi* tulla takaisin, ja tämä generaatio melkeinpä antaa AMDille siimaa. Sen verran löysä on parannus. Siellä vaan on viime vuosina touhuttu kengännauhabudjetilla ja PS5- ja XBox SoC diilit ovat syöneet GPU-puolen resursseja. Nyt sitä rahaa on kun prossut myy, mutta mahdolliset lisäpanostukset näkyvät noin 3-4 vuoden viiveellä...
 
Voi myös heilahtaa takaisin - AMDn tämän generaation innovaatio oli cachen siirto päältä alle joka oli riittävä että pelivaltikka irtosi reilusti (osaksi koska intel tumpeloi 285Kn). Ensi kierrokselle tarvittaisiin jo jotain oikeasti merkittävää tai on riski että Intel kun saa 18A-kamaa kauppaan niin node-etu on syöty ja...

Sama juttu NVIDIAn näyttisdominoinnissa. Ei ole valmistusteknologia-etua, joten AMD *voisi* tulla takaisin, ja tämä generaatio melkeinpä antaa AMDille siimaa. Sen verran löysä on parannus. Siellä vaan on viime vuosina touhuttu kengännauhabudjetilla ja PS5- ja XBox SoC diilit ovat syöneet GPU-puolen resursseja. Nyt sitä rahaa on kun prossut myy, mutta mahdolliset lisäpanostukset näkyvät noin 3-4 vuoden viiveellä...
Eikö nuo konsolidiilit toisaalta tuo rahaa kassaan ja niissä on samat arkkitehtuurit kuin desktop tuotteissa (CPU ja GPU)? Olettaisin että PS6 kehitys on nyt samalla menossa kuin RDNA5/UDNA.

Toki PS5 ei ihan ollut RDNA2 kanssa identtinen, mutta aika lähellä kaiketi. PS5 pro on RDNA3.5.
 
Siellä [AMD:llä] vaan on viime vuosina touhuttu kengännauhabudjetilla ja PS5- ja XBox SoC diilit ovat syöneet GPU-puolen resursseja. Nyt sitä rahaa on kun prossut myy, mutta mahdolliset lisäpanostukset näkyvät noin 3-4 vuoden viiveellä...

Ihan hyvällä budjetilla on Radeonin arkkitehtuurin ja fyysisen toteutuksen puoli toiminut jatkuvasti. PS5 ja XBox-diilit ovat ANTANEET, eivät syöneet resursseja. Noiden kehitys on suoraan synergistä muun arkkitehtuurikehityksen osalta näyttiksen osalta. Rahaa on ollut tämän vuosikymmenen ajan todella hyvin.
 
AMD:n ongelma on iso takamatka ominaisuuksissa. Vaikka sieltä tulisi kuinka hyvää hinta/laatusuhdetta 9070:n muodossa niin DLSS:n laatuetu tarkoittaa että Nvidian vastaavantehoisella kortilla saat samalla kuvanlaadulla useita kymmeniä prosentteja paremman suorituskyvyn. Tämä siis siksi että tilanteesta riippuen voi DLSS balanced tai performance vastata kuvanlaadussa FSR qualitya tai olla jopa parempi. FSR4:n on tuotava iso parannus laatuun varsinkin nyt kun Nvidia toi omat DLSS4-päivitykset (transformer-malli) jokaiselle RTX-kortille.
 
Olihan tuo ainakin messuille esitellyssä pelissä massiivisesti parempi. Vieläpä sellainen peli jossa FSR on ollut todella pahoissa ongelmissa. Tim tuota hardware unboxed kanavalta tsekkaili. Transformer mallilla haetaan joo laatua lisää Dlss puolelle, mutta se on myös neljä kertaa raskaampi.
 
Ihan hyvällä budjetilla on Radeonin arkkitehtuurin ja fyysisen toteutuksen puoli toiminut jatkuvasti. PS5 ja XBox-diilit ovat ANTANEET, eivät syöneet resursseja. Noiden kehitys on suoraan synergistä muun arkkitehtuurikehityksen osalta näyttiksen osalta. Rahaa on ollut tämän vuosikymmenen ajan todella hyvin.

Mutta näyttissoppa on nykyään valtavalta osin softaa. Ja vaikka AMD on kyllä saanut ajuripuolella asioita huomattavasti parempaan kuosiin viime vuosina, NVIDIAn sijoitukset softakehityspuoleen ovat ihan eri sfääreissä. Taitaa olla tasoa 10x enemmän resursseja käytössä tältä osin. Tämä valitettavasti sitten näkyy lopputuloksessa.
 
Niin se itse transformer AI malli on raskaampi, ei niin että koko grafiikan tuottaminen on 4 kertaa raskaampaa.
Näkeehän sen tuosta taulukostakin, että koska 5090 on enemmän (uudempia) tensor ytimiä, niin sillä uusi malli ei syö yhtä paljon suorituskykyä (5090 680tensor, 4090 512tensor).
 
On RTX 4090, I actually saw a better result, with the same settings seeing only a five percent decrease in performance with ray reconstruction in quality mode 4K while using the transformer model.
Vielä ehkä liian aikaista sanoa parantuuko 5090:n RR transformer tulokset ajan myötä ajureilla tms., mutta ainakin selkeä kuilu siinä on 20/30- ja 40/50-sarjojen välillä.
 
Saa nähä miten vastaa nvidia kun pelaakin liian hyvin noi ominaisuudet 40-sarjalla, kohta on ajuripäivitystä joka hidastaa vanhat sarjat.. eiks noi vasta koittaneetkin sitä mutta jäivät kiinni
 
Saa nähä miten vastaa nvidia kun pelaakin liian hyvin noi ominaisuudet 40-sarjalla, kohta on ajuripäivitystä joka hidastaa vanhat sarjat.. eiks noi vasta koittaneetkin sitä mutta jäivät kiinni
Mikäs salaliittoteoria tämä vanhojen korttien hidastaminen uusilla ajureilla on, vai onko tästä jotain faktaa vaikka viimeisen viiden vuoden ajalta? Jotain muinaisia juttuja ei tarvii kaivella.
 
Aika lussuja loppupelissä oli nuo 5080 ja 5090. Vähän enemmän kyllä olisin odottanut. Näinköhän 5070 voittaa edes 4070 Superia? Paras kortti (hinta/teho) 5000-sarjasta taitaa olla 5070Ti selkeästi?
 
Aika lussuja loppupelissä oli nuo 5080 ja 5090. Vähän enemmän kyllä olisin odottanut. Näinköhän 5070 voittaa edes 4070 Superia? Paras kortti (hinta/teho) 5000-sarjasta taitaa olla 5070Ti selkeästi?
Juu ei 5070 pääse välttämättä edes tasoihin 4070 Superin kanssa. 5070 Ti on tosiaan mielenkiintoisin ja saattaa olla "jopa" 4080 tehoinen, mikä toisi ihan kohtalaista hinta-tehosuhdetta jos tuo 900-950€ hinta toteutuu. Oudosti 5070 Ti on myös ainut kortti josta ei tule Nvidian FE-mallia.
 
Toisaalta jos tuo 5070ti on niin sweetspot ku annetaan nyt olettaa nii eiköhän viimistään sen kysyntä nosta sen sit eioo-listalle ja sitä myöten hintoja ylös.
 
Juu ei 5070 pääse välttämättä edes tasoihin 4070 Superin kanssa. 5070 Ti on tosiaan mielenkiintoisin ja saattaa olla "jopa" 4080 tehoinen, mikä toisi ihan kohtalaista hinta-tehosuhdetta jos tuo 900-950€ hinta toteutuu. Oudosti 5070 Ti on myös ainut kortti josta ei tule Nvidian FE-mallia.
Eiköhän ero 4070 tisu vs. 5070 ti ole aikalailla sama kuin 4080 su vs. 5080, eli 10-15%.

Silloin 5070 ti on hyvin lähellä 4080 tehoja.
 
Mielenkiintoista olisi saada tietää miten paljon todellista kysyntää näille korteille on. Toki hypeä on kaikkien aiheeseen liittyvien foorumien yms. alueella ja konkreettisestikin se näkyi noissa telttailevissa tyypeissä, mutta nyt näitä kortteja tosiaan tuli kuitenkin myytiin niin marginaalinen määrä, että ymmärrettävästi ne kaikki menivät heti. Bisneksen näkökulmasta tässä minimaalisessa määrässä kortteja on jotain järkeä, jos tällä toiminalla oikeasti saataisiin luotua lisää kysyntää, mutta epäilen tämän olevan niin yksinkertaista. Tietääkö kukaan onko julkisesti esillä jotain dataa miten paljon kpl määrissä näitä nvidian tai amd kortteja on myyty viimevuosina? Onko kyseessä vuositasolla muutama miljoona vai yli 10 miljoonaa kpl? Ja jos nyt joidenkin lähteiden mukaan koko jenkkilässä 5090 ja 5080 määrä oli muutamissa tuhansissa niin sehän on lähes sama kuin ei olisi ollut ollenkaan.
 
Voi se olla niinkin, kun saatavuus huono, niin monella hype laantuu ja järki voittaa..
 
Voi se olla niinkin, kun saatavuus huono, niin monella hype laantuu ja järki voittaa..
Itellä ainakin sillä tavalla, että alkuun oli melkein ostamassa 5080 siihe alimpaan 1229e hintaan. Liipasinta olis siinä kohtaan varmaankin yrittänyt vetää, jos teho olisi ollut edes tasoissa 4090, mutta jäi se vaan niin vajaaksi. Samalla hinta-tehosuhteella saanu 4080 supereita suoraan kaupasta jo aikasemmin. Se 5070 Ti tässä voi olla pelastava tekijä, jos se tarjoisi 4080 superin tehoa siihen 900e hintaan. Muuten alkaa katse siirtyä sitten maaliskuulle ja 9070 xt suuntaan.
 
Veikkaan että 50x0 sarja myy aika samaa tahtia kuin alta katoava 40x0 sarja. Korvaava tuote tutulla hinnalla poislukien 5090 missä hinta+teho+muistimäärä pompsahti. Ostajat löytyy edelleen paljon vanhemmista kuin edellisestä sukupolvesta.

Läppäripuoli voi olla aika kova myynti. Oletan että luvattu 40% virransäästö realisoituu joko parempana form factorina tai akunkestona.

Se on mielenkiintosta nähdä miten huhuttu mediatek+nvidia yhteistyö APU arm+win11 läppäreissä tulee tapahtumaan. Se voi olla iso juttu tai sitten pannukakku. Toivottavasti nvidia saa pelinkehittäjät mukaan ja uusiin/tärkeisiin peleihin arm-versiot ja optimoinnit. Nvidialle ja mediatekille apu-läppärit iso juttu kun nykyinen markkinaosuus 0%. Jokainen myyty laite "bonusta" versus nykyinen tilanne. Jos olisi hyvä tuote niin tällä olisi mahdollista astua aika kovaa applen macbook/air varpaille varsinkin kun nvidialla on mediapuolle optimointeja(studio ajurit + softatuki+optimoinnit). Kuvaa/videota käsittelevät luovat ihmiset saattais tykätä jos tulee teholaite missä hyvä softatuki, hyvä akunkesto ja riittävästi raakaa voimaa.
 
Viimeksi muokattu:
Veikkaan että 50x0 sarja myy aika samaa tahtia kuin alta katoava 40x0 sarja. Korvaava tuote tutulla hinnalla poislukien 5090 missä hinta+teho+muistimäärä pompsahti. Ostajat löytyy edelleen paljon vanhemmista kuin edellisestä sukupolvesta.

Läppäripuoli voi olla aika kova myynti. Oletan että luvattu 40% virransäästö realisoituu joko parempana form factorina tai akunkestona.

Se on mielenkiintosta nähdä miten huhuttu mediatek+nvidia yhteistyö APU arm+win11 läppäreissä tulee tapahtumaan. Se voi olla iso juttu tai sitten pannukakku. Toivottavasti nvidia saa pelinkehittäjät mukaan ja uusiin/tärkeisiin peleihin arm-versiot ja optimoinnit. Nvidialle ja mediatekille apu-läppärit iso juttu kun nykyinen markkinaosuus 0%. Jokainen myyty laite "bonusta" versus nykyinen tilanne. Jos olisi hyvä tuote niin tällä olisi mahdollista astua aika kovaa applen macbook/air varpaille varsinkin kun nvidialla on mediapuolle optimointeja(studio ajurit + softatuki+optimoinnit). Kuvaa/videota käsittelevät luovat ihmiset saattais tykätä jos tulee teholaite missä hyvä softatuki, hyvä akunkesto ja riittävästi raakaa voimaa.
Taidat omistaa Nvidian osakkeita?

Jos Nvidia vie myös APU markkinat se ei ole hyvä kenellekkään, paitsi Nvidian osakkeiden omistajille. Nvidialla on jo monopoli grafiikkakorteissa, vielä jos APU markkinoille saa saman tilanteen niin kuluttajat kyllä kärsii todella isosti...

Toivottavasti AMD:n Strix / Strix Halo läppäreitä tulee hyvin saataville ja myyvät hyvin niin säilyy kilpailu...
 
Läppäripuoli on DOA jos WinArm-ongelmia ei ratkaista ensin. Qualcomm kokeili puolivalmiilla Windowsilla ja heiltä voi käydä kysymässä miten hyvin meni.

Yhteensopivuuden pitää olla oikeasti niin lähellä 100% että pertti peruskäyttäjä ei törmää ongelmiin käytännössä koskaan.
 
Ei se kyllä neljää kertaa raskaampi ole loppukäyttäjän mittareilla.
1738406556126.png

Kyllähän tuossa näkee, että skaalaus ja RR vie suhteettoman paljon aikaa noilla vanhemmilla korteilla, kun kolmannes ruudunpäivitysnopeudesta häviää uudella transformer mallilla. Pitäisi nähdä frametimet CNN vs. transformer malli, niin voisi helpommin laskea mikä se mallin vaikutus on, kun frametime sisältää tosiaan kaiken muunkin renderöinnin.
 
Taidat omistaa Nvidian osakkeita?

Jos Nvidia vie myös APU markkinat se ei ole hyvä kenellekkään, paitsi Nvidian osakkeiden omistajille. Nvidialla on jo monopoli grafiikkakorteissa, vielä jos APU markkinoille saa saman tilanteen niin kuluttajat kyllä kärsii todella isosti...

Toivottavasti AMD:n Strix / Strix Halo läppäreitä tulee hyvin saataville ja myyvät hyvin niin säilyy kilpailu...
Omistan ... paljon ... nvidian osakkeita. En kai tätä ole salannut jos sijoitusketjua tai FIRE ketjua lukee.

En usko, että nvidia vie koko APU markkinaa. Mitä yrittänyt seurata ennustuksia niin x86 pohjaisten koneiden ennustetaan pitävän hallussa ainakin seuraavan 5v ajan isoimman osan windows läppärimarkkinasta. Vaikka arm-markkina kasvaisi erittäin optimistisesti ajatellen 50% läppärimarkkinasta niin tuo ei tarkoita että nvidialla olisi 50% markkinasta. Qualcom on jo vienyt ja vie osansa, ehkä samsung&co tulee myös omilla piireillänsä mukaan.

Mediatek+nvidialle huhuttu 3 miljoonan yksikön tuotantoa 2025 ja 13 miljoonaa 2026: Rumors swirl of Nvidia Arm CPUs for PCs coming later in 2025 Mediatek tekee SOC:in+cpu:n, nvidia tarjoa chiplet gpu:n. Voi olla jotain hyvin samankaltaista kuin jo julkaistu mediatek+nvidia yhteistyön digits: NVIDIA Project DIGITS: The World’s Smallest AI Supercomputer.
 
Läppäripuoli on DOA jos WinArm-ongelmia ei ratkaista ensin. Qualcomm kokeili puolivalmiilla Windowsilla ja heiltä voi käydä kysymässä miten hyvin meni.

Yhteensopivuuden pitää olla oikeasti niin lähellä 100% että pertti peruskäyttäjä ei törmää ongelmiin käytännössä koskaan.
Qualcom ei oikein yrittänyt maksimia. Nvidia voi heittää rahaa pelidevaajille + luoviin softiin(photoshop, premier , davinci resolve jne.). Eka käyttäjäryhmä varmastikin luovat media-alan ihmiset ja peruskäyttäjät. Pelaajat ei varmaankaan kuulu kohderyhmään muuten kuin kasuaalipelien osalta. Peliläppärit erikseen versus apu.

AVX/AVX2/... yms. käskyille tulee tukea ellei ole tullut jo mikä auttaa emuloinnin yhteensopivuuden kanssa paljon
At a technical level, the virtual CPU used by x64 emulated applications through Prism will now have support for additional extensions to the x86 instruction set architecture. These extensions include AVX and AVX2, as well as BMI, FMA, F16C, and others, that are not required to run Windows but have become sufficiently commonplace that some apps expect them to be present. You can see some of the new features in the output of a tool like Coreinfo64.exe.
 
Viimeksi muokattu:
Mahdollisuuksia on paremmin kuin Qualcommin yrityksellä, mutta tätä ei voi tumpeloida. Jos koneet saavat maineen että ovat epäyhteensopivia, koko roska kaatuu siihen ja moisen korjaaminen vie ainakin yhden laitegeneraation.

Ja jos siellä on NV GPU, tietty asiakasryhmä automaattisesti olettaa että se on sitten myös kelvollinen peleihin. Se, joka nyt ostaa jotain 3050 notebook jätteitä :D
 
Nuo CPU emulaatiot vain nyt tahtovat olla senverran hitaita, jotta ongelmia tulee enemmän tai vähemmän.. Hankala päästä mukaa tuota tietä..
 
Nuo CPU emulaatiot vain nyt tahtovat olla senverran hitaita, jotta ongelmia tulee enemmän tai vähemmän.. Hankala päästä mukaa tuota tietä..
Eiköhän noi ole vain "siirtymäajan" ja/tai vanhojen softien juttuja. Jos/Kun arm+win11 lähtee lentoon niin suurin osa tavisten tarvimasta softasta mitä ajetaan vähävirtaisissa läppäreissa löytyy arm-versiona. Apple on jo paljon tehnyt arm:in eteen.

Lähinnä mä odottaisin win11+arm koneista peruskäyttöön virtapihejä laitteita ja ehkä macbook pro tyyliin luovan mediakäyttöön akunvarassa optimoituja ratkaisuja. Akun varassa käyttä dgpu läppärillä esim- videoeditoinnissa/renderöinnissä ei ole kovin huippu versus macbook pro. DGPU laitteet enempi työpöydän korvikkeita joita ajetaan töpseli seinässä. Pelaajat varmaan ennemmin menee x86+dgpu suuntaan kuin arm+apu tai edes x86 apu. Tosin peleissäkin voi kysyä onko joku apu läppäri oikeasti edes emuloituna cpu rajoittunut vai gpu kinnaa vastaan,...
 
Eiköhän noi ole vain "siirtymäajan" ja/tai vanhojen softien juttuja. Jos/Kun arm+win11 lähtee lentoon niin suurin osa tavisten tarvimasta softasta mitä ajetaan vähävirtaisissa läppäreissa löytyy arm-versiona. Apple on jo paljon tehnyt arm:in eteen.

Lähinnä mä odottaisin win11+arm koneista peruskäyttöön virtapihejä laitteita ja ehkä macbook pro tyyliin luovan mediakäyttöön akunvarassa optimoituja ratkaisuja. Akun varassa käyttä dgpu läppärillä esim- videoeditoinnissa/renderöinnissä ei ole kovin huippu versus macbook pro. DGPU laitteet enempi työpöydän korvikkeita joita ajetaan töpseli seinässä. Pelaajat varmaan ennemmin menee x86+dgpu suuntaan kuin arm+apu tai edes x86 apu. Tosin peleissäkin voi kysyä onko joku apu läppäri oikeasti edes emuloituna cpu rajoittunut vai gpu kinnaa vastaan,...
Armia ja windowsta yritettiin yhteensovittaa jo ennen windows 8:a ja win8:n kanssa massiivisesti, mutta eipä sittä mitään tullut..
 

Statistiikka

Viestiketjuista
283 933
Viestejä
4 875 271
Jäsenet
78 734
Uusin jäsen
JesusLovesY

Hinta.fi

Back
Ylös Bottom