NVIDIA-spekulaatioketju (Blackwell ja tulevat sukupolvet)

Siis joissain ekoissa Nvidian tulevaisuuden ennustus / esittely kuvissa aikoinaan tais lukea tälle sukupolvelle, että tulee 3nm tekniikalla. Jos sillä tekniikalla olisi jo valmistettu niin kuin varmaan jonkun yli vuoden uumoilin, olisi tehoa saanut reilusti enemmän. Nyt ei tullut nodehyppyä ja vasta 2 vuoden kuluttua tulee 3nm kortti. Jos myynnit jää tuhnuks voi Nvidia tehdä nodepäivitetyn 5000 updaten paremmilla tehoilla ensi kevääksi. Ei se kehitys ihan seinään lopu TSMC 2nm node on jo valmistuksessa. Kuulemma 30 000$ / kiekko juuri nyt (jos rahaa löytyy). Kuulemma jopa Apple skippaa tuon 2nm noden juuri nyt koska saannit ja hinta per kiekkko ei oo jees.
 
Siis joissain ekoissa Nvidian tulevaisuuden ennustus / esittely kuvissa aikoinaan tais lukea tälle sukupolvelle, että tulee 3nm tekniikalla. Jos sillä tekniikalla olisi jo valmistettu niin kuin varmaan jonkun yli vuoden uumoilin, olisi tehoa saanut reilusti enemmän. Nyt ei tullut nodehyppyä ja vasta 2 vuoden kuluttua tulee 3nm kortti. Jos myynnit jää tuhnuks voi Nvidia tehdä nodepäivitetyn 5000 updaten paremmilla tehoilla ensi kevääksi. Ei se kehitys ihan seinään lopu 2nm node on jo valmisuksessa. Kuulemma 30 000$ / kiekko juuri nyt (jos rahaa löytyy). Kuulemma jopa Apple skippaa tuon 2nm noden juuri nyt koska saannit ja hinta per kiekkko ei oo jees.
rubin konesaligpu kai tulee 3nm:lla tai ehkä chiplet ja 3nm+xnm piirejä. Voipi olla, että seuraavat peligpu:t samsungin tehtailta: NVIDIA Is Now Rumored To Switch Towards Samsung Foundry For 2nm Process, Ditching TSMC Due To High Costs

Ehkä nvidia tekee källit ja seuraava peligpu samaan tyyliin 2 piiriä yhteen liimattuna kuin konesali blackwell ja applen ultra soc:it. Voi vaikuttaa jollain tapaa valittuun valmistusteknologiaan. esim. suunnittelee yhden 256bit piirin mistä tehdään 6080 ja 2xpiiri yhteen liimattuna 6090.
 
Viimeksi muokattu:
Jossain kohtaa tosiaan kehittäjiltä unohtui uniikit taiteelliset visuaaliset suunnittelut ja alettiin ajamaan enemmän realismia ja simulaatiota grafiikoissa. Näiden saavuttamiseksi joudutaan turvautumaan sitten feikkifreimi ratkaisuihin jotka pahimmassa tapauksessa kusevat koko visuaalisen ilmeen ja jarruttavat pelikokemusta extra latenssilla ja artifakteilla.

Koskahan tulee sellainen tila että pikselipuristit joutuvat pitelemään entisajan korteistaan kiinni koska tulevaisuuden korteissa ilmastovihreyden puolesta säästetään virtaa generoimalla AI:lla osasta työpöytäpikseleistä?

Käytännön kannaltahan sillä ei lopulta ole väliä millä tekniikalla se grafiikka siihen näytölle piirtyy se siitä graafikasta syntyvä kokemus on se tärkein.

Esim
Jos kolmen vuoden päästä generoidaan tosimaailman videokameran tasoista peligrafiikkaa kompleksisella Ai-mallilla vaikka sitten etänä / geforce now tyyliin se voi olla aika hieno kokemus.
 
En usko itsekkään, että ainakaan enää 10v myydään näytönohjaimia vaan jo muutaman vuoden päästä ostetaan omaan lompakkoon sopiva kk maksullinen palvelu jota kautta pelataan. Kuvankäsittelijät ja muut sitten erikseen.

Ohan se nyt ihan huippujuttu jos saat vaikka 20€ hyvää kuvaa suoraan LG telkkariin eikä tarvii miettiä yhtään mitään sopiiko tämä ylihintainen kortti tähän laitteistoon kuten nykyään.
 
Tämän graafin mukaan +27% luokkaa olisi 4090 vs 5090 ilman mitään AI juttuja.

image.png

Ainakin ennen testeissä tuo oli todella prossupullonkaulainen peli. Esim. RTX 3080 ja 3090 välille oli vaikea saada kummempaa eroa.
Varmasti 3D-välimuistilliset prosessorit ovat muuttaneet tilannetta, mutta silti en laskisi mitään suorituskykyeroa tuon pelin varaan, en edes ymmärrä miksi tuo edelleen noissa testeissä mukana roikkuu kun peli on vanha kuin mikä.
 
En usko itsekkään, että ainakaan enää 10v myydään näytönohjaimia vaan jo muutaman vuoden päästä ostetaan omaan lompakkoon sopiva kk maksullinen palvelu jota kautta pelataan. Kuvankäsittelijät ja muut sitten erikseen.

Ohan se nyt ihan huippujuttu jos saat vaikka 20€ hyvää kuvaa suoraan LG telkkariin eikä tarvii miettiä yhtään mitään sopiiko tämä ylihintainen kortti tähän laitteistoon kuten nykyään.

Melkoisia harppauksia tarvitaan teknologiassa jos halutaan 4k kuvaa jollakin 30-50ms viiveellä pilvipalvelun kautta ruudulle ja jonkinlainen päätelaite kuitenkin tarvitaan että kaiken maailman hiiret, näppikset, joikkarit ratit sunmuut himpelit saadaan liitettyä verkon yli sinne pilvikoneelle. Ellei sitten ideana ole, että tietokone/konsoli on kotona, mutta itse grafiikan piirtäminen kierrätetään siellä pilvessä, toki siinäkin tarvitaan aika hurjat yhteydet jos ajatellaan että displayport liitännässä puhutaan kymmenien gigojen siirtonopeuksista eivätkä silti riitä.
 
En kirveelläkään maksa alimman keskiluokan kortista yli 500 euroa, varsinkaan kun vielä Herran Vuonna 2025 siitä löytyy vain 12 gigatavua muistia, voi morjens.

Seuraava kortti on punainen kuin Kiinan kommunistinen kansantasavalta.
Nauratti toi vika lause. Mutta joo, kyllähän tää aika irvokkaaksi tuntuu menevän :/
 
Jaahans eli 679e 5070 lienee oikeasti joku 4070+20-25% eli 4070Super+5-10% - mutta vähän AI-hallusinaatiogeneroimalla saadaan sitten mittari näyttämään että kyllä on = 4090. Kätevästi uudet AI-neuroositkin vielä käytännössä puolittaa muistintarpeen, joten 12gb = uusi 24gb, kätevää! Uskokoon ken tahtoo.

AMD:llä varmaan kynä sauhuten mietitään, miten 9070 XT menisi kaupaksi. 599e Suomihinta, 7900XT rasteri, ei-aivan-ripuli RT ja 16GB muistia niin siinähän vois olla kortti niille, jotka on joku 2070 / 3060 / 5700 XT tanassa odottanut, milloin saa päivittää. Tuo on se maksimi, mitä luulen että AMD:ltä on tulossa. Mitä enemmän tuosta jää, sitä enemmän pitää sit hinnan valua kohti 500, että menee kaupaksi.

Eipä mitään sellaista tullut/tuskin tulee, että tarvisi 7800 XT:n omistajana lähteä ostohousuista pölyjä pyyhkimään. Tonnia ei kehtaa näyttikseen ruveta laittamaan kun viime aikoina ei oo jaksanut pelatakaan kuin OSRS, TFT ja LOL, jotka kaikki pyöris 15v. vanhallakin raudalla. :)
 
Melkoisia harppauksia tarvitaan teknologiassa jos halutaan 4k kuvaa jollakin 30-50ms viiveellä pilvipalvelun kautta ruudulle ja jonkinlainen päätelaite kuitenkin tarvitaan että kaiken maailman hiiret, näppikset, joikkarit ratit sunmuut himpelit saadaan liitettyä verkon yli sinne pilvikoneelle. Ellei sitten ideana ole, että tietokone/konsoli on kotona, mutta itse grafiikan piirtäminen kierrätetään siellä pilvessä, toki siinäkin tarvitaan aika hurjat yhteydet jos ajatellaan että displayport liitännässä puhutaan kymmenien gigojen siirtonopeuksista eivätkä silti riitä.
Oletko kokeillut esim Geforce Now lähiaikoina käyttäen 5g standalone/kuitua? Moni ei varmasti huomaisi että ei kyseessä natiivi pelaamista vieressä olevalla tehokkaalla tietokoneella.

Nuo hiiri, joystick, ratit yms ongelmat on jo selätetty suurimmaksi osaksi, eli kytket ne päätelaitteeseen esim ohut ja hyvän akkukeston omaavaan kannettavaan tai mini pc.

Nykypäivänä pystyy jo esim Shadow tech jopa VR lasien pelejä pelaamaan, tosin Suomeen sitä palvelua ei ole vielä tullut.

Kyseinen Shadow palvelu siis kokonainen tietokone mutta se on toisella puolella maata/toisessa maassa joka netin kautta vie käyttäjän inputin(esim hiiri, näppäimistö, peliohjain, joystick, ratti) koneelle ja striimaa kuvan ja äänen käyttäjälle. Kyseinen palvelu tosin kallis verrattuna vastaavaan itse koottuun koneeseen mutta kyllä varmasti hinnat tippuvat jos kilpailua syntyy.

Itse tosin en usko että erillisten näytönohjaimien myynnin loppuvan vielä kymmenen vuoden päästä kuluttajille mutta varmasti pilvipeluu tulee enemmän korvaamaan sitä ja riskinä pilvipeluussa on että kilpailua ei niillä eri palveluilla olisi ja sitten hinnat karkaavat käsistä.

Tässä ketju jossa voi paremmin keskustella pilvipelaamisesta jos kiinnostaa:

 
Seuraavan vuoden keväälle? Itse laitoin tilauksen heti kun tulivat myyntiin ja sain kortin tarkalleen vuoden päästä siitä.

Jimmsista launch day +2h laukaisun jälkeen (koska olin työreissulta palaamassa vielä), Asus OC TUF 3080 759e ja tuli ~2kk päästä, just pari päivää ennen joulua. Se oli hyvä diili kerrankin, 1500€ tarjosivat kortista keväällä tutut mutta en retkahtanut.
 
Meni mun arvaus siitä, että GB202:ssa olisi nvlink ja tulisi nvlink/nvlink c2c:lla tuplakortti metsään. Tuon "tilalta" tuli ai käyttöön konesaliblackwell+arm pohjainen pikkukone. Myynee kuin häkä. Hinta alkaen 3000$, toimii normi töpseliin kytkettynä. Tuollaisella tekis vaikka lokaali kielimalli+aider avulla älyttömän nopean koodiavustimen ilman että data menee pilveen.

1Pflop fp4 tehoa, 20 arm corea, 128GB yhtenäistä muistia. Noita saa kaksi kytkettyä yhteen jolloin isoimman tuetun mallin koko tuplaantuu

1736261197346.png

 
Oletko kokeillut esim Geforce Now lähiaikoina käyttäen 5g standalone/kuitua? Moni ei varmasti huomaisi että ei kyseessä natiivi pelaamista vieressä olevalla tehokkaalla tietokoneella.

Nuo hiiri, joystick, ratit yms ongelmat on jo selätetty suurimmaksi osaksi, eli kytket ne päätelaitteeseen esim ohut ja hyvän akkukeston omaavaan kannettavaan tai mini pc.

Nykypäivänä pystyy jo esim Shadow tech jopa VR lasien pelejä pelaamaan, tosin Suomeen sitä palvelua ei ole vielä tullut.

Kyseinen Shadow palvelu siis kokonainen tietokone mutta se on toisella puolella maata/toisessa maassa joka netin kautta vie käyttäjän inputin(esim hiiri, näppäimistö, peliohjain, joystick, ratti) koneelle ja striimaa kuvan ja äänen käyttäjälle. Kyseinen palvelu tosin kallis verrattuna vastaavaan itse koottuun koneeseen mutta kyllä varmasti hinnat tippuvat jos kilpailua syntyy.

Itse tosin en usko että erillisten näytönohjaimien myynnin loppuvan vielä kymmenen vuoden päästä kuluttajille mutta varmasti pilvipeluu tulee enemmän korvaamaan sitä ja riskinä pilvipeluussa on että kilpailua ei niillä eri palveluilla olisi ja sitten hinnat karkaavat käsistä.

Tässä ketju jossa voi paremmin keskustella pilvipelaamisesta jos kiinnostaa:

Enpä ole vielä pilvipalvelua Suomessa testannut jossa input lagia ei huomaisi päivänselvästi. Se kuinka iso ongelma se on riippuu sitten pelistä. Ratkaisu olisi ripotella niitä servereitä ympäri maapalloa niin tiheään ettei mitään järkeä, joten aika kauan saa odotella. Toisena on sitten hinta. Jos heittää sen 20€ kuussa itse palveluun ja jonkun 50€ gigaseen nettiin että saa tarpeeksi hyvän laadun vaikka 4K:na pihalle, niin äkkiäpä tuolla hinnalla kustantaa sen kalliimman näyttiksenkin.
 
Oletko kokeillut esim Geforce Now lähiaikoina käyttäen 5g standalone/kuitua? Moni ei varmasti huomaisi että ei kyseessä natiivi pelaamista vieressä olevalla tehokkaalla tietokoneella.

Nuo hiiri, joystick, ratit yms ongelmat on jo selätetty suurimmaksi osaksi, eli kytket ne päätelaitteeseen esim ohut ja hyvän akkukeston omaavaan kannettavaan tai mini pc.

Nykypäivänä pystyy jo esim Shadow tech jopa VR lasien pelejä pelaamaan, tosin Suomeen sitä palvelua ei ole vielä tullut.

Kyseinen Shadow palvelu siis kokonainen tietokone mutta se on toisella puolella maata/toisessa maassa joka netin kautta vie käyttäjän inputin(esim hiiri, näppäimistö, peliohjain, joystick, ratti) koneelle ja striimaa kuvan ja äänen käyttäjälle. Kyseinen palvelu tosin kallis verrattuna vastaavaan itse koottuun koneeseen mutta kyllä varmasti hinnat tippuvat jos kilpailua syntyy.

Itse tosin en usko että erillisten näytönohjaimien myynnin loppuvan vielä kymmenen vuoden päästä kuluttajille mutta varmasti pilvipeluu tulee enemmän korvaamaan sitä ja riskinä pilvipeluussa on että kilpailua ei niillä eri palveluilla olisi ja sitten hinnat karkaavat käsistä.

Tässä ketju jossa voi paremmin keskustella pilvipelaamisesta jos kiinnostaa:

Jos pilvipalvelut ovat ainoa mahdollisuus pelata uusia pelejä jäisi pelit aika monella pelaamatta. Jopa suomi on ihan täynnä paikkoja missä se 5G antaa alle 20 megaa, jopa kaupunkien laidoilla on pahoja katvealueita että ei tarvitse edes lähteä mihkään syrjäseuduille. Tuo varmasti on tulevaisuudessa totta mutta en usko että 10v sisällä.
 
Enpä ole vielä pilvipalvelua Suomessa testannut jossa input lagia ei huomaisi päivänselvästi. Se kuinka iso ongelma se on riippuu sitten pelistä. Ratkaisu olisi ripotella niitä servereitä ympäri maapalloa niin tiheään ettei mitään järkeä, joten aika kauan saa odotella. Toisena on sitten hinta. Jos heittää sen 20€ kuussa itse palveluun ja jonkun 50€ gigaseen nettiin että saa tarpeeksi hyvän laadun vaikka 4K:na pihalle, niin äkkiäpä tuolla hinnalla kustantaa sen kalliimman näyttiksenkin.
Ei kyllä gigatavun nopeudella olevaa nettiyhteyttä tarvita ja kyllähän siitä vaikkapa 100 megan kuitu/5g standalone on hyötyä myös muussa käytössä.

Tuo input lag homma on tosi käyttäjäsidonnainen, jotkut kokee jopa omalta koneelta langattomasti VR käytössä input lagia haitallisen paljon, toiset vetää Shadown kanssa ilman isompia ongelmia.

Juu siitä olen samaa mieltä että ei kannata vaikkapa koko Suomea tunkea täyteen pilvi pc servereita jotta lapin perukoillakin voi pelata 4k 120hz hyvin, mutta eiköhän suurempien kaupunkien lähellä asuvat(joista asuu jo suurinosa Suomalaisista) saa joitakin pilvipeli servuja pystyyn ajan kanssa, tosin se dystopia että ei olisi kilpailua kunnolla ja hinnat pomppaavat on todellinen uhka jollain aikavälillä.

Kyllä varmasti niitä erillisiä näytönohjaimia on pelaajille vielä ensi vuosikymmenen loppuun asti ainakin, mutta myynnit voivat siirtyä enemmänkin pilvipeli servuihin.

En tiedä onko n.20 euroa kuussa kovinkaan tuottoisaa bisnestä Nvidialle, jos kohta päivittävät sen Geforce Now Rtx 5080 kanssa.

Eli jos nettiä käyttää muuhunkin niin aika vähän maksaa tällä hetkellä puoli vuotta ultimate 109 euroa(eli keskimäärin alle 20 euroa kuussa, tosin rajoitettu peliaikaa 100 tuntiin kuussa josta ylimenevä maksaa hunajaa(ultimate 15 tuntia 8 euroa)) Geforce Now ja palvelu päivittyy parin vuoden välein uusimpaan 1500+ euron näytönohjaimeen ei kyllä minusta kuulosta yhtään hassummalta, toki Geforce Now ei toimi modit ja kaikki pelit ei toimi, kun taas Shadow toimii 99 prosenttia peleistä(jos ei ole anticheat joka ei tue pilvipc) tosin se on sitten huomattavasti kalliimpi, huonommalla tekniikalla ja ei tosiaan saatavilla Suomessa vielä.
 
Jos kolmen vuoden päästä generoidaan tosimaailman videokameran tasoista peligrafiikkaa kompleksisella Ai-mallilla vaikka sitten etänä / geforce now tyyliin se voi olla aika hieno kokemus.
Jos kuluttajat jatkaa olemaan idiootteja joita viedään kuin pässiä narusta niin tuollainen paskainen skenaario hyvinkin mahdollista. Todellisuudessa ei kuitenkaan tule tapahtumaan, pilvipöhisijät ovat konkurssissa ennenkuin saavat tuollaista roskaa läpi.
 
Nyt kun noista feikkifreimeistä ollaan niin huolissaan, niin pakko kysyä. Jos tällä hetkellä pelaan ilman frame geniä tyytyväisenä 4K60hz ja siihen laitetaan frame gen päälle muuttamaan se 4K240hz, tuntuuko se pelatessa kuitenkin samalta kuin 60hz vai tuoko frame gen jotain ylimääräistä input lagia mukaan kun sen laittaa päälle?
 
Nahkatakkimiehen koijaukset jatkuu taas.
Muistaakohan jengi mitä 4080 julkaisussa luvattiin silloin että olisi 2-4x nopeampi kuin 3080 TI ja paniikki alkoi korttimyynneissä :D

Epäilen suuresti että 5070 lyö 4090 mallin muussakuin tuossa dlss4 vs dlss3 tuessa. Mutta eipä kaikki noita dlss edes kaipaa fps peleihin kun blurraa / ghostaa ruutu. Hattua nostan Jenssenille jos on korjattu blurrit ja ghostit ja oikeasti on 4090 tasoinen kortti tuolla muistimäärällä ;)

lol34080.png
 
Nyt kun noista feikkifreimeistä ollaan niin huolissaan, niin pakko kysyä. Jos tällä hetkellä pelaan ilman frame geniä tyytyväisenä 4K60hz ja siihen laitetaan frame gen päälle muuttamaan se 4K240hz, tuntuuko se pelatessa kuitenkin samalta kuin 60hz vai tuoko frame gen jotain ylimääräistä input lagia mukaan kun sen laittaa päälle?
Lisää. Toki nyt julkistettiin myös tuohon jotain uusia reflex ominaisuuksia, mutta nähtäväksi jää miten toimii. Alla pieni summaus DLSS3 FG:stä.

edit: näköjään timestampit ei toimi, 30:30 ->
Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.
 
Nyt kun noista feikkifreimeistä ollaan niin huolissaan, niin pakko kysyä. Jos tällä hetkellä pelaan ilman frame geniä tyytyväisenä 4K60hz ja siihen laitetaan frame gen päälle muuttamaan se 4K240hz, tuntuuko se pelatessa kuitenkin samalta kuin 60hz vai tuoko frame gen jotain ylimääräistä input lagia mukaan kun sen laittaa päälle?
Olettaisin että kuten Lossless Scaling ohjelman kanssa niin mitä enemmän feikki frameja sitä enemmän input lagia(2x vs 3x tai 4x), lisäksi nämä frame generation tekniikat vievät hieman suorituskykyä eli jos aikaisemmin samoilla asetuksilla saat 60 fps ei se ole enää 60 fps mistä se generoi sinne ylöspäin vaan pitäisi hiukan asetuksia laskea jotta saat sen 60 fps pohjana josta se generoi.

Lisäksi jos näyttösi vain 4k60hz et hyödy siitä koska näyttö näyttää vain 60hz, sitten jos vaikkapa 4k 120/144/240hz niin sitten sen parantuneen sulavuuden huomaa.

Nvidia Frame generaatio ainakin dlss 3.x kanssa ollut enemmän fps hittiä ottava kuin Amd Fsr 3.x. joka antaa myös Nvidia näytönohjaimella enemmän fps.

Jos pelaa ohjaimella niin sen input lagin lisääntymisen ei niin huomaa kuin jos pelaa hiirellä ja näppäimistöllä.
 
Digital foundryltä jotain hands onia tullut.

Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.

Joku noheva voisi summaroida vähän tuota kun ei ehdi katsoa. Gemini antoi pikaisesti latenssista seuraavaa summarya.

Here's a breakdown:

  • Latency with 2x Frame Gen: 50.9 milliseconds on average.
  • Latency with 3x Frame Gen: 55.5 milliseconds on average.
  • Latency with 4x Frame Gen: 57.3 milliseconds on average.
The video states that the majority of the extra latency still comes from buffering that extra frame, but adding further intermediate frames comes with a relatively minimal increase in latency. This means that the gameplay is still responsive in Cyberpunk 2077, and unless you're super attuned to input lag, you're unlikely to tell the difference between 4X DLSS frame generation and the existing 2x option.
 
Oliko harppaus tehoissa 3000-sarjasta 4000-sarjaan jotenkin poikkeuksellisen suuri jostain syystä mitä 4000-sarjasta siirtyminen 5000-sarjaan ei olisi? Esim TPU viimeisin GPU update näyttää 4070 superin olevan 3090 nopeampi perus rasteroinnissa. Toki pelkkä 4070 on 11 prosenttiyksikköä hitaampi, mutta tämä nyt mainostettu 5070 nopeampi kuin 4090 melkein pätee, jos katsoo 4070 vs 3090 tilannetta. Tuolla 4070 suhteellisella suorituskyvyllä verrattuna 3090 päästäisiin 5070 tehoissa yli 4080 superin, jos sama suhde pitäisi 5070vs4090. Siinäkohden vaikuttaisi melko hyvältä diililtä jos sitä tuohon 679€ hintaan hyllyiltä saisi.
1736265544227.png
 
Latency with 2x Frame Gen: 50.9 milliseconds on average
Tää vihjais että suorituskyky hyvin lähelle samaa kuin 4090:llä, koska about samaa latenssia näen 4090:llä samoilla settareilla kuin tuossa. Toki 5080:llä noi uudet versiot DLSS seteistä käytössä, mikä saattaa jonkun verran vaikuttaa.

Isompi latenssi ei kiinnosta kyllä yhtään, tuonkin kanssa vähän veltto tunnelma.
 
Oliko harppaus tehoissa 3000-sarjasta 4000-sarjaan jotenkin poikkeuksellisen suuri jostain syystä mitä 4000-sarjasta siirtyminen 5000-sarjaan ei olisi? Esim TPU viimeisin GPU update näyttää 4070 superin olevan 3090 nopeampi perus rasteroinnissa. Toki pelkkä 4070 on 11 prosenttiyksikköä hitaampi, mutta tämä nyt mainostettu 5070 nopeampi kuin 4090 melkein pätee, jos katsoo 4070 vs 3090 tilannetta. Tuolla 4070 suhteellisella suorituskyvyllä verrattuna 3090 päästäisiin 5070 tehoissa yli 4080 superin, jos sama suhde pitäisi 5070vs4090. Siinäkohden vaikuttaisi melko hyvältä diililtä jos sitä tuohon 679€ hintaan hyllyiltä saisi.
1736265544227.png
Oli, 3000-sarja tuli samsungin valmistamana ja 4000-sarja tsmc:n reilusti paremmalla prosessilla valmistettuna. Nyt valmistusprosessi taitaa pysyä samana tai ainakin suht samana, eli sieltä ei sellaisia hyötyjä saada.
 
Oli, 3000-sarja tuli samsungin valmistamana ja 4000-sarja tsmc:n reilusti paremmalla prosessilla valmistettuna. Nyt valmistusprosessi taitaa pysyä samana tai ainakin suht samana, eli sieltä ei sellaisia hyötyjä saada.
Tämä on tosiaan tehossa paljon pienempi hyppy kuin edellinen. Luultavasti sitten 6000 sarjalaiset tulevat uudella prosessilla ja siellä taas isompi teholoikka. Nyt on enemmänkin refresh olemassa olevaan. Vähän kelloteltu lisää ja viilattu.
 
Pitää kyllä oikeasti miettiä et jos sittenkin 5090Fe kortin hommaisi.Siihen blokki kiinni ja kovaa ajoa.Toivotaan et Watercool tekee Founders Edition lappuun blokkeja.4090 korttiin ainakin saa.
 
Pitää kyllä oikeasti miettiä et jos sittenkin 5090Fe kortin hommaisi.Siihen blokki kiinni ja kovaa ajoa.Toivotaan et Watercool tekee Founders Edition lappuun blokkeja.4090 korttiin ainakin saa.

Ilmeisesti kaksi-, ellei kolmiosainen PCB. Ei ole ihan yksinkertaisin blokattava. Täytyy odotella mitä alkaa tulla saataville, ei näillä hinnoilla mitenkään isompaa ostokiimaa 90:iin muutenkaan tullut ja 80 on vähä tuhnu.
 
Pitää kyllä oikeasti miettiä et jos sittenkin 5090Fe kortin hommaisi.Siihen blokki kiinni ja kovaa ajoa.Toivotaan et Watercool tekee Founders Edition lappuun blokkeja.4090 korttiin ainakin saa.

Alphacoolilta tulossa hyvä valikoima blokkeja "normaaleilla" PCB:llä varustetuille 50 sarjalaisille.

blokit 50.png
hinnat 50.png
 
En kirveelläkään maksa alimman keskiluokan kortista yli 500 euroa, varsinkaan kun vielä Herran Vuonna 2025 siitä löytyy vain 12 gigatavua muistia, voi morjens.
Jos nämä lupaukset pitäisivät paikkaansa, niin kyllähän tuon voisi ostaa. Vaan taitaa hintaa olla kuitenkin oikeasti tuplaten ja 4090:aa vastaava teho vain markkinahöpinää.

1736279233041.png
 
Gigabyteltä tulee myös suoraan blokitetut mallit. Myös 5090 saatavilla

Alphacoolilta tulossa hyvä valikoima blokkeja "normaaleilla" PCB:llä varustetuille 50 sarjalaisille.

blokit 50.png
hinnat 50.png
Kannattaa muistaa et FE on se hankalimmalla PCB:llä oleva ollu jo 30-sarjasta lähtien. Siihen on kalleimmat blokit ja muistaakseni niitä on paikotellen odoteltu aika pitkäänkin. En usko et tälläkään kertaa tulee poikkeusta. Noi Alphacoolin blokithan ei mee FE.
 
Viimeksi muokattu:
Jos nämä lupaukset pitäisivät paikkaansa, niin kyllähän tuon voisi ostaa. Vaan taitaa hintaa olla kuitenkin oikeasti tuplaten ja 4090:aa vastaava teho vain markkinahöpinää.

1736279233041.png
Tuskin on edes 4080 super luokkaa raaka tehossa, se on tuo multi frame geni tällä kertaa millä saadaan isoja lukuja pöytään.
 
Jos nämä lupaukset pitäisivät paikkaansa, niin kyllähän tuon voisi ostaa. Vaan taitaa hintaa olla kuitenkin oikeasti tuplaten ja 4090:aa vastaava teho vain markkinahöpinää.

1736279233041.png
Nopeus ei ole tiedossa, mutta FE hinta on: GeForce RTX 5070: 679 €
 
Ei silloin 4090 julkaisussa voinut ajatella että kukaan ostaisi noita yli 2k€ näytönohjaimia. Mutta sitten kun testituloksia tuli ulos ja siellä oli merkittävää parannusta, kyllä ostohousut menivät monella jalkaan. Premium-malleista otettiin erityisesti rahat pois, eikö joku MSI Suprim ja ASUS Strix ollut joku 2600€ julkaisun aikana.

Teho tietysti tärkeä mutta muut ominaisuudet ovat tärkeitä eri käyttäjille, itse arvostan esim. hiljaista ilmajäähdytettyä näytönohjainta.

Jos menee kuten RTX 4090 kanssa niin kyllä tässä käydään Kübler-Rossin viisi prosessia läpi.

  1. Kieltäminen: en minä näitä tehoja tarvitse, turhaa rahan haaskausta, nykyiselläkin pärjää, enhän minä edes pelaa mitään uusia pelejä
  2. Viha: Pakkoko tuon 5090 on olla kokoajan mielessä? Miksi se on noin kallis? Prkle!
  3. Neuvottelu: No mutta jos sitten kuitenkin, toisaalta harrastukset maksaa.... jotkuthan käy ulkomailla joka vuosi.... nykyisestä voisi saada hyvin rahaa takaisin... jos sittenkin? Onhan mulla jo uusi virtalähdekin...
  4. Masennus: Jahas ja mistään ei saa varastosta vaikka olisin valmis ostamaan!!1
  5. Hyväksyminen: No niin nyt on uusin näyttis... <pelaa indie-pelejä jotka pyörisivät integroidulla näyttiksellä>
 
Ei silloin 4090 julkaisussa voinut ajatella että kukaan ostaisi noita yli 2k€ näytönohjaimia. Mutta sitten kun testituloksia tuli ulos ja siellä oli merkittävää parannusta, kyllä ostohousut menivät monella jalkaan. Premium-malleista otettiin erityisesti rahat pois, eikö joku MSI Suprim ja ASUS Strix ollut joku 2600€ julkaisun aikana.

Teho tietysti tärkeä mutta muut ominaisuudet ovat tärkeitä eri käyttäjille, itse arvostan esim. hiljaista ilmajäähdytettyä näytönohjainta.

Jos menee kuten RTX 4090 kanssa niin kyllä tässä käydään Kübler-Rossin viisi prosessia läpi.

  1. Kieltäminen: en minä näitä tehoja tarvitse, turhaa rahan haaskausta, nykyiselläkin pärjää, enhän minä edes pelaa mitään uusia pelejä
  2. Viha: Pakkoko tuon 5090 on olla kokoajan mielessä? Miksi se on noin kallis? Prkle!
  3. Neuvottelu: No mutta jos sitten kuitenkin, toisaalta harrastukset maksaa.... jotkuthan käy ulkomailla joka vuosi.... nykyisestä voisi saada hyvin rahaa takaisin... jos sittenkin? Onhan mulla jo uusi virtalähdekin...
  4. Masennus: Jahas ja mistään ei saa varastosta vaikka olisin valmis ostamaan!!1
  5. Hyväksyminen: No niin nyt on uusin näyttis... <pelaa indie-pelejä jotka pyörisivät integroidulla näyttiksellä>
Jos päädyn takaisin vihreään näytönohjaimeen niin se on 5080 vaikka olisi 5090:een pinkka taskussa. Kuumottelisi liikaa se että ton pikkuliittimen läpi ollaan työntämässä 575W ja että siinä ei juurikaan marginaalia ole toisin kuin 8-pinnisessä PCI-E liittimessä.
 
Heatkillerin blokista on kyllä niin hyvät kokemukset niin laadun kuin suorituskyvynkin osalta, että pitää hehkuttaa. Itse en toki omaani ole vielä kauheasti päässyt testaamaan / rääkkäämään mutta laajastihan tuo maailmallakin on testattu.

Jos TUF / Strix on uusissakin samalla piirilevyllä kuten todennäköistä on, niin mielestäni tuo on järkevin parivaljakko valita vesileikkeihin. Ihan minkä tahansa blokin saa ainakin 4080/90 TUF:n.

FE myös hyvin tuettu, mutta itse korttia ei sitten järkevästi mistään saanutkaan ainakaan täällä saatavuuden loppupäässä.
 
Ei silloin 4090 julkaisussa voinut ajatella että kukaan ostaisi noita yli 2k€ näytönohjaimia.
Ja vuonna 2013 naurettiin Titanin 1000€ hintalapulle. Nyt 5070ti näyttää olevan tuon touhutonnin verran ja siitä paremmat kortit sit eksponentiaalisesti enemmän. Kukahan ois osannu arvata 10v sitten että nyt jengi harkitsee 2500€ maksavia näytönohjaimia pelikäyttöön aivan tosissaan?

Rehellisesti kuitenkin 5080 todennäköisesti riittää pelikäyttöön ihan jokaselle jantterille jos resona on 4k tai alle. 5090 tarvetta on ihan helvetin vaikea lähteä perustelemaan yhtään minään muuna kun haluna että ne framet on niin korkeat kun mahollista. Ja mikäs siinä, jos pinkkaa löytyy ja rahalle ei muuta käyttöä keksi niin on sitä paskempiakin investointeja nähty. Periaatteessa jos käy nvidialla pieni bugi ja 5070ti tippuukin liian lähelle 5080, niin helposti kääntyy siihen et se onkin se fiksuin investointi.
Jos päädyn takaisin vihreään näytönohjaimeen niin se on 5080 vaikka olisi 5090:een pinkka taskussa. Kuumottelisi liikaa se että ton pikkuliittimen läpi ollaan työntämässä 575W ja että siinä ei juurikaan marginaalia ole toisin kuin 8-pinnisessä PCI-E liittimessä.
PCI-E väylästä tulee 75w. Tai no useimmiten joku 50w kun ei ainakaan RTX 30-sarjan korteilla uskaltaneet enempää imeä kun ton verran. Mut se kaapeli on speksattu 600w asti niin eipä tosta ongelmaa tule, toivottavasti. Hiffaan kyllä pelon.
 
Jos päädyn takaisin vihreään näytönohjaimeen niin se on 5080 vaikka olisi 5090:een pinkka taskussa. Kuumottelisi liikaa se että ton pikkuliittimen läpi ollaan työntämässä 575W ja että siinä ei juurikaan marginaalia ole toisin kuin 8-pinnisessä PCI-E liittimessä.
Ostat 5090 ja rajotat sen haluamaasi wattimäärään ohjelmallisesti, luultavasti saat silti hyvin irti ruutuja. Ainakin 4090 kanssa ne viimeiset pisarat vie suhteettomasti watteja.
 
Gigabyteltä tulee myös suoraan blokitetut mallit. Myös 5090 saatavilla


Kannattaa muistaa et FE on se hankalimmalla PCB:llä oleva ollu jo 30-sarjasta lähtien. Siihen on kalleimmat blokit ja muistaakseni niitä on paikotellen odoteltu aika pitkäänkin. En usko et tälläkään kertaa tulee poikkeusta. Noi Alphacoolin blokithan ei mee FE.

Blokillinen 5090 olisi kyllä kiinnostava jos hinta ei ole posketon...
 
Blokillinen 5090 olisi kyllä kiinnostava jos hinta ei ole posketon...
Lähempänä 3k ku 2,5k varmasti, mut jos alphacoolinkin blokit on alkaen 200€ niin ei ne sen halvempia tuu muillakaan olemaan. Eli lopputuloksena samanhintanen tai kalliimpi, plus pitää ite räpeltää se blokki paikalleen
 
Gigabyten blokillisissa malleissa on vain huono historia kontaktin ja QC ongelmien takia, Menisin itse ainakin Alphacoolilla.
 
Saapa nähdä testien ja arvostelujen jälkeen jatkaako sitä vielä 3080 Ti:llä jonkin aikaa eteenpäin. Tonnin luokkaa voisi laittaa rahaa korttiin ja 5070 Ti nyt siihen aikalailla menee, mutta onko sitten tarpeeksi tehoeroa.

5080 muutaman satasen kalliimpi ja ei taida olla wörtti varsinkin kun saman verran muistiakin sisässä.
 
Jaa-a ajatuksena oli päivittää koko kone uuteen ja 5090 tulille mutta ei tuo framegen update oikein säväytä. Taitaa reilun 4 vuotta palvellut 5900x ryzeni setuppi jatkaa edelleen vuosi sitten hommatun 4090 kanssa, josko nvidian 6000-sarja parin vuoden päästä toisi enemmän uutta.
 
Gigabyten blokillisissa malleissa on vain huono historia kontaktin ja QC ongelmien takia, Menisin itse ainakin Alphacoolilla.
Hemmetti. Jotain tällästä muistelinkin et jossakin valmiiks blokitetussa on ollu ongelmia jäähtymisen kanssa ja muutakin sanottavaa. Oliks joku vielä sellanen et ei jäähyttäny kunnolla muisteja tai virransyöttöä tjsp?
 
Inno3d tekee myös Frostbite version 5090 lappuun.Taitaa blokki olla jälleen Alphacoolin tuotantoa.
 

Statistiikka

Viestiketjuista
296 184
Viestejä
5 065 826
Jäsenet
81 042
Uusin jäsen
HuTSon

Hinta.fi

Back
Ylös Bottom