NVIDIA-spekulaatioketju (Blackwell ja tulevat sukupolvet)

Tämän generaation nolla parannukset oli aikalailla tiedossa silloin kun ensimmäisiä tietoja rupesi valumaan. Jo se, että jaahas on tämäkin generaatio samalla 4nm prosessilla kertoi jo omaa tarinaa. 3000-sarjasta hyppy 4000 sarjaan oli kahden valmistusnoden ero. Sitten kun tuli selväksi miten pieni cuda ydinmäärä lisäys 5080 korttiin tulee vrt 4080 oli homma aika selvä. Eli se konkreettinen tehoero on monen kortin kohdalla eniten GDDR7 -muistien varassa. Huom en ota kantaa nopeuteen ollenkaan DLSS tekniikkaa käytettäessä.

Sillon kun vertailtiin 4080 ja 4090 korttien nopeuksia ei pelinopeus noussut suinkaan lineaarisesti samassa suhteessa mitä 4090 kortissa on enemmän cuda ytimiä vrt 4080. Far Cry 6 saattaa olla parasta esimakua oikeasta teho kehityksestä. Ne jotka laski prosentuaalista eroa mm cuda ytimissä ja siihen päälle muistikaista ja muistin nopeudet veikkas aika realistisesti oikein. Toki eri softat hyötyy eri asioista ja vielä menee hetki ennen kuin päästää testituloksia lukemaan.

Hommahan on niin, että 5090 korttia Nvidia ei oikein sais kaupaksi ammattiporukoille jos se olisi liian pieni hyppy. Siihen piti siksi panostaa oikeasti. Muille asiakasryhmille voi laittaa automyyjä moden päälle.
 
Olipas pettymys tuo 5090, hyllyyn jää jos suorituskyvyn nousu on tosiaan tuo slaideissa esitetty 20% RT pelissä eli ilman RT parannus on vielä tuotakin pienempi. Feikki framet myyntimiesten höpinää joilla ei tee mielestäni mitään, sujuvaan pelikokemukseen vaaditaan jokatapauksessa pohjalle niin paljon frameja että niiden lisääminen siitä eteenpäin feikkiframeilla on aika turhaa.

Jos peli pyörii esimerkiksi 50 fps 4090 niin 5090 se pyörisi 60fps, ei omaan makuun kyllä 2,5 tonnin arvoinen päivitys.
 
UE5 lastenkengissä? Tätähän käytetään trailereihin sun muihinkin path tracing moodissa ja reaaliajassa tuottaa myös upeaa kuvaa etenkin hw kiihdytetyllä säteenseurannalla.

Varmaan 100x nopeampi bvh-puun rakentaminen tekee jotain myös kun dynaamiset objektit ja tiheät meshit ovat pienempi ongelma kuin ennen



On se minusta aika lapsenkengissään kun millään pelikortilla ei voi pelata lähelläkään sulavasti järkevällä resolla (30fps on lähinnä vitsi). Jos tosiaan ollaan lähellä raudan kehityksen rajaa, näyttää siltä että umpikujan pää on aika lähellä.
 
Olipas pettymys tuo 5090, hyllyyn jää jos suorituskyvyn nousu on tosiaan tuo slaideissa esitetty 20% RT pelissä eli ilman RT parannus on vielä tuotakin pienempi. Feikki framet myyntimiesten höpinää joilla ei tee mielestäni mitään, sujuvaan pelikokemukseen vaaditaan jokatapauksessa pohjalle niin paljon frameja että niiden lisääminen siitä eteenpäin feikkiframeilla on aika turhaa.

Jos peli pyörii esimerkiksi 50 fps 4090 niin 5090 se pyörisi 60fps, ei omaan makuun kyllä 2,5 tonnin arvoinen päivitys.
Tuskinpa tuo kannattaa joka generaatiossa päivitellä suorituskyvyn vuoksi. Samahan se on cpu puolellakin. Tosin en vielä tuomitsisi kun 80% enemmän muistikaistaa. On kai se isompi muistikaista sinne laitettu syystä. Syy tosin aika varmasti ei ole rasterisuorituskyky mitä tarvitaan lisää/missä eroa löytyy. Varmaan path tracing moodit peleissä missä näkyy isoimmat erot raa-assa tehossa.
 
Tuskinpa tuo kannattaa joka generaatiossa päivitellä suorituskyvyn vuoksi. Samahan se on cpu puolellakin. Tosin en vielä tuomitsisi kun 80% enemmän muistikaistaa. On kai se isompi muistikaista sinne laitettu syystä. Syy tosin aika varmasti ei ole rasterisuorituskyky mitä tarvitaan lisää/missä eroa löytyy. Varmaan path tracing moodit peleissä missä näkyy isoimmat erot raa-assa tehossa.
Hieman epärealistisesti sitä toivoi ja odotti samanlaista suorituskykyharppausta kun 3090->4090 joka oli mielestäni valtava tähän verrattuna. Noo odotellaan 6-sarjaa :D
 
Olipas pettymys tuo 5090, hyllyyn jää jos suorituskyvyn nousu on tosiaan tuo slaideissa esitetty 20% RT pelissä eli ilman RT parannus on vielä tuotakin pienempi. Feikki framet myyntimiesten höpinää joilla ei tee mielestäni mitään, sujuvaan pelikokemukseen vaaditaan jokatapauksessa pohjalle niin paljon frameja että niiden lisääminen siitä eteenpäin feikkiframeilla on aika turhaa.

Jos peli pyörii esimerkiksi 50 fps 4090 niin 5090 se pyörisi 60fps, ei omaan makuun kyllä 2,5 tonnin arvoinen päivitys.
Plus tuo tehonlisäys on saatu lisäämällä virrankulutusta saman verran prosentteina :D
 
Tuskinpa tuo kannattaa joka generaatiossa päivitellä suorituskyvyn vuoksi. Samahan se on cpu puolellakin. Tosin en vielä tuomitsisi kun 80% enemmän muistikaistaa. On kai se isompi muistikaista sinne laitettu syystä. Syy tosin aika varmasti ei ole rasterisuorituskyky mitä tarvitaan lisää/missä eroa löytyy. Varmaan path tracing moodit peleissä missä näkyy isoimmat erot raa-assa tehossa.
Ilkeämielisesti voisi arvioida, että on laitettu vähän lisää muistia jotta saataisiin perusteltua korkeampi hinta.
Todennäköisesti muistia on lisätty AI-vaatimusten tarpeita varten.
 
Mutta kun maailma ei toimi nuin. Jos joku tekee pelin joka pyörii hyvin ja varsinkin niin että ei käytä edes RT:tä niin se peli on kuollut siinä kohtaa kun screenshotit alkaa leviämään pitkin nettiä ja foorumeilla nauretaan että miten PASKALLE se peli näyttää eikä siinä auta mikään 60fps jos pelkkää tuhnua tulee silmille 60fps nopeudella.
Jossain kohtaa tosiaan kehittäjiltä unohtui uniikit taiteelliset visuaaliset suunnittelut ja alettiin ajamaan enemmän realismia ja simulaatiota grafiikoissa. Näiden saavuttamiseksi joudutaan turvautumaan sitten feikkifreimi ratkaisuihin jotka pahimmassa tapauksessa kusevat koko visuaalisen ilmeen ja jarruttavat pelikokemusta extra latenssilla ja artifakteilla.

Koskahan tulee sellainen tila että pikselipuristit joutuvat pitelemään entisajan korteistaan kiinni koska tulevaisuuden korteissa ilmastovihreyden puolesta säästetään virtaa generoimalla AI:lla osasta työpöytäpikseleistä?
 
Ilkeämielisesti voisi arvioida, että on laitettu vähän lisää muistia jotta saataisiin perusteltua korkeampi hinta.
Todennäköisesti muistia on lisätty AI-vaatimusten tarpeita varten.
Olisihan sitä muistia voinut latoa lisää ilman, että muistikaistaa lisätään. Ei upouusi nopea gddr7 muisti ole halpaa versus gddr6/6x. 4090 muistikaista about 1TB/s, 5090 about 1.8TB/s.

Arvelen että nopeampi muistikaista mahdollistaa sen, että tensoriytimet ja rt-coret jauhaa shader corejen kanssa yhtä aikaa paremmin. Aikaisemmin yhteistoimintaa rajasi muistin nopeus kun yksiköt odottelee dataa. Muistikaistan mahdollistama nopeutus tuskin realisoituu esim. rasterissa kun rasteriyksiköiden määrä/nopeus on lisääntynyt vähemmän kuin muistikaistan nopeus.
 
Viimeksi muokattu:
Mutta kun maailma ei toimi nuin. Jos joku tekee pelin joka pyörii hyvin ja varsinkin niin että ei käytä edes RT:tä niin se peli on kuollut siinä kohtaa kun screenshotit alkaa leviämään pitkin nettiä ja foorumeilla nauretaan että miten PASKALLE se peli näyttää eikä siinä auta mikään 60fps jos pelkkää tuhnua tulee silmille 60fps nopeudella.

Ihmiset katsoo screenshotteja eikä mitään fps lukemaa kun mietitään mikä peli on parempi.

Ja onhan se nähty että tuo temmpu-setti toiselta nimeltään raster on umpikujassa. Se ei skaalaudu ja parhaimmillaankin näyttää vain "ihan ok" kun vertaa kunnon RT toteutukseen. Kylkeen kun lyödään se fakta että ihmislaji alkaa olemaan umpikujassa myös piirien kehityksen saralla niin nyt pitää keksiä kaikki temput että saadaan kehitystä aikaiseksi.
Jaa en tiiä joku Doom ja eternal on kyllä hienoja ja pyörii aika hiton kepeästi kevyemmälläkin raudalla?
Ei tarvii frame gen eikä RT? Toki varmaan RT tekniikalla siitä saisi hienommankin..
 
Siis joissain ekoissa Nvidian tulevaisuuden ennustus / esittely kuvissa aikoinaan tais lukea tälle sukupolvelle, että tulee 3nm tekniikalla. Jos sillä tekniikalla olisi jo valmistettu niin kuin varmaan jonkun yli vuoden uumoilin, olisi tehoa saanut reilusti enemmän. Nyt ei tullut nodehyppyä ja vasta 2 vuoden kuluttua tulee 3nm kortti. Jos myynnit jää tuhnuks voi Nvidia tehdä nodepäivitetyn 5000 updaten paremmilla tehoilla ensi kevääksi. Ei se kehitys ihan seinään lopu TSMC 2nm node on jo valmistuksessa. Kuulemma 30 000$ / kiekko juuri nyt (jos rahaa löytyy). Kuulemma jopa Apple skippaa tuon 2nm noden juuri nyt koska saannit ja hinta per kiekkko ei oo jees.
 
Siis joissain ekoissa Nvidian tulevaisuuden ennustus / esittely kuvissa aikoinaan tais lukea tälle sukupolvelle, että tulee 3nm tekniikalla. Jos sillä tekniikalla olisi jo valmistettu niin kuin varmaan jonkun yli vuoden uumoilin, olisi tehoa saanut reilusti enemmän. Nyt ei tullut nodehyppyä ja vasta 2 vuoden kuluttua tulee 3nm kortti. Jos myynnit jää tuhnuks voi Nvidia tehdä nodepäivitetyn 5000 updaten paremmilla tehoilla ensi kevääksi. Ei se kehitys ihan seinään lopu 2nm node on jo valmisuksessa. Kuulemma 30 000$ / kiekko juuri nyt (jos rahaa löytyy). Kuulemma jopa Apple skippaa tuon 2nm noden juuri nyt koska saannit ja hinta per kiekkko ei oo jees.
rubin konesaligpu kai tulee 3nm:lla tai ehkä chiplet ja 3nm+xnm piirejä. Voipi olla, että seuraavat peligpu:t samsungin tehtailta: NVIDIA Is Now Rumored To Switch Towards Samsung Foundry For 2nm Process, Ditching TSMC Due To High Costs

Ehkä nvidia tekee källit ja seuraava peligpu samaan tyyliin 2 piiriä yhteen liimattuna kuin konesali blackwell ja applen ultra soc:it. Voi vaikuttaa jollain tapaa valittuun valmistusteknologiaan. esim. suunnittelee yhden 256bit piirin mistä tehdään 6080 ja 2xpiiri yhteen liimattuna 6090.
 
Viimeksi muokattu:
Jossain kohtaa tosiaan kehittäjiltä unohtui uniikit taiteelliset visuaaliset suunnittelut ja alettiin ajamaan enemmän realismia ja simulaatiota grafiikoissa. Näiden saavuttamiseksi joudutaan turvautumaan sitten feikkifreimi ratkaisuihin jotka pahimmassa tapauksessa kusevat koko visuaalisen ilmeen ja jarruttavat pelikokemusta extra latenssilla ja artifakteilla.

Koskahan tulee sellainen tila että pikselipuristit joutuvat pitelemään entisajan korteistaan kiinni koska tulevaisuuden korteissa ilmastovihreyden puolesta säästetään virtaa generoimalla AI:lla osasta työpöytäpikseleistä?

Käytännön kannaltahan sillä ei lopulta ole väliä millä tekniikalla se grafiikka siihen näytölle piirtyy se siitä graafikasta syntyvä kokemus on se tärkein.

Esim
Jos kolmen vuoden päästä generoidaan tosimaailman videokameran tasoista peligrafiikkaa kompleksisella Ai-mallilla vaikka sitten etänä / geforce now tyyliin se voi olla aika hieno kokemus.
 
En usko itsekkään, että ainakaan enää 10v myydään näytönohjaimia vaan jo muutaman vuoden päästä ostetaan omaan lompakkoon sopiva kk maksullinen palvelu jota kautta pelataan. Kuvankäsittelijät ja muut sitten erikseen.

Ohan se nyt ihan huippujuttu jos saat vaikka 20€ hyvää kuvaa suoraan LG telkkariin eikä tarvii miettiä yhtään mitään sopiiko tämä ylihintainen kortti tähän laitteistoon kuten nykyään.
 
Tämän graafin mukaan +27% luokkaa olisi 4090 vs 5090 ilman mitään AI juttuja.

image.png

Ainakin ennen testeissä tuo oli todella prossupullonkaulainen peli. Esim. RTX 3080 ja 3090 välille oli vaikea saada kummempaa eroa.
Varmasti 3D-välimuistilliset prosessorit ovat muuttaneet tilannetta, mutta silti en laskisi mitään suorituskykyeroa tuon pelin varaan, en edes ymmärrä miksi tuo edelleen noissa testeissä mukana roikkuu kun peli on vanha kuin mikä.
 
En usko itsekkään, että ainakaan enää 10v myydään näytönohjaimia vaan jo muutaman vuoden päästä ostetaan omaan lompakkoon sopiva kk maksullinen palvelu jota kautta pelataan. Kuvankäsittelijät ja muut sitten erikseen.

Ohan se nyt ihan huippujuttu jos saat vaikka 20€ hyvää kuvaa suoraan LG telkkariin eikä tarvii miettiä yhtään mitään sopiiko tämä ylihintainen kortti tähän laitteistoon kuten nykyään.

Melkoisia harppauksia tarvitaan teknologiassa jos halutaan 4k kuvaa jollakin 30-50ms viiveellä pilvipalvelun kautta ruudulle ja jonkinlainen päätelaite kuitenkin tarvitaan että kaiken maailman hiiret, näppikset, joikkarit ratit sunmuut himpelit saadaan liitettyä verkon yli sinne pilvikoneelle. Ellei sitten ideana ole, että tietokone/konsoli on kotona, mutta itse grafiikan piirtäminen kierrätetään siellä pilvessä, toki siinäkin tarvitaan aika hurjat yhteydet jos ajatellaan että displayport liitännässä puhutaan kymmenien gigojen siirtonopeuksista eivätkä silti riitä.
 
En kirveelläkään maksa alimman keskiluokan kortista yli 500 euroa, varsinkaan kun vielä Herran Vuonna 2025 siitä löytyy vain 12 gigatavua muistia, voi morjens.

Seuraava kortti on punainen kuin Kiinan kommunistinen kansantasavalta.
Nauratti toi vika lause. Mutta joo, kyllähän tää aika irvokkaaksi tuntuu menevän :/
 
Jaahans eli 679e 5070 lienee oikeasti joku 4070+20-25% eli 4070Super+5-10% - mutta vähän AI-hallusinaatiogeneroimalla saadaan sitten mittari näyttämään että kyllä on = 4090. Kätevästi uudet AI-neuroositkin vielä käytännössä puolittaa muistintarpeen, joten 12gb = uusi 24gb, kätevää! Uskokoon ken tahtoo.

AMD:llä varmaan kynä sauhuten mietitään, miten 9070 XT menisi kaupaksi. 599e Suomihinta, 7900XT rasteri, ei-aivan-ripuli RT ja 16GB muistia niin siinähän vois olla kortti niille, jotka on joku 2070 / 3060 / 5700 XT tanassa odottanut, milloin saa päivittää. Tuo on se maksimi, mitä luulen että AMD:ltä on tulossa. Mitä enemmän tuosta jää, sitä enemmän pitää sit hinnan valua kohti 500, että menee kaupaksi.

Eipä mitään sellaista tullut/tuskin tulee, että tarvisi 7800 XT:n omistajana lähteä ostohousuista pölyjä pyyhkimään. Tonnia ei kehtaa näyttikseen ruveta laittamaan kun viime aikoina ei oo jaksanut pelatakaan kuin OSRS, TFT ja LOL, jotka kaikki pyöris 15v. vanhallakin raudalla. :)
 
Melkoisia harppauksia tarvitaan teknologiassa jos halutaan 4k kuvaa jollakin 30-50ms viiveellä pilvipalvelun kautta ruudulle ja jonkinlainen päätelaite kuitenkin tarvitaan että kaiken maailman hiiret, näppikset, joikkarit ratit sunmuut himpelit saadaan liitettyä verkon yli sinne pilvikoneelle. Ellei sitten ideana ole, että tietokone/konsoli on kotona, mutta itse grafiikan piirtäminen kierrätetään siellä pilvessä, toki siinäkin tarvitaan aika hurjat yhteydet jos ajatellaan että displayport liitännässä puhutaan kymmenien gigojen siirtonopeuksista eivätkä silti riitä.
Oletko kokeillut esim Geforce Now lähiaikoina käyttäen 5g standalone/kuitua? Moni ei varmasti huomaisi että ei kyseessä natiivi pelaamista vieressä olevalla tehokkaalla tietokoneella.

Nuo hiiri, joystick, ratit yms ongelmat on jo selätetty suurimmaksi osaksi, eli kytket ne päätelaitteeseen esim ohut ja hyvän akkukeston omaavaan kannettavaan tai mini pc.

Nykypäivänä pystyy jo esim Shadow tech jopa VR lasien pelejä pelaamaan, tosin Suomeen sitä palvelua ei ole vielä tullut.

Kyseinen Shadow palvelu siis kokonainen tietokone mutta se on toisella puolella maata/toisessa maassa joka netin kautta vie käyttäjän inputin(esim hiiri, näppäimistö, peliohjain, joystick, ratti) koneelle ja striimaa kuvan ja äänen käyttäjälle. Kyseinen palvelu tosin kallis verrattuna vastaavaan itse koottuun koneeseen mutta kyllä varmasti hinnat tippuvat jos kilpailua syntyy.

Itse tosin en usko että erillisten näytönohjaimien myynnin loppuvan vielä kymmenen vuoden päästä kuluttajille mutta varmasti pilvipeluu tulee enemmän korvaamaan sitä ja riskinä pilvipeluussa on että kilpailua ei niillä eri palveluilla olisi ja sitten hinnat karkaavat käsistä.

Tässä ketju jossa voi paremmin keskustella pilvipelaamisesta jos kiinnostaa:

 
Seuraavan vuoden keväälle? Itse laitoin tilauksen heti kun tulivat myyntiin ja sain kortin tarkalleen vuoden päästä siitä.

Jimmsista launch day +2h laukaisun jälkeen (koska olin työreissulta palaamassa vielä), Asus OC TUF 3080 759e ja tuli ~2kk päästä, just pari päivää ennen joulua. Se oli hyvä diili kerrankin, 1500€ tarjosivat kortista keväällä tutut mutta en retkahtanut.
 
Meni mun arvaus siitä, että GB202:ssa olisi nvlink ja tulisi nvlink/nvlink c2c:lla tuplakortti metsään. Tuon "tilalta" tuli ai käyttöön konesaliblackwell+arm pohjainen pikkukone. Myynee kuin häkä. Hinta alkaen 3000$, toimii normi töpseliin kytkettynä. Tuollaisella tekis vaikka lokaali kielimalli+aider avulla älyttömän nopean koodiavustimen ilman että data menee pilveen.

1Pflop fp4 tehoa, 20 arm corea, 128GB yhtenäistä muistia. Noita saa kaksi kytkettyä yhteen jolloin isoimman tuetun mallin koko tuplaantuu

1736261197346.png

 
Oletko kokeillut esim Geforce Now lähiaikoina käyttäen 5g standalone/kuitua? Moni ei varmasti huomaisi että ei kyseessä natiivi pelaamista vieressä olevalla tehokkaalla tietokoneella.

Nuo hiiri, joystick, ratit yms ongelmat on jo selätetty suurimmaksi osaksi, eli kytket ne päätelaitteeseen esim ohut ja hyvän akkukeston omaavaan kannettavaan tai mini pc.

Nykypäivänä pystyy jo esim Shadow tech jopa VR lasien pelejä pelaamaan, tosin Suomeen sitä palvelua ei ole vielä tullut.

Kyseinen Shadow palvelu siis kokonainen tietokone mutta se on toisella puolella maata/toisessa maassa joka netin kautta vie käyttäjän inputin(esim hiiri, näppäimistö, peliohjain, joystick, ratti) koneelle ja striimaa kuvan ja äänen käyttäjälle. Kyseinen palvelu tosin kallis verrattuna vastaavaan itse koottuun koneeseen mutta kyllä varmasti hinnat tippuvat jos kilpailua syntyy.

Itse tosin en usko että erillisten näytönohjaimien myynnin loppuvan vielä kymmenen vuoden päästä kuluttajille mutta varmasti pilvipeluu tulee enemmän korvaamaan sitä ja riskinä pilvipeluussa on että kilpailua ei niillä eri palveluilla olisi ja sitten hinnat karkaavat käsistä.

Tässä ketju jossa voi paremmin keskustella pilvipelaamisesta jos kiinnostaa:

Enpä ole vielä pilvipalvelua Suomessa testannut jossa input lagia ei huomaisi päivänselvästi. Se kuinka iso ongelma se on riippuu sitten pelistä. Ratkaisu olisi ripotella niitä servereitä ympäri maapalloa niin tiheään ettei mitään järkeä, joten aika kauan saa odotella. Toisena on sitten hinta. Jos heittää sen 20€ kuussa itse palveluun ja jonkun 50€ gigaseen nettiin että saa tarpeeksi hyvän laadun vaikka 4K:na pihalle, niin äkkiäpä tuolla hinnalla kustantaa sen kalliimman näyttiksenkin.
 
Oletko kokeillut esim Geforce Now lähiaikoina käyttäen 5g standalone/kuitua? Moni ei varmasti huomaisi että ei kyseessä natiivi pelaamista vieressä olevalla tehokkaalla tietokoneella.

Nuo hiiri, joystick, ratit yms ongelmat on jo selätetty suurimmaksi osaksi, eli kytket ne päätelaitteeseen esim ohut ja hyvän akkukeston omaavaan kannettavaan tai mini pc.

Nykypäivänä pystyy jo esim Shadow tech jopa VR lasien pelejä pelaamaan, tosin Suomeen sitä palvelua ei ole vielä tullut.

Kyseinen Shadow palvelu siis kokonainen tietokone mutta se on toisella puolella maata/toisessa maassa joka netin kautta vie käyttäjän inputin(esim hiiri, näppäimistö, peliohjain, joystick, ratti) koneelle ja striimaa kuvan ja äänen käyttäjälle. Kyseinen palvelu tosin kallis verrattuna vastaavaan itse koottuun koneeseen mutta kyllä varmasti hinnat tippuvat jos kilpailua syntyy.

Itse tosin en usko että erillisten näytönohjaimien myynnin loppuvan vielä kymmenen vuoden päästä kuluttajille mutta varmasti pilvipeluu tulee enemmän korvaamaan sitä ja riskinä pilvipeluussa on että kilpailua ei niillä eri palveluilla olisi ja sitten hinnat karkaavat käsistä.

Tässä ketju jossa voi paremmin keskustella pilvipelaamisesta jos kiinnostaa:

Jos pilvipalvelut ovat ainoa mahdollisuus pelata uusia pelejä jäisi pelit aika monella pelaamatta. Jopa suomi on ihan täynnä paikkoja missä se 5G antaa alle 20 megaa, jopa kaupunkien laidoilla on pahoja katvealueita että ei tarvitse edes lähteä mihkään syrjäseuduille. Tuo varmasti on tulevaisuudessa totta mutta en usko että 10v sisällä.
 
Enpä ole vielä pilvipalvelua Suomessa testannut jossa input lagia ei huomaisi päivänselvästi. Se kuinka iso ongelma se on riippuu sitten pelistä. Ratkaisu olisi ripotella niitä servereitä ympäri maapalloa niin tiheään ettei mitään järkeä, joten aika kauan saa odotella. Toisena on sitten hinta. Jos heittää sen 20€ kuussa itse palveluun ja jonkun 50€ gigaseen nettiin että saa tarpeeksi hyvän laadun vaikka 4K:na pihalle, niin äkkiäpä tuolla hinnalla kustantaa sen kalliimman näyttiksenkin.
Ei kyllä gigatavun nopeudella olevaa nettiyhteyttä tarvita ja kyllähän siitä vaikkapa 100 megan kuitu/5g standalone on hyötyä myös muussa käytössä.

Tuo input lag homma on tosi käyttäjäsidonnainen, jotkut kokee jopa omalta koneelta langattomasti VR käytössä input lagia haitallisen paljon, toiset vetää Shadown kanssa ilman isompia ongelmia.

Juu siitä olen samaa mieltä että ei kannata vaikkapa koko Suomea tunkea täyteen pilvi pc servereita jotta lapin perukoillakin voi pelata 4k 120hz hyvin, mutta eiköhän suurempien kaupunkien lähellä asuvat(joista asuu jo suurinosa Suomalaisista) saa joitakin pilvipeli servuja pystyyn ajan kanssa, tosin se dystopia että ei olisi kilpailua kunnolla ja hinnat pomppaavat on todellinen uhka jollain aikavälillä.

Kyllä varmasti niitä erillisiä näytönohjaimia on pelaajille vielä ensi vuosikymmenen loppuun asti ainakin, mutta myynnit voivat siirtyä enemmänkin pilvipeli servuihin.

En tiedä onko n.20 euroa kuussa kovinkaan tuottoisaa bisnestä Nvidialle, jos kohta päivittävät sen Geforce Now Rtx 5080 kanssa.

Eli jos nettiä käyttää muuhunkin niin aika vähän maksaa tällä hetkellä puoli vuotta ultimate 109 euroa(eli keskimäärin alle 20 euroa kuussa, tosin rajoitettu peliaikaa 100 tuntiin kuussa josta ylimenevä maksaa hunajaa(ultimate 15 tuntia 8 euroa)) Geforce Now ja palvelu päivittyy parin vuoden välein uusimpaan 1500+ euron näytönohjaimeen ei kyllä minusta kuulosta yhtään hassummalta, toki Geforce Now ei toimi modit ja kaikki pelit ei toimi, kun taas Shadow toimii 99 prosenttia peleistä(jos ei ole anticheat joka ei tue pilvipc) tosin se on sitten huomattavasti kalliimpi, huonommalla tekniikalla ja ei tosiaan saatavilla Suomessa vielä.
 
Jos kolmen vuoden päästä generoidaan tosimaailman videokameran tasoista peligrafiikkaa kompleksisella Ai-mallilla vaikka sitten etänä / geforce now tyyliin se voi olla aika hieno kokemus.
Jos kuluttajat jatkaa olemaan idiootteja joita viedään kuin pässiä narusta niin tuollainen paskainen skenaario hyvinkin mahdollista. Todellisuudessa ei kuitenkaan tule tapahtumaan, pilvipöhisijät ovat konkurssissa ennenkuin saavat tuollaista roskaa läpi.
 
Nyt kun noista feikkifreimeistä ollaan niin huolissaan, niin pakko kysyä. Jos tällä hetkellä pelaan ilman frame geniä tyytyväisenä 4K60hz ja siihen laitetaan frame gen päälle muuttamaan se 4K240hz, tuntuuko se pelatessa kuitenkin samalta kuin 60hz vai tuoko frame gen jotain ylimääräistä input lagia mukaan kun sen laittaa päälle?
 
Nahkatakkimiehen koijaukset jatkuu taas.
Muistaakohan jengi mitä 4080 julkaisussa luvattiin silloin että olisi 2-4x nopeampi kuin 3080 TI ja paniikki alkoi korttimyynneissä :D

Epäilen suuresti että 5070 lyö 4090 mallin muussakuin tuossa dlss4 vs dlss3 tuessa. Mutta eipä kaikki noita dlss edes kaipaa fps peleihin kun blurraa / ghostaa ruutu. Hattua nostan Jenssenille jos on korjattu blurrit ja ghostit ja oikeasti on 4090 tasoinen kortti tuolla muistimäärällä ;)

lol34080.png
 
Nyt kun noista feikkifreimeistä ollaan niin huolissaan, niin pakko kysyä. Jos tällä hetkellä pelaan ilman frame geniä tyytyväisenä 4K60hz ja siihen laitetaan frame gen päälle muuttamaan se 4K240hz, tuntuuko se pelatessa kuitenkin samalta kuin 60hz vai tuoko frame gen jotain ylimääräistä input lagia mukaan kun sen laittaa päälle?
Lisää. Toki nyt julkistettiin myös tuohon jotain uusia reflex ominaisuuksia, mutta nähtäväksi jää miten toimii. Alla pieni summaus DLSS3 FG:stä.

edit: näköjään timestampit ei toimi, 30:30 ->
Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.
 
Nyt kun noista feikkifreimeistä ollaan niin huolissaan, niin pakko kysyä. Jos tällä hetkellä pelaan ilman frame geniä tyytyväisenä 4K60hz ja siihen laitetaan frame gen päälle muuttamaan se 4K240hz, tuntuuko se pelatessa kuitenkin samalta kuin 60hz vai tuoko frame gen jotain ylimääräistä input lagia mukaan kun sen laittaa päälle?
Olettaisin että kuten Lossless Scaling ohjelman kanssa niin mitä enemmän feikki frameja sitä enemmän input lagia(2x vs 3x tai 4x), lisäksi nämä frame generation tekniikat vievät hieman suorituskykyä eli jos aikaisemmin samoilla asetuksilla saat 60 fps ei se ole enää 60 fps mistä se generoi sinne ylöspäin vaan pitäisi hiukan asetuksia laskea jotta saat sen 60 fps pohjana josta se generoi.

Lisäksi jos näyttösi vain 4k60hz et hyödy siitä koska näyttö näyttää vain 60hz, sitten jos vaikkapa 4k 120/144/240hz niin sitten sen parantuneen sulavuuden huomaa.

Nvidia Frame generaatio ainakin dlss 3.x kanssa ollut enemmän fps hittiä ottava kuin Amd Fsr 3.x. joka antaa myös Nvidia näytönohjaimella enemmän fps.

Jos pelaa ohjaimella niin sen input lagin lisääntymisen ei niin huomaa kuin jos pelaa hiirellä ja näppäimistöllä.
 
Digital foundryltä jotain hands onia tullut.

Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.

Joku noheva voisi summaroida vähän tuota kun ei ehdi katsoa. Gemini antoi pikaisesti latenssista seuraavaa summarya.

Here's a breakdown:

  • Latency with 2x Frame Gen: 50.9 milliseconds on average.
  • Latency with 3x Frame Gen: 55.5 milliseconds on average.
  • Latency with 4x Frame Gen: 57.3 milliseconds on average.
The video states that the majority of the extra latency still comes from buffering that extra frame, but adding further intermediate frames comes with a relatively minimal increase in latency. This means that the gameplay is still responsive in Cyberpunk 2077, and unless you're super attuned to input lag, you're unlikely to tell the difference between 4X DLSS frame generation and the existing 2x option.
 
Oliko harppaus tehoissa 3000-sarjasta 4000-sarjaan jotenkin poikkeuksellisen suuri jostain syystä mitä 4000-sarjasta siirtyminen 5000-sarjaan ei olisi? Esim TPU viimeisin GPU update näyttää 4070 superin olevan 3090 nopeampi perus rasteroinnissa. Toki pelkkä 4070 on 11 prosenttiyksikköä hitaampi, mutta tämä nyt mainostettu 5070 nopeampi kuin 4090 melkein pätee, jos katsoo 4070 vs 3090 tilannetta. Tuolla 4070 suhteellisella suorituskyvyllä verrattuna 3090 päästäisiin 5070 tehoissa yli 4080 superin, jos sama suhde pitäisi 5070vs4090. Siinäkohden vaikuttaisi melko hyvältä diililtä jos sitä tuohon 679€ hintaan hyllyiltä saisi.
1736265544227.png
 
Latency with 2x Frame Gen: 50.9 milliseconds on average
Tää vihjais että suorituskyky hyvin lähelle samaa kuin 4090:llä, koska about samaa latenssia näen 4090:llä samoilla settareilla kuin tuossa. Toki 5080:llä noi uudet versiot DLSS seteistä käytössä, mikä saattaa jonkun verran vaikuttaa.

Isompi latenssi ei kiinnosta kyllä yhtään, tuonkin kanssa vähän veltto tunnelma.
 
Oliko harppaus tehoissa 3000-sarjasta 4000-sarjaan jotenkin poikkeuksellisen suuri jostain syystä mitä 4000-sarjasta siirtyminen 5000-sarjaan ei olisi? Esim TPU viimeisin GPU update näyttää 4070 superin olevan 3090 nopeampi perus rasteroinnissa. Toki pelkkä 4070 on 11 prosenttiyksikköä hitaampi, mutta tämä nyt mainostettu 5070 nopeampi kuin 4090 melkein pätee, jos katsoo 4070 vs 3090 tilannetta. Tuolla 4070 suhteellisella suorituskyvyllä verrattuna 3090 päästäisiin 5070 tehoissa yli 4080 superin, jos sama suhde pitäisi 5070vs4090. Siinäkohden vaikuttaisi melko hyvältä diililtä jos sitä tuohon 679€ hintaan hyllyiltä saisi.
1736265544227.png
Oli, 3000-sarja tuli samsungin valmistamana ja 4000-sarja tsmc:n reilusti paremmalla prosessilla valmistettuna. Nyt valmistusprosessi taitaa pysyä samana tai ainakin suht samana, eli sieltä ei sellaisia hyötyjä saada.
 
Oli, 3000-sarja tuli samsungin valmistamana ja 4000-sarja tsmc:n reilusti paremmalla prosessilla valmistettuna. Nyt valmistusprosessi taitaa pysyä samana tai ainakin suht samana, eli sieltä ei sellaisia hyötyjä saada.
Tämä on tosiaan tehossa paljon pienempi hyppy kuin edellinen. Luultavasti sitten 6000 sarjalaiset tulevat uudella prosessilla ja siellä taas isompi teholoikka. Nyt on enemmänkin refresh olemassa olevaan. Vähän kelloteltu lisää ja viilattu.
 
Pitää kyllä oikeasti miettiä et jos sittenkin 5090Fe kortin hommaisi.Siihen blokki kiinni ja kovaa ajoa.Toivotaan et Watercool tekee Founders Edition lappuun blokkeja.4090 korttiin ainakin saa.
 
Pitää kyllä oikeasti miettiä et jos sittenkin 5090Fe kortin hommaisi.Siihen blokki kiinni ja kovaa ajoa.Toivotaan et Watercool tekee Founders Edition lappuun blokkeja.4090 korttiin ainakin saa.

Ilmeisesti kaksi-, ellei kolmiosainen PCB. Ei ole ihan yksinkertaisin blokattava. Täytyy odotella mitä alkaa tulla saataville, ei näillä hinnoilla mitenkään isompaa ostokiimaa 90:iin muutenkaan tullut ja 80 on vähä tuhnu.
 
Pitää kyllä oikeasti miettiä et jos sittenkin 5090Fe kortin hommaisi.Siihen blokki kiinni ja kovaa ajoa.Toivotaan et Watercool tekee Founders Edition lappuun blokkeja.4090 korttiin ainakin saa.

Alphacoolilta tulossa hyvä valikoima blokkeja "normaaleilla" PCB:llä varustetuille 50 sarjalaisille.

blokit 50.png
hinnat 50.png
 
En kirveelläkään maksa alimman keskiluokan kortista yli 500 euroa, varsinkaan kun vielä Herran Vuonna 2025 siitä löytyy vain 12 gigatavua muistia, voi morjens.
Jos nämä lupaukset pitäisivät paikkaansa, niin kyllähän tuon voisi ostaa. Vaan taitaa hintaa olla kuitenkin oikeasti tuplaten ja 4090:aa vastaava teho vain markkinahöpinää.

1736279233041.png
 
Gigabyteltä tulee myös suoraan blokitetut mallit. Myös 5090 saatavilla

Alphacoolilta tulossa hyvä valikoima blokkeja "normaaleilla" PCB:llä varustetuille 50 sarjalaisille.

blokit 50.png
hinnat 50.png
Kannattaa muistaa et FE on se hankalimmalla PCB:llä oleva ollu jo 30-sarjasta lähtien. Siihen on kalleimmat blokit ja muistaakseni niitä on paikotellen odoteltu aika pitkäänkin. En usko et tälläkään kertaa tulee poikkeusta. Noi Alphacoolin blokithan ei mee FE.
 
Viimeksi muokattu:
Jos nämä lupaukset pitäisivät paikkaansa, niin kyllähän tuon voisi ostaa. Vaan taitaa hintaa olla kuitenkin oikeasti tuplaten ja 4090:aa vastaava teho vain markkinahöpinää.

1736279233041.png
Tuskin on edes 4080 super luokkaa raaka tehossa, se on tuo multi frame geni tällä kertaa millä saadaan isoja lukuja pöytään.
 
Jos nämä lupaukset pitäisivät paikkaansa, niin kyllähän tuon voisi ostaa. Vaan taitaa hintaa olla kuitenkin oikeasti tuplaten ja 4090:aa vastaava teho vain markkinahöpinää.

1736279233041.png
Nopeus ei ole tiedossa, mutta FE hinta on: GeForce RTX 5070: 679 €
 
Ei silloin 4090 julkaisussa voinut ajatella että kukaan ostaisi noita yli 2k€ näytönohjaimia. Mutta sitten kun testituloksia tuli ulos ja siellä oli merkittävää parannusta, kyllä ostohousut menivät monella jalkaan. Premium-malleista otettiin erityisesti rahat pois, eikö joku MSI Suprim ja ASUS Strix ollut joku 2600€ julkaisun aikana.

Teho tietysti tärkeä mutta muut ominaisuudet ovat tärkeitä eri käyttäjille, itse arvostan esim. hiljaista ilmajäähdytettyä näytönohjainta.

Jos menee kuten RTX 4090 kanssa niin kyllä tässä käydään Kübler-Rossin viisi prosessia läpi.

  1. Kieltäminen: en minä näitä tehoja tarvitse, turhaa rahan haaskausta, nykyiselläkin pärjää, enhän minä edes pelaa mitään uusia pelejä
  2. Viha: Pakkoko tuon 5090 on olla kokoajan mielessä? Miksi se on noin kallis? Prkle!
  3. Neuvottelu: No mutta jos sitten kuitenkin, toisaalta harrastukset maksaa.... jotkuthan käy ulkomailla joka vuosi.... nykyisestä voisi saada hyvin rahaa takaisin... jos sittenkin? Onhan mulla jo uusi virtalähdekin...
  4. Masennus: Jahas ja mistään ei saa varastosta vaikka olisin valmis ostamaan!!1
  5. Hyväksyminen: No niin nyt on uusin näyttis... <pelaa indie-pelejä jotka pyörisivät integroidulla näyttiksellä>
 

Uusimmat viestit

Statistiikka

Viestiketjuista
285 039
Viestejä
4 897 722
Jäsenet
78 904
Uusin jäsen
Vermeri

Hinta.fi

Back
Ylös Bottom