NVIDIA-spekulaatioketju (Blackwell ja tulevat sukupolvet)

Tämä on totta, että saatavuus on ollut heikkoa tietyillä malleilla. Jos on ollut vain yhden tilauksen varassa ja laittanut arvan huonosti toimitettavaan malliin, niin on voinut jäädä nuolemaan näppejään. Toki tämä usean tilauksen tekeminen heikon saatavuuden vuoksi on myös aiheuttanut tämän tilauskaaoksen.

Tässä kaksi esimerkkiä itseltäni. Oma kortti tilattu 24.9.20 ja lähetetty 26.9.20. Kaverille kortti tilattu 29.11.20 ja saatu 29.3.21.
Se että te olitte sattuneet tilaamaan mallit joita liikkui, ei tarkota sitä etteikö saatavuus olisi ollut lähellä nollaa. Esim. tuosta Tuf:sta mikä sinulla on oli kahta mallia, oc ja normaali. Noista kun tilasi väärän niin toimitusaika venyi aivan tolkuttomasti ja toisia taas liikkui säännöllisesti. Itse sain joulukuussa 2020 3080 ventuksen ja toukokuussa 2021 3080 Gamerockin. Kun tuo Gamerock saapui niin sain aivan poskettoman törkeän summan tuosta 3080 Ventuksesta vaikka pyyntihintani oli io-techin halvin ja tuo Ventus oli tietääkseni kaikista huonoin 3080 mitä markkinoilla oli. 2022 kun myin Gamerockin niin siitäkin sai vielä silloin 500€ voittoa, kyllä tuo kertoo jotain näytönohjainten saatavuudesta ja siitä, että niitä ei kauhean helposti tuohon mainitsemaasi 739€ - 899€ hintaan saanut kuin todella pieni osa.
 
Vaikka ymmärrän kritiikin Nvidian markkinointihypekonetta/hinnoittelua kohtaan niin aina en ymmärrä kyllä tuota rasterointitehon korostamista ja samalla upscaletekniikoiden, RT ominaisuuksien tai Framegentekniikoiden kehityksen kritisointia tai väheksymistä. Jopa konsolipuolella on reagoitu siihen että tulevaisuus on noissa edellä mainituissa (katso PS5 PRO) ja RT:n kanssa on saavutettavissa huomattavasti mielenkiintoisempia ja parempia kehityksiä kuin rasteroinnin kanssa tässä vaiheessa on mahdollista. Tällä hetkellä parhainkaan rauta ei ilman skaalaustekniikoita(joista DLSS tällä hetkellä kärkeä) vaativampia RT-featuresettejä pyöritä järkevillä ruudunpäivitysnopeuksilla ja nään FG/MFG luonnollisena osana tuota jatkumoa kunhan nuo tietyt asiat saadaan kuntoon, kuten vaikka nyt nuo frame pacing ongelmat, jotka ainakin itselle ovat huomattavasti suurempi ongelma kun jotkut pysäytyskuvissa näkuvät artefaktit joita ei oma silmä liikkeessä huomaa.
 
Tämän graafin mukaan +27% luokkaa olisi 4090 vs 5090 ilman mitään AI juttuja.

image.png
 
Tuo graafihan todistaa alkuperäisen keskustelun oikeaksi? Dargol sanoi että 4090:lla pääsee DLSS Qualityllä ja framegenillä 4k60fps ja minä sanoin että framegenillä pääsee kyllä peräti 4k120 (olettaen että sama DLSS quality päällä).
Oma kokemus on 4080 kanssa että nvidia FG on yleensä aika raskas, jonka takia ei päästä lähellekään tuplausta raskaissa peleissä.

Eli jos haluut 120 fps, pitää pohjalla olla ennemminkin 80 fps. 60 fps muuntuu jonnekin 100 hujakoille. En sit tiedä on 4090 tän osalta jotenkin parempi kun isompi piiri jne.
 
En tiedä muiden mielenliikkeistä täällä, mutta ärsyttää tuo Jensenin väite että 5070 menis yhtä lujaa kuin 4090
Kusetustahan tuo väite on. Huomaa että slaideissa ei ole mitään mikä viittaisi raakaan rasterointiin. On vain RT sekä DLSS4.

Mielestäni AI pöhinä on mennyt ihan överiksi ja nimenomaa siihen suuntaan mitä ei todellakaan toivoisi. Pahimmat entisajan kuvitteelliset skenaariot näyttäisi tulevan myöskin toteen, että raudan sijaan maksat softasta kun ostat rautaa.

Toisaalta jos paremmalla jäähyllä lämpöjä alas, virran käyttöä saadaan uudella arkkitehtuurilla pienemmäksi, mutta kuitenkin rasterointi suorituskyky pysyy samana tai kasvaa hieman niin näkisin että kaikki ok. Odotan kyllä innolla niitä todellisia testejä näistä.

Jopa konsolipuolella on reagoitu siihen että tulevaisuus on noissa edellä mainituissa (katso PS5 PRO) ja RT:n kanssa on saavutettavissa huomattavasti mielenkiintoisempia ja parempia kehityksiä kuin rasteroinnin kanssa tässä vaiheessa on mahdollista
AI:lla paikataan kehittäjien laiskuutta _myös_ konsoleilla. Ennenkuin aletaan rummuttamaan AI:n puolesta konsolipuolella olisi tosi kiva jos ne pelit rullais säännöllisesti minimissään sen 60fps ilman mitään RT effuja. Budjettiratkaisussa kuten konsolit tuon ymmärtää. Olisihan se tietty hienoa jos sillä sais niitä lukuisia viimme genien pelejä, jotka rullaa sillä vanhalla koodilla resoluution ja fps kannalta paremmalle tasolle.
Jos ostaa premium hintaista PC RAUTAA niin toivoisi sen RAUDAN olevan erinomaista. Eikä niin että se rauta on meh ja puuttuvia palasia paikataan softavirityksillä koska valmistaja ahneuttaan/vittumaisuuttaan käyttää alempaa mallia myydäkseen ylempää mallia.
 
Nvidian AI image gen vertailu 5090 vs 4090 on ainakin puhdas vedätys, jos en ole missannut jotain: ”Flux.dev FP8 on 40 Series, FP4 on 50 Series”

Eli 5090 käytetty puolet pienempää mallia. Mikäköhän perusteena että suorituskykyvertailua ei voida ajaa samalla mallilla vaan 4090 laitettu ajamaan raskaampaa.
40x0 sarjan gpu:ssa ei ole tukea fp4 tensorioperaatioille tai kykyä purkaa 8bit rekisteristä kahta pakattua fp4:sta. FP4 on uusi ominaisuus blackwell:ssa millä saadaan tuplattua tensoreiden suorituskyky ja puolitettua muistinkulutus.
 
Viimeksi muokattu:
AI:lla paikataan kehittäjien laiskuutta _myös_ konsoleilla. Ennenkuin aletaan rummuttamaan AI:n puolesta konsolipuolella olisi tosi kiva jos ne pelit rullais säännöllisesti minimissään sen 60fps ilman mitään RT effuja.
Mutta kun maailma ei toimi nuin. Jos joku tekee pelin joka pyörii hyvin ja varsinkin niin että ei käytä edes RT:tä niin se peli on kuollut siinä kohtaa kun screenshotit alkaa leviämään pitkin nettiä ja foorumeilla nauretaan että miten PASKALLE se peli näyttää eikä siinä auta mikään 60fps jos pelkkää tuhnua tulee silmille 60fps nopeudella.

Ihmiset katsoo screenshotteja eikä mitään fps lukemaa kun mietitään mikä peli on parempi.

Ja onhan se nähty että tuo temmpu-setti toiselta nimeltään raster on umpikujassa. Se ei skaalaudu ja parhaimmillaankin näyttää vain "ihan ok" kun vertaa kunnon RT toteutukseen. Kylkeen kun lyödään se fakta että ihmislaji alkaa olemaan umpikujassa myös piirien kehityksen saralla niin nyt pitää keksiä kaikki temput että saadaan kehitystä aikaiseksi.
 
No eihän tuo AI skaalauskaan "skaalaudu". Se että NVIDIAn ruudulla 30 fps on seuraavalla ruudulla 226fps ei tarkoita että tuntuma on skaalautunut tuossa suhteessa.
 
No eihän tuo AI skaalauskaan "skaalaudu". Se että NVIDIAn ruudulla 30 fps on seuraavalla ruudulla 226fps ei tarkoita että tuntuma on skaalautunut tuossa suhteessa.
Varmaan oleellisin asia kuitenkin, että kuvanlaatu paranee kun uudet transformer pohjaiset neuroverkot dlss:ssa. Framegen on sitten mitä on sekä amd että nvidialla. Ne käyttää framegenia alustasta riippumatta jotka haluaa. Toinen oleellinen asia fp4 tuki mikä teoriassa voi jopa puolittaa dlss muisinkulutuksen ja tuplata suorituskyvyn. Teoria tuskin kohtaa käytännön kanssa kun ehkä ihan kaikkia mallien kerroksia ei saa laitettua fp4:ksi.
 
40x0 sarjan gpu:ssa ei ole tukea fp4 tensorioperaatioille tai kykyä purkaa 8bit rekisteristä kahta pakattua fp4:sta. FP4 on uusi ominaisuus blackwell:ssa millä saadaan tuplattua tensoreiden suorituskyky ja puolitettua muistinkulutus.
Olet oikeassa, tosin fp4 on väistämättä myös huonolaatuisempi kuin fp8.
 
Olet oikeassa, tosin fp4 on väistämättä myös huonolaatuisempi kuin fp8.
Lopputulos riippuu siitä onko fp4 tarkkuus riittävä vai ei. Ei voi yksiselitteisesti sanoa että lopputulos huonolaatuisempi ilman, että mene syvemmälle toteutetun mallin sisään. FP4+toteutettu malli voi olla riittävän laadukas, että näyttää paremmalta kuin dlss3 tai sitten ei. Tarvitaan joku zoomaileen pikseleitä ja katsomaan miten dlss3 ja dlss4 laatu eroaa toisistaan.
 
Mutta kun maailma ei toimi nuin. Jos joku tekee pelin joka pyörii hyvin ja varsinkin niin että ei käytä edes RT:tä niin se peli on kuollut siinä kohtaa kun screenshotit alkaa leviämään pitkin nettiä ja foorumeilla nauretaan että miten PASKALLE se peli näyttää eikä siinä auta mikään 60fps jos pelkkää tuhnua tulee silmille 60fps nopeudella.

Ihmiset katsoo screenshotteja eikä mitään fps lukemaa kun mietitään mikä peli on parempi.

Ja onhan se nähty että tuo temmpu-setti toiselta nimeltään raster on umpikujassa. Se ei skaalaudu ja parhaimmillaankin näyttää vain "ihan ok" kun vertaa kunnon RT toteutukseen. Kylkeen kun lyödään se fakta että ihmislaji alkaa olemaan umpikujassa myös piirien kehityksen saralla niin nyt pitää keksiä kaikki temput että saadaan kehitystä aikaiseksi.
Rasterointihan on fiksu keino tehdä RT:n efektit ja se on kehittynyt ajan saatossa niin tehokkaaksi siinä että RT:llä bruteforcettaminen tuntuu aika hölmöltä IMO. RT:hän on vielä ihan lapsenkengissään pelikäytössä, jos vertaa siihen mitä sillä oikeasti voisi tehdä, mutta siihen ei tosiaan koskaan päästä raudalla bruteforcettamalla koska säteiden määrää ja kantavuutta ei vaan voi järkevästi nostaa. Umpikuja RT myös on ja sehän tulikin yleisemmin käyttöön vasta kun rauta kehittyi tarpeeksi, vain ollakseen umpikuja jos rauta ei tästä nopeudu.

Ehkä tuo input tietoinen FG on ratkaisu ongelmaan, mutta tuskin sekään auttaa loputtomiin ja silläkin voi vain unelmoida siitä että oikeasti kauniita ja monimutkaisia pelimaailmoja renderöitäisi puhtaalla RT:llä sellaista vauhtia että se riittäisi edes vähemmän kriittisille pelaajille.
 
Rasterointihan on fiksu keino tehdä RT:n efektit ja se on kehittynyt ajan saatossa niin tehokkaaksi siinä että RT:llä bruteforcettaminen tuntuu aika hölmöltä IMO. RT:hän on vielä ihan lapsenkengissään pelikäytössä, jos vertaa siihen mitä sillä oikeasti voisi tehdä, mutta siihen ei tosiaan koskaan päästä raudalla bruteforcettamalla koska säteiden määrää ja kantavuutta ei vaan voi järkevästi nostaa. Umpikuja RT myös on ja sehän tulikin yleisemmin käyttöön vasta kun rauta kehittyi tarpeeksi, vain ollakseen umpikuja jos rauta ei tästä nopeudu.

Ehkä tuo input tietoinen FG on ratkaisu ongelmaan, mutta tuskin sekään auttaa loputtomiin ja silläkin voi vain unelmoida siitä että oikeasti kauniita ja monimutkaisia pelimaailmoja renderöitäisi puhtaalla RT:llä sellaista vauhtia että se riittäisi edes vähemmän kriittisille pelaajille.
UE5 lastenkengissä? Tätähän käytetään trailereihin sun muihinkin path tracing moodissa ja reaaliajassa tuottaa myös upeaa kuvaa etenkin hw kiihdytetyllä säteenseurannalla.

Varmaan 100x nopeampi bvh-puun rakentaminen tekee jotain myös kun dynaamiset objektit ja tiheät meshit ovat pienempi ongelma kuin ennen
the cost to build the bounding volume hierarchy (BVH) each frame for various levels of detail (LOD) grows exponentially, making it impossible to achieve real-time frame rates. RTX Mega Geometry accelerates BVH building, making it possible to ray trace up to 100x more triangles than today’s standard.
RTX Mega Geometry intelligently updates clusters of triangles in batches on the GPU, reducing CPU overhead and increasing performance and image quality in ray traced scenes

 
Tämän generaation nolla parannukset oli aikalailla tiedossa silloin kun ensimmäisiä tietoja rupesi valumaan. Jo se, että jaahas on tämäkin generaatio samalla 4nm prosessilla kertoi jo omaa tarinaa. 3000-sarjasta hyppy 4000 sarjaan oli kahden valmistusnoden ero. Sitten kun tuli selväksi miten pieni cuda ydinmäärä lisäys 5080 korttiin tulee vrt 4080 oli homma aika selvä. Eli se konkreettinen tehoero on monen kortin kohdalla eniten GDDR7 -muistien varassa. Huom en ota kantaa nopeuteen ollenkaan DLSS tekniikkaa käytettäessä.

Sillon kun vertailtiin 4080 ja 4090 korttien nopeuksia ei pelinopeus noussut suinkaan lineaarisesti samassa suhteessa mitä 4090 kortissa on enemmän cuda ytimiä vrt 4080. Far Cry 6 saattaa olla parasta esimakua oikeasta teho kehityksestä. Ne jotka laski prosentuaalista eroa mm cuda ytimissä ja siihen päälle muistikaista ja muistin nopeudet veikkas aika realistisesti oikein. Toki eri softat hyötyy eri asioista ja vielä menee hetki ennen kuin päästää testituloksia lukemaan.

Hommahan on niin, että 5090 korttia Nvidia ei oikein sais kaupaksi ammattiporukoille jos se olisi liian pieni hyppy. Siihen piti siksi panostaa oikeasti. Muille asiakasryhmille voi laittaa automyyjä moden päälle.
 
Olipas pettymys tuo 5090, hyllyyn jää jos suorituskyvyn nousu on tosiaan tuo slaideissa esitetty 20% RT pelissä eli ilman RT parannus on vielä tuotakin pienempi. Feikki framet myyntimiesten höpinää joilla ei tee mielestäni mitään, sujuvaan pelikokemukseen vaaditaan jokatapauksessa pohjalle niin paljon frameja että niiden lisääminen siitä eteenpäin feikkiframeilla on aika turhaa.

Jos peli pyörii esimerkiksi 50 fps 4090 niin 5090 se pyörisi 60fps, ei omaan makuun kyllä 2,5 tonnin arvoinen päivitys.
 
UE5 lastenkengissä? Tätähän käytetään trailereihin sun muihinkin path tracing moodissa ja reaaliajassa tuottaa myös upeaa kuvaa etenkin hw kiihdytetyllä säteenseurannalla.

Varmaan 100x nopeampi bvh-puun rakentaminen tekee jotain myös kun dynaamiset objektit ja tiheät meshit ovat pienempi ongelma kuin ennen



On se minusta aika lapsenkengissään kun millään pelikortilla ei voi pelata lähelläkään sulavasti järkevällä resolla (30fps on lähinnä vitsi). Jos tosiaan ollaan lähellä raudan kehityksen rajaa, näyttää siltä että umpikujan pää on aika lähellä.
 
Olipas pettymys tuo 5090, hyllyyn jää jos suorituskyvyn nousu on tosiaan tuo slaideissa esitetty 20% RT pelissä eli ilman RT parannus on vielä tuotakin pienempi. Feikki framet myyntimiesten höpinää joilla ei tee mielestäni mitään, sujuvaan pelikokemukseen vaaditaan jokatapauksessa pohjalle niin paljon frameja että niiden lisääminen siitä eteenpäin feikkiframeilla on aika turhaa.

Jos peli pyörii esimerkiksi 50 fps 4090 niin 5090 se pyörisi 60fps, ei omaan makuun kyllä 2,5 tonnin arvoinen päivitys.
Tuskinpa tuo kannattaa joka generaatiossa päivitellä suorituskyvyn vuoksi. Samahan se on cpu puolellakin. Tosin en vielä tuomitsisi kun 80% enemmän muistikaistaa. On kai se isompi muistikaista sinne laitettu syystä. Syy tosin aika varmasti ei ole rasterisuorituskyky mitä tarvitaan lisää/missä eroa löytyy. Varmaan path tracing moodit peleissä missä näkyy isoimmat erot raa-assa tehossa.
 
Tuskinpa tuo kannattaa joka generaatiossa päivitellä suorituskyvyn vuoksi. Samahan se on cpu puolellakin. Tosin en vielä tuomitsisi kun 80% enemmän muistikaistaa. On kai se isompi muistikaista sinne laitettu syystä. Syy tosin aika varmasti ei ole rasterisuorituskyky mitä tarvitaan lisää/missä eroa löytyy. Varmaan path tracing moodit peleissä missä näkyy isoimmat erot raa-assa tehossa.
Hieman epärealistisesti sitä toivoi ja odotti samanlaista suorituskykyharppausta kun 3090->4090 joka oli mielestäni valtava tähän verrattuna. Noo odotellaan 6-sarjaa :D
 
Olipas pettymys tuo 5090, hyllyyn jää jos suorituskyvyn nousu on tosiaan tuo slaideissa esitetty 20% RT pelissä eli ilman RT parannus on vielä tuotakin pienempi. Feikki framet myyntimiesten höpinää joilla ei tee mielestäni mitään, sujuvaan pelikokemukseen vaaditaan jokatapauksessa pohjalle niin paljon frameja että niiden lisääminen siitä eteenpäin feikkiframeilla on aika turhaa.

Jos peli pyörii esimerkiksi 50 fps 4090 niin 5090 se pyörisi 60fps, ei omaan makuun kyllä 2,5 tonnin arvoinen päivitys.
Plus tuo tehonlisäys on saatu lisäämällä virrankulutusta saman verran prosentteina :D
 
Tuskinpa tuo kannattaa joka generaatiossa päivitellä suorituskyvyn vuoksi. Samahan se on cpu puolellakin. Tosin en vielä tuomitsisi kun 80% enemmän muistikaistaa. On kai se isompi muistikaista sinne laitettu syystä. Syy tosin aika varmasti ei ole rasterisuorituskyky mitä tarvitaan lisää/missä eroa löytyy. Varmaan path tracing moodit peleissä missä näkyy isoimmat erot raa-assa tehossa.
Ilkeämielisesti voisi arvioida, että on laitettu vähän lisää muistia jotta saataisiin perusteltua korkeampi hinta.
Todennäköisesti muistia on lisätty AI-vaatimusten tarpeita varten.
 
Mutta kun maailma ei toimi nuin. Jos joku tekee pelin joka pyörii hyvin ja varsinkin niin että ei käytä edes RT:tä niin se peli on kuollut siinä kohtaa kun screenshotit alkaa leviämään pitkin nettiä ja foorumeilla nauretaan että miten PASKALLE se peli näyttää eikä siinä auta mikään 60fps jos pelkkää tuhnua tulee silmille 60fps nopeudella.
Jossain kohtaa tosiaan kehittäjiltä unohtui uniikit taiteelliset visuaaliset suunnittelut ja alettiin ajamaan enemmän realismia ja simulaatiota grafiikoissa. Näiden saavuttamiseksi joudutaan turvautumaan sitten feikkifreimi ratkaisuihin jotka pahimmassa tapauksessa kusevat koko visuaalisen ilmeen ja jarruttavat pelikokemusta extra latenssilla ja artifakteilla.

Koskahan tulee sellainen tila että pikselipuristit joutuvat pitelemään entisajan korteistaan kiinni koska tulevaisuuden korteissa ilmastovihreyden puolesta säästetään virtaa generoimalla AI:lla osasta työpöytäpikseleistä?
 
Ilkeämielisesti voisi arvioida, että on laitettu vähän lisää muistia jotta saataisiin perusteltua korkeampi hinta.
Todennäköisesti muistia on lisätty AI-vaatimusten tarpeita varten.
Olisihan sitä muistia voinut latoa lisää ilman, että muistikaistaa lisätään. Ei upouusi nopea gddr7 muisti ole halpaa versus gddr6/6x. 4090 muistikaista about 1TB/s, 5090 about 1.8TB/s.

Arvelen että nopeampi muistikaista mahdollistaa sen, että tensoriytimet ja rt-coret jauhaa shader corejen kanssa yhtä aikaa paremmin. Aikaisemmin yhteistoimintaa rajasi muistin nopeus kun yksiköt odottelee dataa. Muistikaistan mahdollistama nopeutus tuskin realisoituu esim. rasterissa kun rasteriyksiköiden määrä/nopeus on lisääntynyt vähemmän kuin muistikaistan nopeus.
 
Viimeksi muokattu:
Mutta kun maailma ei toimi nuin. Jos joku tekee pelin joka pyörii hyvin ja varsinkin niin että ei käytä edes RT:tä niin se peli on kuollut siinä kohtaa kun screenshotit alkaa leviämään pitkin nettiä ja foorumeilla nauretaan että miten PASKALLE se peli näyttää eikä siinä auta mikään 60fps jos pelkkää tuhnua tulee silmille 60fps nopeudella.

Ihmiset katsoo screenshotteja eikä mitään fps lukemaa kun mietitään mikä peli on parempi.

Ja onhan se nähty että tuo temmpu-setti toiselta nimeltään raster on umpikujassa. Se ei skaalaudu ja parhaimmillaankin näyttää vain "ihan ok" kun vertaa kunnon RT toteutukseen. Kylkeen kun lyödään se fakta että ihmislaji alkaa olemaan umpikujassa myös piirien kehityksen saralla niin nyt pitää keksiä kaikki temput että saadaan kehitystä aikaiseksi.
Jaa en tiiä joku Doom ja eternal on kyllä hienoja ja pyörii aika hiton kepeästi kevyemmälläkin raudalla?
Ei tarvii frame gen eikä RT? Toki varmaan RT tekniikalla siitä saisi hienommankin..
 
Siis joissain ekoissa Nvidian tulevaisuuden ennustus / esittely kuvissa aikoinaan tais lukea tälle sukupolvelle, että tulee 3nm tekniikalla. Jos sillä tekniikalla olisi jo valmistettu niin kuin varmaan jonkun yli vuoden uumoilin, olisi tehoa saanut reilusti enemmän. Nyt ei tullut nodehyppyä ja vasta 2 vuoden kuluttua tulee 3nm kortti. Jos myynnit jää tuhnuks voi Nvidia tehdä nodepäivitetyn 5000 updaten paremmilla tehoilla ensi kevääksi. Ei se kehitys ihan seinään lopu TSMC 2nm node on jo valmistuksessa. Kuulemma 30 000$ / kiekko juuri nyt (jos rahaa löytyy). Kuulemma jopa Apple skippaa tuon 2nm noden juuri nyt koska saannit ja hinta per kiekkko ei oo jees.
 
Siis joissain ekoissa Nvidian tulevaisuuden ennustus / esittely kuvissa aikoinaan tais lukea tälle sukupolvelle, että tulee 3nm tekniikalla. Jos sillä tekniikalla olisi jo valmistettu niin kuin varmaan jonkun yli vuoden uumoilin, olisi tehoa saanut reilusti enemmän. Nyt ei tullut nodehyppyä ja vasta 2 vuoden kuluttua tulee 3nm kortti. Jos myynnit jää tuhnuks voi Nvidia tehdä nodepäivitetyn 5000 updaten paremmilla tehoilla ensi kevääksi. Ei se kehitys ihan seinään lopu 2nm node on jo valmisuksessa. Kuulemma 30 000$ / kiekko juuri nyt (jos rahaa löytyy). Kuulemma jopa Apple skippaa tuon 2nm noden juuri nyt koska saannit ja hinta per kiekkko ei oo jees.
rubin konesaligpu kai tulee 3nm:lla tai ehkä chiplet ja 3nm+xnm piirejä. Voipi olla, että seuraavat peligpu:t samsungin tehtailta: NVIDIA Is Now Rumored To Switch Towards Samsung Foundry For 2nm Process, Ditching TSMC Due To High Costs

Ehkä nvidia tekee källit ja seuraava peligpu samaan tyyliin 2 piiriä yhteen liimattuna kuin konesali blackwell ja applen ultra soc:it. Voi vaikuttaa jollain tapaa valittuun valmistusteknologiaan. esim. suunnittelee yhden 256bit piirin mistä tehdään 6080 ja 2xpiiri yhteen liimattuna 6090.
 
Viimeksi muokattu:
Jossain kohtaa tosiaan kehittäjiltä unohtui uniikit taiteelliset visuaaliset suunnittelut ja alettiin ajamaan enemmän realismia ja simulaatiota grafiikoissa. Näiden saavuttamiseksi joudutaan turvautumaan sitten feikkifreimi ratkaisuihin jotka pahimmassa tapauksessa kusevat koko visuaalisen ilmeen ja jarruttavat pelikokemusta extra latenssilla ja artifakteilla.

Koskahan tulee sellainen tila että pikselipuristit joutuvat pitelemään entisajan korteistaan kiinni koska tulevaisuuden korteissa ilmastovihreyden puolesta säästetään virtaa generoimalla AI:lla osasta työpöytäpikseleistä?

Käytännön kannaltahan sillä ei lopulta ole väliä millä tekniikalla se grafiikka siihen näytölle piirtyy se siitä graafikasta syntyvä kokemus on se tärkein.

Esim
Jos kolmen vuoden päästä generoidaan tosimaailman videokameran tasoista peligrafiikkaa kompleksisella Ai-mallilla vaikka sitten etänä / geforce now tyyliin se voi olla aika hieno kokemus.
 
En usko itsekkään, että ainakaan enää 10v myydään näytönohjaimia vaan jo muutaman vuoden päästä ostetaan omaan lompakkoon sopiva kk maksullinen palvelu jota kautta pelataan. Kuvankäsittelijät ja muut sitten erikseen.

Ohan se nyt ihan huippujuttu jos saat vaikka 20€ hyvää kuvaa suoraan LG telkkariin eikä tarvii miettiä yhtään mitään sopiiko tämä ylihintainen kortti tähän laitteistoon kuten nykyään.
 
Tämän graafin mukaan +27% luokkaa olisi 4090 vs 5090 ilman mitään AI juttuja.

image.png

Ainakin ennen testeissä tuo oli todella prossupullonkaulainen peli. Esim. RTX 3080 ja 3090 välille oli vaikea saada kummempaa eroa.
Varmasti 3D-välimuistilliset prosessorit ovat muuttaneet tilannetta, mutta silti en laskisi mitään suorituskykyeroa tuon pelin varaan, en edes ymmärrä miksi tuo edelleen noissa testeissä mukana roikkuu kun peli on vanha kuin mikä.
 
En usko itsekkään, että ainakaan enää 10v myydään näytönohjaimia vaan jo muutaman vuoden päästä ostetaan omaan lompakkoon sopiva kk maksullinen palvelu jota kautta pelataan. Kuvankäsittelijät ja muut sitten erikseen.

Ohan se nyt ihan huippujuttu jos saat vaikka 20€ hyvää kuvaa suoraan LG telkkariin eikä tarvii miettiä yhtään mitään sopiiko tämä ylihintainen kortti tähän laitteistoon kuten nykyään.

Melkoisia harppauksia tarvitaan teknologiassa jos halutaan 4k kuvaa jollakin 30-50ms viiveellä pilvipalvelun kautta ruudulle ja jonkinlainen päätelaite kuitenkin tarvitaan että kaiken maailman hiiret, näppikset, joikkarit ratit sunmuut himpelit saadaan liitettyä verkon yli sinne pilvikoneelle. Ellei sitten ideana ole, että tietokone/konsoli on kotona, mutta itse grafiikan piirtäminen kierrätetään siellä pilvessä, toki siinäkin tarvitaan aika hurjat yhteydet jos ajatellaan että displayport liitännässä puhutaan kymmenien gigojen siirtonopeuksista eivätkä silti riitä.
 
En kirveelläkään maksa alimman keskiluokan kortista yli 500 euroa, varsinkaan kun vielä Herran Vuonna 2025 siitä löytyy vain 12 gigatavua muistia, voi morjens.

Seuraava kortti on punainen kuin Kiinan kommunistinen kansantasavalta.
Nauratti toi vika lause. Mutta joo, kyllähän tää aika irvokkaaksi tuntuu menevän :/
 
Jaahans eli 679e 5070 lienee oikeasti joku 4070+20-25% eli 4070Super+5-10% - mutta vähän AI-hallusinaatiogeneroimalla saadaan sitten mittari näyttämään että kyllä on = 4090. Kätevästi uudet AI-neuroositkin vielä käytännössä puolittaa muistintarpeen, joten 12gb = uusi 24gb, kätevää! Uskokoon ken tahtoo.

AMD:llä varmaan kynä sauhuten mietitään, miten 9070 XT menisi kaupaksi. 599e Suomihinta, 7900XT rasteri, ei-aivan-ripuli RT ja 16GB muistia niin siinähän vois olla kortti niille, jotka on joku 2070 / 3060 / 5700 XT tanassa odottanut, milloin saa päivittää. Tuo on se maksimi, mitä luulen että AMD:ltä on tulossa. Mitä enemmän tuosta jää, sitä enemmän pitää sit hinnan valua kohti 500, että menee kaupaksi.

Eipä mitään sellaista tullut/tuskin tulee, että tarvisi 7800 XT:n omistajana lähteä ostohousuista pölyjä pyyhkimään. Tonnia ei kehtaa näyttikseen ruveta laittamaan kun viime aikoina ei oo jaksanut pelatakaan kuin OSRS, TFT ja LOL, jotka kaikki pyöris 15v. vanhallakin raudalla. :)
 
Melkoisia harppauksia tarvitaan teknologiassa jos halutaan 4k kuvaa jollakin 30-50ms viiveellä pilvipalvelun kautta ruudulle ja jonkinlainen päätelaite kuitenkin tarvitaan että kaiken maailman hiiret, näppikset, joikkarit ratit sunmuut himpelit saadaan liitettyä verkon yli sinne pilvikoneelle. Ellei sitten ideana ole, että tietokone/konsoli on kotona, mutta itse grafiikan piirtäminen kierrätetään siellä pilvessä, toki siinäkin tarvitaan aika hurjat yhteydet jos ajatellaan että displayport liitännässä puhutaan kymmenien gigojen siirtonopeuksista eivätkä silti riitä.
Oletko kokeillut esim Geforce Now lähiaikoina käyttäen 5g standalone/kuitua? Moni ei varmasti huomaisi että ei kyseessä natiivi pelaamista vieressä olevalla tehokkaalla tietokoneella.

Nuo hiiri, joystick, ratit yms ongelmat on jo selätetty suurimmaksi osaksi, eli kytket ne päätelaitteeseen esim ohut ja hyvän akkukeston omaavaan kannettavaan tai mini pc.

Nykypäivänä pystyy jo esim Shadow tech jopa VR lasien pelejä pelaamaan, tosin Suomeen sitä palvelua ei ole vielä tullut.

Kyseinen Shadow palvelu siis kokonainen tietokone mutta se on toisella puolella maata/toisessa maassa joka netin kautta vie käyttäjän inputin(esim hiiri, näppäimistö, peliohjain, joystick, ratti) koneelle ja striimaa kuvan ja äänen käyttäjälle. Kyseinen palvelu tosin kallis verrattuna vastaavaan itse koottuun koneeseen mutta kyllä varmasti hinnat tippuvat jos kilpailua syntyy.

Itse tosin en usko että erillisten näytönohjaimien myynnin loppuvan vielä kymmenen vuoden päästä kuluttajille mutta varmasti pilvipeluu tulee enemmän korvaamaan sitä ja riskinä pilvipeluussa on että kilpailua ei niillä eri palveluilla olisi ja sitten hinnat karkaavat käsistä.

Tässä ketju jossa voi paremmin keskustella pilvipelaamisesta jos kiinnostaa:

 
Seuraavan vuoden keväälle? Itse laitoin tilauksen heti kun tulivat myyntiin ja sain kortin tarkalleen vuoden päästä siitä.

Jimmsista launch day +2h laukaisun jälkeen (koska olin työreissulta palaamassa vielä), Asus OC TUF 3080 759e ja tuli ~2kk päästä, just pari päivää ennen joulua. Se oli hyvä diili kerrankin, 1500€ tarjosivat kortista keväällä tutut mutta en retkahtanut.
 
Meni mun arvaus siitä, että GB202:ssa olisi nvlink ja tulisi nvlink/nvlink c2c:lla tuplakortti metsään. Tuon "tilalta" tuli ai käyttöön konesaliblackwell+arm pohjainen pikkukone. Myynee kuin häkä. Hinta alkaen 3000$, toimii normi töpseliin kytkettynä. Tuollaisella tekis vaikka lokaali kielimalli+aider avulla älyttömän nopean koodiavustimen ilman että data menee pilveen.

1Pflop fp4 tehoa, 20 arm corea, 128GB yhtenäistä muistia. Noita saa kaksi kytkettyä yhteen jolloin isoimman tuetun mallin koko tuplaantuu

1736261197346.png

 
Oletko kokeillut esim Geforce Now lähiaikoina käyttäen 5g standalone/kuitua? Moni ei varmasti huomaisi että ei kyseessä natiivi pelaamista vieressä olevalla tehokkaalla tietokoneella.

Nuo hiiri, joystick, ratit yms ongelmat on jo selätetty suurimmaksi osaksi, eli kytket ne päätelaitteeseen esim ohut ja hyvän akkukeston omaavaan kannettavaan tai mini pc.

Nykypäivänä pystyy jo esim Shadow tech jopa VR lasien pelejä pelaamaan, tosin Suomeen sitä palvelua ei ole vielä tullut.

Kyseinen Shadow palvelu siis kokonainen tietokone mutta se on toisella puolella maata/toisessa maassa joka netin kautta vie käyttäjän inputin(esim hiiri, näppäimistö, peliohjain, joystick, ratti) koneelle ja striimaa kuvan ja äänen käyttäjälle. Kyseinen palvelu tosin kallis verrattuna vastaavaan itse koottuun koneeseen mutta kyllä varmasti hinnat tippuvat jos kilpailua syntyy.

Itse tosin en usko että erillisten näytönohjaimien myynnin loppuvan vielä kymmenen vuoden päästä kuluttajille mutta varmasti pilvipeluu tulee enemmän korvaamaan sitä ja riskinä pilvipeluussa on että kilpailua ei niillä eri palveluilla olisi ja sitten hinnat karkaavat käsistä.

Tässä ketju jossa voi paremmin keskustella pilvipelaamisesta jos kiinnostaa:

Enpä ole vielä pilvipalvelua Suomessa testannut jossa input lagia ei huomaisi päivänselvästi. Se kuinka iso ongelma se on riippuu sitten pelistä. Ratkaisu olisi ripotella niitä servereitä ympäri maapalloa niin tiheään ettei mitään järkeä, joten aika kauan saa odotella. Toisena on sitten hinta. Jos heittää sen 20€ kuussa itse palveluun ja jonkun 50€ gigaseen nettiin että saa tarpeeksi hyvän laadun vaikka 4K:na pihalle, niin äkkiäpä tuolla hinnalla kustantaa sen kalliimman näyttiksenkin.
 
Oletko kokeillut esim Geforce Now lähiaikoina käyttäen 5g standalone/kuitua? Moni ei varmasti huomaisi että ei kyseessä natiivi pelaamista vieressä olevalla tehokkaalla tietokoneella.

Nuo hiiri, joystick, ratit yms ongelmat on jo selätetty suurimmaksi osaksi, eli kytket ne päätelaitteeseen esim ohut ja hyvän akkukeston omaavaan kannettavaan tai mini pc.

Nykypäivänä pystyy jo esim Shadow tech jopa VR lasien pelejä pelaamaan, tosin Suomeen sitä palvelua ei ole vielä tullut.

Kyseinen Shadow palvelu siis kokonainen tietokone mutta se on toisella puolella maata/toisessa maassa joka netin kautta vie käyttäjän inputin(esim hiiri, näppäimistö, peliohjain, joystick, ratti) koneelle ja striimaa kuvan ja äänen käyttäjälle. Kyseinen palvelu tosin kallis verrattuna vastaavaan itse koottuun koneeseen mutta kyllä varmasti hinnat tippuvat jos kilpailua syntyy.

Itse tosin en usko että erillisten näytönohjaimien myynnin loppuvan vielä kymmenen vuoden päästä kuluttajille mutta varmasti pilvipeluu tulee enemmän korvaamaan sitä ja riskinä pilvipeluussa on että kilpailua ei niillä eri palveluilla olisi ja sitten hinnat karkaavat käsistä.

Tässä ketju jossa voi paremmin keskustella pilvipelaamisesta jos kiinnostaa:

Jos pilvipalvelut ovat ainoa mahdollisuus pelata uusia pelejä jäisi pelit aika monella pelaamatta. Jopa suomi on ihan täynnä paikkoja missä se 5G antaa alle 20 megaa, jopa kaupunkien laidoilla on pahoja katvealueita että ei tarvitse edes lähteä mihkään syrjäseuduille. Tuo varmasti on tulevaisuudessa totta mutta en usko että 10v sisällä.
 
Enpä ole vielä pilvipalvelua Suomessa testannut jossa input lagia ei huomaisi päivänselvästi. Se kuinka iso ongelma se on riippuu sitten pelistä. Ratkaisu olisi ripotella niitä servereitä ympäri maapalloa niin tiheään ettei mitään järkeä, joten aika kauan saa odotella. Toisena on sitten hinta. Jos heittää sen 20€ kuussa itse palveluun ja jonkun 50€ gigaseen nettiin että saa tarpeeksi hyvän laadun vaikka 4K:na pihalle, niin äkkiäpä tuolla hinnalla kustantaa sen kalliimman näyttiksenkin.
Ei kyllä gigatavun nopeudella olevaa nettiyhteyttä tarvita ja kyllähän siitä vaikkapa 100 megan kuitu/5g standalone on hyötyä myös muussa käytössä.

Tuo input lag homma on tosi käyttäjäsidonnainen, jotkut kokee jopa omalta koneelta langattomasti VR käytössä input lagia haitallisen paljon, toiset vetää Shadown kanssa ilman isompia ongelmia.

Juu siitä olen samaa mieltä että ei kannata vaikkapa koko Suomea tunkea täyteen pilvi pc servereita jotta lapin perukoillakin voi pelata 4k 120hz hyvin, mutta eiköhän suurempien kaupunkien lähellä asuvat(joista asuu jo suurinosa Suomalaisista) saa joitakin pilvipeli servuja pystyyn ajan kanssa, tosin se dystopia että ei olisi kilpailua kunnolla ja hinnat pomppaavat on todellinen uhka jollain aikavälillä.

Kyllä varmasti niitä erillisiä näytönohjaimia on pelaajille vielä ensi vuosikymmenen loppuun asti ainakin, mutta myynnit voivat siirtyä enemmänkin pilvipeli servuihin.

En tiedä onko n.20 euroa kuussa kovinkaan tuottoisaa bisnestä Nvidialle, jos kohta päivittävät sen Geforce Now Rtx 5080 kanssa.

Eli jos nettiä käyttää muuhunkin niin aika vähän maksaa tällä hetkellä puoli vuotta ultimate 109 euroa(eli keskimäärin alle 20 euroa kuussa, tosin rajoitettu peliaikaa 100 tuntiin kuussa josta ylimenevä maksaa hunajaa(ultimate 15 tuntia 8 euroa)) Geforce Now ja palvelu päivittyy parin vuoden välein uusimpaan 1500+ euron näytönohjaimeen ei kyllä minusta kuulosta yhtään hassummalta, toki Geforce Now ei toimi modit ja kaikki pelit ei toimi, kun taas Shadow toimii 99 prosenttia peleistä(jos ei ole anticheat joka ei tue pilvipc) tosin se on sitten huomattavasti kalliimpi, huonommalla tekniikalla ja ei tosiaan saatavilla Suomessa vielä.
 
Jos kolmen vuoden päästä generoidaan tosimaailman videokameran tasoista peligrafiikkaa kompleksisella Ai-mallilla vaikka sitten etänä / geforce now tyyliin se voi olla aika hieno kokemus.
Jos kuluttajat jatkaa olemaan idiootteja joita viedään kuin pässiä narusta niin tuollainen paskainen skenaario hyvinkin mahdollista. Todellisuudessa ei kuitenkaan tule tapahtumaan, pilvipöhisijät ovat konkurssissa ennenkuin saavat tuollaista roskaa läpi.
 
Nyt kun noista feikkifreimeistä ollaan niin huolissaan, niin pakko kysyä. Jos tällä hetkellä pelaan ilman frame geniä tyytyväisenä 4K60hz ja siihen laitetaan frame gen päälle muuttamaan se 4K240hz, tuntuuko se pelatessa kuitenkin samalta kuin 60hz vai tuoko frame gen jotain ylimääräistä input lagia mukaan kun sen laittaa päälle?
 
Nahkatakkimiehen koijaukset jatkuu taas.
Muistaakohan jengi mitä 4080 julkaisussa luvattiin silloin että olisi 2-4x nopeampi kuin 3080 TI ja paniikki alkoi korttimyynneissä :D

Epäilen suuresti että 5070 lyö 4090 mallin muussakuin tuossa dlss4 vs dlss3 tuessa. Mutta eipä kaikki noita dlss edes kaipaa fps peleihin kun blurraa / ghostaa ruutu. Hattua nostan Jenssenille jos on korjattu blurrit ja ghostit ja oikeasti on 4090 tasoinen kortti tuolla muistimäärällä ;)

lol34080.png
 
Nyt kun noista feikkifreimeistä ollaan niin huolissaan, niin pakko kysyä. Jos tällä hetkellä pelaan ilman frame geniä tyytyväisenä 4K60hz ja siihen laitetaan frame gen päälle muuttamaan se 4K240hz, tuntuuko se pelatessa kuitenkin samalta kuin 60hz vai tuoko frame gen jotain ylimääräistä input lagia mukaan kun sen laittaa päälle?
Lisää. Toki nyt julkistettiin myös tuohon jotain uusia reflex ominaisuuksia, mutta nähtäväksi jää miten toimii. Alla pieni summaus DLSS3 FG:stä.

edit: näköjään timestampit ei toimi, 30:30 ->
 
Nyt kun noista feikkifreimeistä ollaan niin huolissaan, niin pakko kysyä. Jos tällä hetkellä pelaan ilman frame geniä tyytyväisenä 4K60hz ja siihen laitetaan frame gen päälle muuttamaan se 4K240hz, tuntuuko se pelatessa kuitenkin samalta kuin 60hz vai tuoko frame gen jotain ylimääräistä input lagia mukaan kun sen laittaa päälle?
Olettaisin että kuten Lossless Scaling ohjelman kanssa niin mitä enemmän feikki frameja sitä enemmän input lagia(2x vs 3x tai 4x), lisäksi nämä frame generation tekniikat vievät hieman suorituskykyä eli jos aikaisemmin samoilla asetuksilla saat 60 fps ei se ole enää 60 fps mistä se generoi sinne ylöspäin vaan pitäisi hiukan asetuksia laskea jotta saat sen 60 fps pohjana josta se generoi.

Lisäksi jos näyttösi vain 4k60hz et hyödy siitä koska näyttö näyttää vain 60hz, sitten jos vaikkapa 4k 120/144/240hz niin sitten sen parantuneen sulavuuden huomaa.

Nvidia Frame generaatio ainakin dlss 3.x kanssa ollut enemmän fps hittiä ottava kuin Amd Fsr 3.x. joka antaa myös Nvidia näytönohjaimella enemmän fps.

Jos pelaa ohjaimella niin sen input lagin lisääntymisen ei niin huomaa kuin jos pelaa hiirellä ja näppäimistöllä.
 
Digital foundryltä jotain hands onia tullut.


Joku noheva voisi summaroida vähän tuota kun ei ehdi katsoa. Gemini antoi pikaisesti latenssista seuraavaa summarya.

Here's a breakdown:

  • Latency with 2x Frame Gen: 50.9 milliseconds on average.
  • Latency with 3x Frame Gen: 55.5 milliseconds on average.
  • Latency with 4x Frame Gen: 57.3 milliseconds on average.
The video states that the majority of the extra latency still comes from buffering that extra frame, but adding further intermediate frames comes with a relatively minimal increase in latency. This means that the gameplay is still responsive in Cyberpunk 2077, and unless you're super attuned to input lag, you're unlikely to tell the difference between 4X DLSS frame generation and the existing 2x option.
 

Statistiikka

Viestiketjuista
263 928
Viestejä
4 570 442
Jäsenet
75 332
Uusin jäsen
Wildhoney

Hinta.fi

Back
Ylös Bottom