NVIDIA-spekulaatioketju (Lovelace ja tulevat sukupolvet)

Aika säälittävältä kyllä vaikuttaa toi
RTX 5070 paperilla. Eihän se ole 9.46% tehokkaampi kuin edeltäjänsä! Tämä ei tosin yllätä, sillä aikalailla yhtä suuri "hyppy" oli natiivi suoritus kyvyssä RTX 3070 ja RTX 4070 välillä.

Toisin oli GTX sarjan aikaan. Tässä lyhyt vertailu siitä miten paljon
GTX 1070 toi parannusta GTX 970 nähden:

CUDA-ytimet: +15.4%

Peruskellotaajuus: +43.4%

Boost-kellotaajuus: +42.9%

Tekstuurintäyttönopeus: +33.4%

Laskentateho (FP32): +41.3%

TMUs: +15.4% sellaiset 31,6%

Keskimäärin tehot nousivat siis 33,3%

Kyllähän RTX 3070 ja RTX 4070:n välilläkin on sellaiset 20~30% SILLOIN, jos käytetään uusinta DLLS tekniikkaa mutta esimerkiksi ytimien määrissä ja laskentehossa/kellotaajuuksissa jne. ero on marginaalinen 9,46%

Pointtini on siinä että, että Nvidia pystyisi ihan saletisti parempaankin, jos vain haluaisi...

Pystyisi, tekemällä isomman ja valmistuskustannuksiltaan kalliimman piirin.

Näyttispiirit ovat jo nyt todella monta kertaa isompia ja kalliimpia valmistaa kuin
1) Pelikoneen CPUt koskaan
2) näyttikset joskus >10 vuotta sitten

Ja "ilmaiset lounaat" uusien valmistustekniikoiden kehityksestä ovat käytännössä loppuneet,
SRAMin(välimuistien) hinta vaan nousee uusien valmistustekniikoiden myötä ja logiikkaportit eivät merkittävästi halpene, lähinnä kellotaajuuksissa TAI virrankulutuksessa (valitse toinen, ei juurikaan molempia yhtä aikaa) saadaan vielä parannusta uusista valmistustekniikoista.

Ja kun kyse on uudesta arkkitehtuurista, ei noista laskentayksikköluvuista voi suoraan päätellä suorituskykyä. Jos edellinen arkkitehtuuri stallaa keskimäärin vaikka 25% kellojaksoista ja uusi arkkitehtuuri stallaa keskimäärin 10% kellojaksoista, uusi on n. 20% nopeampi vaikka kaikki "teoreettiset luvut" laskentayksiköistä ja kellotaajuuksista jne olisi samat.

Vähintäänkin laittamaan sitä VRAM:a enemmän kuin 12Gt, jos ei muuta.

Miettikää millainen peto RTX 5070 olisi, jos siinä olisi verrattain yhtä suuri prosentuaalinen parannus natiivi suorituskyvyssä kuin
GTX 970 ja GTX 1070 välillä.

Harmi vain, että tuollaiset ajat ovat takana päin..

Ne ovat takanapäin, koska Mooren laki ei ole luonnonlaki joka toimii ikuisesti, vaan valmistustekniikoiden kehitys on hidastunut dramaattisesti.

Aiemmin laskentayksiköitä pystyttiin joka sukupolvessa lisäämään selvästi, koska logiikkaporttien halpeneminen uusien valmistustekniikoiden myötä mahdollisti sen tekemisen valmistuskustannuksien nousematta merkittävästi. Nyt logiikkaporttien hinta laskee äärimmäisen vähän uusilla valmistustekniikoilla ja välimuistit vaan kallistuu.

Eikä tämä tule tästä paremmaksi muuttumaan niin kauan kuin Nvidia fanipojat ostavat aina kiltisti sen uuden näytönohjaimen heti julkaisussa törkeään ylihintaan. Itse asiassa jo nyt on huomattavissa, että RTX 50xx julkaisu on lähellä, kun käytettyjä RTX 40xx kortteja on alkanut tupsahteleen myyntiin enenevissä määrin...

Se, mitä sinä kutsut "paremmaksi" ei ehkä ole parempi vaan enemmänkin huonompi.

Nykynäyttikset on älyttömän isoja ja kalliita piirejä valmistaa. Paljon pienemmätkin piirit riittäisivät peleistä nauttimiseen.

Kuluttajanäyttisten älytön hinta ei johdu pääasiassa nVidian rahastuksesta vaan enemmän niiden piirien todella suurista valmistuskustannuksista.

Ihmiset eivat niinkään osta näyttiksiä törkeään ylihintaan vaan ihmiset vaan ostavat älyttömän tehokkaita näyttiksiä pelikäyttöön.
 
Viimeksi muokattu:
Pystyisi, tekemällä isomman ja valmistuskustannuksiltaan kalliimman piirin.

Näyttispiirit on jo nyt todella monta kertaa isompia ja kalliimpia valmistaa kuin
1) Pelikoneen CPUt koskaan
2) näyttikset joskus >10 vuotta sitten

Ja "ilmaiset lounaat" uusien valmistustekniikoiden kehityksestä ovat käytännössä loppuneet,
SRAMin(välimuistien) hinta vaan nousee uusien valmistustekniikoiden myötä ja logiikkaportit eivät merkittävästi halpene, lähinnä kellotaajuuksissa TAI virrankulutuksessa (valitse toinen, ei juurikaan molempia yhtä aikaa) saadaan vielä parannusta uusista valmistustekniikoista.

Ja kun kyse on uudesta arkkitehtuurista, ei noista laskentayksikköluvuista voi suoraan päätellä suorituskykyä. Jos edellinen arkkitehtuuri stallaa keskimäärin vaikka 25% kellojaksoista ja uusi arkkitehtuuri stallaa keskimäärin 10% kellojaksoista, uusi on n. 20% nopeampi vaikka kaikki "teoreettiset luvut" laskentayksiköistä ja kellotaajuuksista jne olisi samat.



Ne ovat takanapäin, koska Mooren laki ei ole luonnonlaki joka toimii ikuisesti, vaan valmistustekniikoiden kehitys on hidastunut dramaattisesti.

Aiemmin laskentayksiköitä pystyttiin joka sukupolvessa lisäämään selvästi, koska logiikkaporttien halpeneminen uusien valmistustekniikoiden myötä mahdollisti sen tekemisen valmistuskustannuksien nousematta merkittävästi. Nyt logiikkaporttien hinta laskee äärimmäisen vähän uusilla valmistustekniikoilla ja välimuistit vaan kallistuu.



Se, mitä sinä kutsut "paremmaksi" ei ole parempi vaan huonompi.

Nykynäyttikset on älyttömän isoja ja kalliita piirejä valmistaa. Paljon pienemmätkin piirit riittäisivät peleistä nauttimiseen.

Kuluttajanäyttisten älytön hinta ei johdu pääasiassa nVidian rahastuksesta vaan enemmän niiden piirien todella suurista valmistuskustannuksista.

Ihmiset eivat niinkään osta näyttiksiä törkeään ylihintaan vaan ihmiset vaan ostavat älyttömän tehokkaita näyttiksiä pelikäyttöön.
Iso syy sille, miksi ihmiset ostavat kalliita näyttiksiä on, että pelinkehittäjät ovat muutamaa poikkeusta lukuunottamatta käytännössä lopettaneet peligrafiikan renderöintikustannusten optimoinnin. Yhä useampi kehittäjä on UE-riippuvainen ja UE:lla on kenen tahansa kehittäjän helppo luoda visuaalisesti keskiverto peli joka juuri ja juuri pyörii uusimmilla konsoleilla 1080p 60 fps tai 4K 30 fps. Koita siinä sitten saada tämän 30 fps:lle optimoidun pelin PC-portti pyörimään 4K:llä 100 fps
 
Iso syy sille, miksi ihmiset ostavat kalliita näyttiksiä on, että pelinkehittäjät ovat muutamaa poikkeusta lukuunottamatta käytännössä lopettaneet peligrafiikan renderöintikustannusten optimoinnin. Yhä useampi kehittäjä on UE-riippuvainen ja UE:lla on kenen tahansa kehittäjän helppo luoda visuaalisesti keskiverto peli joka juuri ja juuri pyörii uusimmilla konsoleilla 1080p 60 fps tai 4K 30 fps. Koita siinä sitten saada tämän 30 fps:lle optimoidun pelin PC-portti pyörimään 4K:llä 100 fps
Toisaalta rima on myös noussut eksponentiaalisesti mikä on "hyvän näköinen" peli. Jotta peli nykyään on edes sen "keskiverron" näköinen niin pitää olla rajaton piirtoetäisyys ja reaaliaikainen dynaaminen valaistus koko pelimaailmaan RT-GI:llä. Tuosta jos poiketaan niin peli "näyttää paskalle" mutta jos tuo saavutetaan niin "peliä ei ole optimoitu ollenkaan".

Tekniikka ja vaatimukset kehittyy. Väitän että nykyään renderöintikustannusten optimointi on kovempaa kuin koskaan. Tekniikat millä saavutetaan silminnähden parempia grafiikoita vain maksaa sen 1000x enemmän mitä entisaikojen spriten pyörittelyt.
 
jos on 4090 niin eikö sillon lähinnä ole cpu pullonkaulana, niin ei tuo luulis hirveästi parantavan suorituskykyä. - toki moni varmaan päivittää kun pakko saada uusin ja paras.
Kyllä 4090 on pullonkaula lähes jokaisessa uudessa pelissä jopa DLSS balanced asetuksella fg päällä. Tämä siis 4k:lla ja säteenseurannalla.
 
Toisaalta rima on myös noussut eksponentiaalisesti mikä on "hyvän näköinen" peli. Jotta peli nykyään on edes sen "keskiverron" näköinen niin pitää olla rajaton piirtoetäisyys ja reaaliaikainen dynaaminen valaistus koko pelimaailmaan RT-GI:llä. Tuosta jos poiketaan niin peli "näyttää paskalle" mutta jos tuo saavutetaan niin "peliä ei ole optimoitu ollenkaan".

Nyt on ehkä vähän liioittelua, mutta onhan tässä paljon perää.


Mutta joo, olen tässä tänä vuonna pelaillut fallout3sta ja sen moottorilla tehtyä fallout: new vegasia, pelit tehty n. 15 vuotta sitten.

Niissä oli kenttäsuunnittelussa kätevä hierarkia millä saatiin pudotettua sitä, paljonko kamaa tarvii kerralla olla piirrettävissä:

Kun liikuttiin ulkona autiomaassa, tarjottiin valtava avoin maailma, taloja oli harvakseltaan, overdrawia ei juuri ollut, ja piirrettävät asiat oli lähinnä maastonmuotoja ja pensaita (ja välillä sitä talon ulkoseinää). Mutta näitä sitten näkyi hyvinkin kaukaa. Kun mentiin taloon sisälle, ladattiin uusi kenttä talon sisustaa varten. Siellä sitten overdrawia sisäseinistä sekä piirrettäviä esineitä, huonekaluja yms. oli paljon tiheämmässä, mutta kenttä paljon pienempi joten tähän oli varaa. Ja isommat talotkin jaettu vielä moneen osaan, portaiden ylä- tai alapäässä usein ovi joka latasi uuden kentän.

Kaupungeissa oli sitten vielä yksi hierarkiataso tästä välistä, oltiin ulkona mutta näkymä avoimeen autiomaahan oli blokattu jollain muurilla jolloin mitään kaukana olevaa ei graffamoottorille ollut olemassa, tarvi piirtää vain talojen ulkoseiniä ja overdrawia oli jonkin verran peräkkäin olevista taloista.

Tämä oikeasti toimi hyvin käytännössä, ainoat haitat oli se, että vihollisia ei esim. voinut ampua kenttiä erottavien ovien läpi vaan käytännössä siitä ovesta teleportattiin sen toiselle puolelle, ja sitten joku kaupungin muurin päälle nouseminen ja sieltä ulos autiomaahan tähyileminen ja ampuminen ei esim. ollut mahdollista, koska niille muureille ei voinut kunnolla nousta kun niistä olisi pitänyt nähdä sekä kaupunkiin sisään että ulos autiomaahan (toki muurille saattoi päästä johonkin yhteen paikkaan josta ei nähnyt sisälle kaupunkiin)

Mutta joo, nykyään tosiaan tällaista ei varmaan haluta tehdä koska tästä "teleporttailusta" tulisi niin paljon valitusta sen epäluonnollisuudesta vaikka siillä saatiin graffaengineä paljon kevyemmäksi.


Itse ehkä näkisin, että ongelmana on se, että tällainen fallout3-tyylinen kenttäsuunnittelu on työläämpää pelin tekijöille, ja lisäksi pelaajat vaativat "saumatonta elämystä" jossa näitä epäjatkuvuuskohtia ei näy.

Koodarit edelleen osaavat tehdä sitä itse graffamoottorin matalan tason optimointia, mutta kun sitä kenttäsuunnittelua yms. ei haluta tehdä siten että se mahdollistaa sellaiset korkean tason optimoinnit joilla itse graffamoottorin työ käy paljon helpommaksi
(joko, jotta pelaajalle tarjotaan se saumaton suuren pelimaailman elämys(hyvä perustelu pelin laadun kannalta), tai koska halutaan päästä helpolla kenttäsuunnittelussa(hyvä perustelu pelin kehityskustannusten kannalta) tai sitten vaikka varsinainen vaiva ei olisi suuri, ajatellaan että suorituskvyn kasvu ja matalan tason optimoinnit ratkoo kaikki suorituskykyongelmat(ei hyvä perustelu))

Ja säteenjäljitys oikeastaan voisi mahdollistaa enemmän sitä, että kenttäsuunnittelusta voisi jättää suorituskyvyn takia siellä olevia rajoitteita ja kikkailuita pois ja tarjota "saumatonta elämystä" ilman että suorituskykypudotus tästä on huomattava (koska on todella helppo laittaa isoja asioita maailmassa eri haaroihin BVH-puussa ja ottaa siitä vaan joku <10% hidastus, ja muutenkin säteenjäljityksessä kolmiomäärän kasvattaminen on halvempaa kuin rasteroinnissa(pikselimäärän kasvattaminen siinä sen sijaan on kallista)), mutta juuri nyt eletään sitä siirtymäkautta rasterisoinnin ja säteenjäljityksen välissä että kenttäsuunnittelussa pitää ottaa huomioon molemmat.

Joten alkaa ehkä näkyä sitä, että jotkut pelit suunnitellaan jo siten että niistä kenttäsuunnittelusta yms. vähennetään niitä rasteroinnin takia olevia rajoitteita ja kikkailuita, mutta ne pelit kuitenkin edelleen renderöidään pääosin rasteroimalla (koska säteenjäljitystehoa ei ole tarpeeksi että kaikkea rendausta voisi hoitaa säteenjäljityksellä), jolloin seurauksena on joko että se rasterointikin on hitaampaa tai sillä rasteroinnilla ei saada yhtä kaunista jälkeä kuin rasteroinnilla ennen saatiin kun kenttäsuunnittelussa oli mukana kaikkia light mappejä jne rasteroinnin valaistuksen kludgettamiseen.

Tekniikka ja vaatimukset kehittyy. Väitän että nykyään renderöintikustannusten optimointi on kovempaa kuin koskaan. Tekniikat millä saavutetaan silminnähden parempia grafiikoita vain maksaa sen 1000x enemmän mitä entisaikojen spriten pyörittelyt.

Lucasarts siirtyi pois spritejen pyörittelystä pääasiallisena graffanpiirtomuotona vuonna 1993 kun julkaisi X-wing-pelin, joka piirsi grafiikan kolmioita rasteroimalla (sitä edeltävässä Lucasartsin lentosmulaattorissa Secret Weapons of Luftwaffessa(1991) oli vielä kaikki lentokoneet piirretty spriteinä eikä kolmioita rasterisoimalla.

Ja nykynäyttiksissä meillä on luokkaa miljoonia kertoja enemmän laskentatehoa kuin niissä CPU:issa (80286, 80386) millä sitä secret weapons of luftwaffea aikoinaan pelattiin, joten 1000x suurempi laskentamäärä ei ole ongelma.
 
Viimeksi muokattu:
Ja nykynäyttiksissä meillä on luokkaa miljoonia kertoja enemmän laskentatehoa kuin niissä CPU:issa (80286, 80386) millä sitä secret weapons of luftwaffea aikoinaan pelattiin, joten 1000x suurempi laskentamäärä ei ole ongelma.
Ehkä arvioin väärin kuinka paljon path-tracing 4k resolla on rankempaa mitä aikoinaan 320x200 resolla spriten pyöräyttäminen akselinsa ympäri.

Olisiko parempi arvio kymmeniä miljardeja kertoja raskaampaa? Vaikea sanoa.
 
Onhan noita muitakin käyttötapauksia kuin pelit. Vaikka pelit on halpa harrastus high end laitteistollakin versus vaikka moottoripyörä/kelkka+bensat tai paljonko esim. 5090:en odotettuna elinaikana moni kaataa rahaa alkoholiin ja baareihin. En jaksa paheksua sitä jos joku sijoittaa (laillisiin) harrastuksiin tai harrastaa halvemmalla konsolin kanssa.

Mulle 5090:en myy davinci resolven neural enginen tarjoamat palvelut ja topaz video ai. 8k videoiden loppurenderöinti vr-käyttöön ei ole kärsimättömän hommaa. Lokaalit neuroverkot kiinnostaa myös, mutta niihin taitaa olla liian vähän muistia yhdessä 5090:ssa. Macbook pro:lla leikkinyt uunituoreen llama3.3:70b:n kanssa ja se tuntuu imaisevan noin 46GB muistia.
 
  • Tykkää
Reactions: GPO
Kyllä nuo 5090 on mitoitettu hinnaltaankan niin että menevät enemmän työkäyttöön/harrastekäyttöön AI miehille, ja vähemmän pelikäyttöön.
Tuntuu vieläkin, että toi 4090 oli nappiostos ja pysyy 5000 sarjan yli, vaikka maksoinkin itseni kipeäksi.
Todennäköistä, että tulevaisuudessa en tule enää ostamaan noita huippumalleja, vaan pakko tyytyä alempiin, ellei nyt lottovoittoa tai hurjia tienestinlisäyksiä ole tulossa.

Omallani olen tehnyt AI harrastuksia satoja tunteja jo, vaikka alkuinnostus hiipuikin jo, niin maailmalla on iso juttu ja AI työkalut paranevat, toki vuokrattavia palveluitakin on, mutta maksavat ja osassa on toki sensuurit. AI-videoiden teko ei vaan vielä lähtenyt, kyllä sitäkin varmaan tulee kokeiltua, mutta ei siihen riitä edes 4090.

Pistän tähän linkin, jonka linkkasin jo toiseen threadiin, mutta vaikka aihe mitä on niin video itsessään omasta mielestä hauska ja hyvin tehty AI:lla. Redditistä löytyy kans paljon esim cyberpunk aiheisia, tai hyvin ylivärikkäitä tanssivideoita tms marvel tyyppisiä juttuja.
 
AI-videoiden teko ei vaan vielä lähtenyt, kyllä sitäkin varmaan tulee kokeiltua, mutta ei siihen riitä edes 4090.
Kyllä 4090 riittää ihan kohtuullisesti Mochi 1 ja HunyuanVideo malleille jotka on edistyneimmät tekoälyvideomallit mitä on avoimeen jakeluun laitettu - ihan tässä loppuvuodesta julkaistu molemmat. Tuo Tencentin Hunyuan ilmeisesti toimii 12 gigasella RTX 3060:kin kunhan resoa laskee ja jaksaa kärsivällisesti odotella.

Adan natiivi 8-bittinen inferenssi kantaa aika hyvin tällä hetkellä kuva- ja videomallien kanssa, kun tuosta nyt viimeaikoina ruvettu ottamaan ilo irti. Onhan se 5090 varmaan ihan kivasti nopeempi, mutta kun muistia vain 33% lisää niin ei ole kiirus päivittämään.
 

Uusimmat viestit

Statistiikka

Viestiketjuista
261 263
Viestejä
4 533 559
Jäsenet
74 777
Uusin jäsen
TL123

Hinta.fi

Back
Ylös Bottom