NVIDIA-spekulaatioketju (Lovelace ja tulevat sukupolvet)

Aika säälittävältä kyllä vaikuttaa toi
RTX 5070 paperilla. Eihän se ole 9.46% tehokkaampi kuin edeltäjänsä! Tämä ei tosin yllätä, sillä aikalailla yhtä suuri "hyppy" oli natiivi suoritus kyvyssä RTX 3070 ja RTX 4070 välillä.

Toisin oli GTX sarjan aikaan. Tässä lyhyt vertailu siitä miten paljon
GTX 1070 toi parannusta GTX 970 nähden:

CUDA-ytimet: +15.4%

Peruskellotaajuus: +43.4%

Boost-kellotaajuus: +42.9%

Tekstuurintäyttönopeus: +33.4%

Laskentateho (FP32): +41.3%

TMUs: +15.4% sellaiset 31,6%

Keskimäärin tehot nousivat siis 33,3%

Kyllähän RTX 3070 ja RTX 4070:n välilläkin on sellaiset 20~30% SILLOIN, jos käytetään uusinta DLLS tekniikkaa mutta esimerkiksi ytimien määrissä ja laskentehossa/kellotaajuuksissa jne. ero on marginaalinen 9,46%

Pointtini on siinä että, että Nvidia pystyisi ihan saletisti parempaankin, jos vain haluaisi...

Pystyisi, tekemällä isomman ja valmistuskustannuksiltaan kalliimman piirin.

Näyttispiirit ovat jo nyt todella monta kertaa isompia ja kalliimpia valmistaa kuin
1) Pelikoneen CPUt koskaan
2) näyttikset joskus >10 vuotta sitten

Ja "ilmaiset lounaat" uusien valmistustekniikoiden kehityksestä ovat käytännössä loppuneet,
SRAMin(välimuistien) hinta vaan nousee uusien valmistustekniikoiden myötä ja logiikkaportit eivät merkittävästi halpene, lähinnä kellotaajuuksissa TAI virrankulutuksessa (valitse toinen, ei juurikaan molempia yhtä aikaa) saadaan vielä parannusta uusista valmistustekniikoista.

Ja kun kyse on uudesta arkkitehtuurista, ei noista laskentayksikköluvuista voi suoraan päätellä suorituskykyä. Jos edellinen arkkitehtuuri stallaa keskimäärin vaikka 25% kellojaksoista ja uusi arkkitehtuuri stallaa keskimäärin 10% kellojaksoista, uusi on n. 20% nopeampi vaikka kaikki "teoreettiset luvut" laskentayksiköistä ja kellotaajuuksista jne olisi samat.

Vähintäänkin laittamaan sitä VRAM:a enemmän kuin 12Gt, jos ei muuta.

Miettikää millainen peto RTX 5070 olisi, jos siinä olisi verrattain yhtä suuri prosentuaalinen parannus natiivi suorituskyvyssä kuin
GTX 970 ja GTX 1070 välillä.

Harmi vain, että tuollaiset ajat ovat takana päin..

Ne ovat takanapäin, koska Mooren laki ei ole luonnonlaki joka toimii ikuisesti, vaan valmistustekniikoiden kehitys on hidastunut dramaattisesti.

Aiemmin laskentayksiköitä pystyttiin joka sukupolvessa lisäämään selvästi, koska logiikkaporttien halpeneminen uusien valmistustekniikoiden myötä mahdollisti sen tekemisen valmistuskustannuksien nousematta merkittävästi. Nyt logiikkaporttien hinta laskee äärimmäisen vähän uusilla valmistustekniikoilla ja välimuistit vaan kallistuu.

Eikä tämä tule tästä paremmaksi muuttumaan niin kauan kuin Nvidia fanipojat ostavat aina kiltisti sen uuden näytönohjaimen heti julkaisussa törkeään ylihintaan. Itse asiassa jo nyt on huomattavissa, että RTX 50xx julkaisu on lähellä, kun käytettyjä RTX 40xx kortteja on alkanut tupsahteleen myyntiin enenevissä määrin...

Se, mitä sinä kutsut "paremmaksi" ei ehkä ole parempi vaan enemmänkin huonompi.

Nykynäyttikset on älyttömän isoja ja kalliita piirejä valmistaa. Paljon pienemmätkin piirit riittäisivät peleistä nauttimiseen.

Kuluttajanäyttisten älytön hinta ei johdu pääasiassa nVidian rahastuksesta vaan enemmän niiden piirien todella suurista valmistuskustannuksista.

Ihmiset eivat niinkään osta näyttiksiä törkeään ylihintaan vaan ihmiset vaan ostavat älyttömän tehokkaita näyttiksiä pelikäyttöön.
 
Viimeksi muokattu:
Pystyisi, tekemällä isomman ja valmistuskustannuksiltaan kalliimman piirin.

Näyttispiirit on jo nyt todella monta kertaa isompia ja kalliimpia valmistaa kuin
1) Pelikoneen CPUt koskaan
2) näyttikset joskus >10 vuotta sitten

Ja "ilmaiset lounaat" uusien valmistustekniikoiden kehityksestä ovat käytännössä loppuneet,
SRAMin(välimuistien) hinta vaan nousee uusien valmistustekniikoiden myötä ja logiikkaportit eivät merkittävästi halpene, lähinnä kellotaajuuksissa TAI virrankulutuksessa (valitse toinen, ei juurikaan molempia yhtä aikaa) saadaan vielä parannusta uusista valmistustekniikoista.

Ja kun kyse on uudesta arkkitehtuurista, ei noista laskentayksikköluvuista voi suoraan päätellä suorituskykyä. Jos edellinen arkkitehtuuri stallaa keskimäärin vaikka 25% kellojaksoista ja uusi arkkitehtuuri stallaa keskimäärin 10% kellojaksoista, uusi on n. 20% nopeampi vaikka kaikki "teoreettiset luvut" laskentayksiköistä ja kellotaajuuksista jne olisi samat.



Ne ovat takanapäin, koska Mooren laki ei ole luonnonlaki joka toimii ikuisesti, vaan valmistustekniikoiden kehitys on hidastunut dramaattisesti.

Aiemmin laskentayksiköitä pystyttiin joka sukupolvessa lisäämään selvästi, koska logiikkaporttien halpeneminen uusien valmistustekniikoiden myötä mahdollisti sen tekemisen valmistuskustannuksien nousematta merkittävästi. Nyt logiikkaporttien hinta laskee äärimmäisen vähän uusilla valmistustekniikoilla ja välimuistit vaan kallistuu.



Se, mitä sinä kutsut "paremmaksi" ei ole parempi vaan huonompi.

Nykynäyttikset on älyttömän isoja ja kalliita piirejä valmistaa. Paljon pienemmätkin piirit riittäisivät peleistä nauttimiseen.

Kuluttajanäyttisten älytön hinta ei johdu pääasiassa nVidian rahastuksesta vaan enemmän niiden piirien todella suurista valmistuskustannuksista.

Ihmiset eivat niinkään osta näyttiksiä törkeään ylihintaan vaan ihmiset vaan ostavat älyttömän tehokkaita näyttiksiä pelikäyttöön.
Iso syy sille, miksi ihmiset ostavat kalliita näyttiksiä on, että pelinkehittäjät ovat muutamaa poikkeusta lukuunottamatta käytännössä lopettaneet peligrafiikan renderöintikustannusten optimoinnin. Yhä useampi kehittäjä on UE-riippuvainen ja UE:lla on kenen tahansa kehittäjän helppo luoda visuaalisesti keskiverto peli joka juuri ja juuri pyörii uusimmilla konsoleilla 1080p 60 fps tai 4K 30 fps. Koita siinä sitten saada tämän 30 fps:lle optimoidun pelin PC-portti pyörimään 4K:llä 100 fps
 
Iso syy sille, miksi ihmiset ostavat kalliita näyttiksiä on, että pelinkehittäjät ovat muutamaa poikkeusta lukuunottamatta käytännössä lopettaneet peligrafiikan renderöintikustannusten optimoinnin. Yhä useampi kehittäjä on UE-riippuvainen ja UE:lla on kenen tahansa kehittäjän helppo luoda visuaalisesti keskiverto peli joka juuri ja juuri pyörii uusimmilla konsoleilla 1080p 60 fps tai 4K 30 fps. Koita siinä sitten saada tämän 30 fps:lle optimoidun pelin PC-portti pyörimään 4K:llä 100 fps
Toisaalta rima on myös noussut eksponentiaalisesti mikä on "hyvän näköinen" peli. Jotta peli nykyään on edes sen "keskiverron" näköinen niin pitää olla rajaton piirtoetäisyys ja reaaliaikainen dynaaminen valaistus koko pelimaailmaan RT-GI:llä. Tuosta jos poiketaan niin peli "näyttää paskalle" mutta jos tuo saavutetaan niin "peliä ei ole optimoitu ollenkaan".

Tekniikka ja vaatimukset kehittyy. Väitän että nykyään renderöintikustannusten optimointi on kovempaa kuin koskaan. Tekniikat millä saavutetaan silminnähden parempia grafiikoita vain maksaa sen 1000x enemmän mitä entisaikojen spriten pyörittelyt.
 
jos on 4090 niin eikö sillon lähinnä ole cpu pullonkaulana, niin ei tuo luulis hirveästi parantavan suorituskykyä. - toki moni varmaan päivittää kun pakko saada uusin ja paras.
Kyllä 4090 on pullonkaula lähes jokaisessa uudessa pelissä jopa DLSS balanced asetuksella fg päällä. Tämä siis 4k:lla ja säteenseurannalla.
 
Toisaalta rima on myös noussut eksponentiaalisesti mikä on "hyvän näköinen" peli. Jotta peli nykyään on edes sen "keskiverron" näköinen niin pitää olla rajaton piirtoetäisyys ja reaaliaikainen dynaaminen valaistus koko pelimaailmaan RT-GI:llä. Tuosta jos poiketaan niin peli "näyttää paskalle" mutta jos tuo saavutetaan niin "peliä ei ole optimoitu ollenkaan".

Nyt on ehkä vähän liioittelua, mutta onhan tässä paljon perää.


Mutta joo, olen tässä tänä vuonna pelaillut fallout3sta ja sen moottorilla tehtyä fallout: new vegasia, pelit tehty n. 15 vuotta sitten.

Niissä oli kenttäsuunnittelussa kätevä hierarkia millä saatiin pudotettua sitä, paljonko kamaa tarvii kerralla olla piirrettävissä:

Kun liikuttiin ulkona autiomaassa, tarjottiin valtava avoin maailma, taloja oli harvakseltaan, overdrawia ei juuri ollut, ja piirrettävät asiat oli lähinnä maastonmuotoja ja pensaita (ja välillä sitä talon ulkoseinää). Mutta näitä sitten näkyi hyvinkin kaukaa. Kun mentiin taloon sisälle, ladattiin uusi kenttä talon sisustaa varten. Siellä sitten overdrawia sisäseinistä sekä piirrettäviä esineitä, huonekaluja yms. oli paljon tiheämmässä, mutta kenttä paljon pienempi joten tähän oli varaa. Ja isommat talotkin jaettu vielä moneen osaan, portaiden ylä- tai alapäässä usein ovi joka latasi uuden kentän.

Kaupungeissa oli sitten vielä yksi hierarkiataso tästä välistä, oltiin ulkona mutta näkymä avoimeen autiomaahan oli blokattu jollain muurilla jolloin mitään kaukana olevaa ei graffamoottorille ollut olemassa, tarvi piirtää vain talojen ulkoseiniä ja overdrawia oli jonkin verran peräkkäin olevista taloista.

Tämä oikeasti toimi hyvin käytännössä, ainoat haitat oli se, että vihollisia ei esim. voinut ampua kenttiä erottavien ovien läpi vaan käytännössä siitä ovesta teleportattiin sen toiselle puolelle, ja sitten joku kaupungin muurin päälle nouseminen ja sieltä ulos autiomaahan tähyileminen ja ampuminen ei esim. ollut mahdollista, koska niille muureille ei voinut kunnolla nousta kun niistä olisi pitänyt nähdä sekä kaupunkiin sisään että ulos autiomaahan (toki muurille saattoi päästä johonkin yhteen paikkaan josta ei nähnyt sisälle kaupunkiin)

Mutta joo, nykyään tosiaan tällaista ei varmaan haluta tehdä koska tästä "teleporttailusta" tulisi niin paljon valitusta sen epäluonnollisuudesta vaikka siillä saatiin graffaengineä paljon kevyemmäksi.


Itse ehkä näkisin, että ongelmana on se, että tällainen fallout3-tyylinen kenttäsuunnittelu on työläämpää pelin tekijöille, ja lisäksi pelaajat vaativat "saumatonta elämystä" jossa näitä epäjatkuvuuskohtia ei näy.

Koodarit edelleen osaavat tehdä sitä itse graffamoottorin matalan tason optimointia, mutta kun sitä kenttäsuunnittelua yms. ei haluta tehdä siten että se mahdollistaa sellaiset korkean tason optimoinnit joilla itse graffamoottorin työ käy paljon helpommaksi
(joko, jotta pelaajalle tarjotaan se saumaton suuren pelimaailman elämys(hyvä perustelu pelin laadun kannalta), tai koska halutaan päästä helpolla kenttäsuunnittelussa(hyvä perustelu pelin kehityskustannusten kannalta) tai sitten vaikka varsinainen vaiva ei olisi suuri, ajatellaan että suorituskvyn kasvu ja matalan tason optimoinnit ratkoo kaikki suorituskykyongelmat(ei hyvä perustelu))

Ja säteenjäljitys oikeastaan voisi mahdollistaa enemmän sitä, että kenttäsuunnittelusta voisi jättää suorituskyvyn takia siellä olevia rajoitteita ja kikkailuita pois ja tarjota "saumatonta elämystä" ilman että suorituskykypudotus tästä on huomattava (koska on todella helppo laittaa isoja asioita maailmassa eri haaroihin BVH-puussa ja ottaa siitä vaan joku <10% hidastus, ja muutenkin säteenjäljityksessä kolmiomäärän kasvattaminen on halvempaa kuin rasteroinnissa(pikselimäärän kasvattaminen siinä sen sijaan on kallista)), mutta juuri nyt eletään sitä siirtymäkautta rasterisoinnin ja säteenjäljityksen välissä että kenttäsuunnittelussa pitää ottaa huomioon molemmat.

Joten alkaa ehkä näkyä sitä, että jotkut pelit suunnitellaan jo siten että niistä kenttäsuunnittelusta yms. vähennetään niitä rasteroinnin takia olevia rajoitteita ja kikkailuita, mutta ne pelit kuitenkin edelleen renderöidään pääosin rasteroimalla (koska säteenjäljitystehoa ei ole tarpeeksi että kaikkea rendausta voisi hoitaa säteenjäljityksellä), jolloin seurauksena on joko että se rasterointikin on hitaampaa tai sillä rasteroinnilla ei saada yhtä kaunista jälkeä kuin rasteroinnilla ennen saatiin kun kenttäsuunnittelussa oli mukana kaikkia light mappejä jne rasteroinnin valaistuksen kludgettamiseen.

Tekniikka ja vaatimukset kehittyy. Väitän että nykyään renderöintikustannusten optimointi on kovempaa kuin koskaan. Tekniikat millä saavutetaan silminnähden parempia grafiikoita vain maksaa sen 1000x enemmän mitä entisaikojen spriten pyörittelyt.

Lucasarts siirtyi pois spritejen pyörittelystä pääasiallisena graffanpiirtomuotona vuonna 1993 kun julkaisi X-wing-pelin, joka piirsi grafiikan kolmioita rasteroimalla (sitä edeltävässä Lucasartsin lentosmulaattorissa Secret Weapons of Luftwaffessa(1991) oli vielä kaikki lentokoneet piirretty spriteinä eikä kolmioita rasterisoimalla.

Ja nykynäyttiksissä meillä on luokkaa miljoonia kertoja enemmän laskentatehoa kuin niissä CPU:issa (80286, 80386) millä sitä secret weapons of luftwaffea aikoinaan pelattiin, joten 1000x suurempi laskentamäärä ei ole ongelma.
 
Viimeksi muokattu:
Ja nykynäyttiksissä meillä on luokkaa miljoonia kertoja enemmän laskentatehoa kuin niissä CPU:issa (80286, 80386) millä sitä secret weapons of luftwaffea aikoinaan pelattiin, joten 1000x suurempi laskentamäärä ei ole ongelma.
Ehkä arvioin väärin kuinka paljon path-tracing 4k resolla on rankempaa mitä aikoinaan 320x200 resolla spriten pyöräyttäminen akselinsa ympäri.

Olisiko parempi arvio kymmeniä miljardeja kertoja raskaampaa? Vaikea sanoa.
 
Onhan noita muitakin käyttötapauksia kuin pelit. Vaikka pelit on halpa harrastus high end laitteistollakin versus vaikka moottoripyörä/kelkka+bensat tai paljonko esim. 5090:en odotettuna elinaikana moni kaataa rahaa alkoholiin ja baareihin. En jaksa paheksua sitä jos joku sijoittaa (laillisiin) harrastuksiin tai harrastaa halvemmalla konsolin kanssa.

Mulle 5090:en myy davinci resolven neural enginen tarjoamat palvelut ja topaz video ai. 8k videoiden loppurenderöinti vr-käyttöön ei ole kärsimättömän hommaa. Lokaalit neuroverkot kiinnostaa myös, mutta niihin taitaa olla liian vähän muistia yhdessä 5090:ssa. Macbook pro:lla leikkinyt uunituoreen llama3.3:70b:n kanssa ja se tuntuu imaisevan noin 46GB muistia.
 
Kyllä nuo 5090 on mitoitettu hinnaltaankan niin että menevät enemmän työkäyttöön/harrastekäyttöön AI miehille, ja vähemmän pelikäyttöön.
Tuntuu vieläkin, että toi 4090 oli nappiostos ja pysyy 5000 sarjan yli, vaikka maksoinkin itseni kipeäksi.
Todennäköistä, että tulevaisuudessa en tule enää ostamaan noita huippumalleja, vaan pakko tyytyä alempiin, ellei nyt lottovoittoa tai hurjia tienestinlisäyksiä ole tulossa.

Omallani olen tehnyt AI harrastuksia satoja tunteja jo, vaikka alkuinnostus hiipuikin jo, niin maailmalla on iso juttu ja AI työkalut paranevat, toki vuokrattavia palveluitakin on, mutta maksavat ja osassa on toki sensuurit. AI-videoiden teko ei vaan vielä lähtenyt, kyllä sitäkin varmaan tulee kokeiltua, mutta ei siihen riitä edes 4090.

Pistän tähän linkin, jonka linkkasin jo toiseen threadiin, mutta vaikka aihe mitä on niin video itsessään omasta mielestä hauska ja hyvin tehty AI:lla. Redditistä löytyy kans paljon esim cyberpunk aiheisia, tai hyvin ylivärikkäitä tanssivideoita tms marvel tyyppisiä juttuja.
 
AI-videoiden teko ei vaan vielä lähtenyt, kyllä sitäkin varmaan tulee kokeiltua, mutta ei siihen riitä edes 4090.
Kyllä 4090 riittää ihan kohtuullisesti Mochi 1 ja HunyuanVideo malleille jotka on edistyneimmät tekoälyvideomallit mitä on avoimeen jakeluun laitettu - ihan tässä loppuvuodesta julkaistu molemmat. Tuo Tencentin Hunyuan ilmeisesti toimii 12 gigasella RTX 3060:kin kunhan resoa laskee ja jaksaa kärsivällisesti odotella.

Adan natiivi 8-bittinen inferenssi kantaa aika hyvin tällä hetkellä kuva- ja videomallien kanssa, kun tuosta nyt viimeaikoina ruvettu ottamaan ilo irti. Onhan se 5090 varmaan ihan kivasti nopeempi, mutta kun muistia vain 33% lisää niin ei ole kiirus päivittämään.
 
It's happening-hetki:

1734076485488.png
 
luulis olevan selvä mistä tämä video on kotoisin.
Puolasta (CD Projekt Red) vai Jenkeistä (NVIDIA)?

Kun ongelma on se, että jos CD Projekt Red:illä on Puolassa toimiva kortti niin niillä on oltava myös toimivat ajurit sille. Aiemmin NVIDIA ei ole jakanut noita ajureita eteenpäin, koska niiden avulla noi Aasia-vuotajat saisivat vesitettyä kaiken PR:än välittömästi. Tietenkin Puolassa heillä voi olla työasemakohtaisesti allekirjoitetut ajurit, mutta tämä tarkoittaisi suoraan sitä, että NVIDIA:n yhteistyökumppanit on jaettu tiereille, joka taas tarkoittaa jos sinun firmalla ei jo ole uutta korttia käytössä niin et ole NVIDIA:n silmissä arvokas asiakas.

Jos NVIDIA on itse rendannut tuon videon niin tuolla videolla ei ole mitään arvoa pelaajille.
 
En oikein ymmärrä miksi esirenderöityyn videoon tarvitsisi julkaisemattoman näytönohjaimen? Ja kuka tuon esirenderöinnin on tehnyt?
Eipä tällä tosiaan muuta arvoa tunnu olevan kuin kiihdyttää uutisointia uusien korttien julkaisua varten, moni media näyttää suoraan jo julistavan että kyseessä oli 5090.
Jos olisi ollut "real-time rendered.." niin olisi vakuuttavampi, nythän tuo voi olla hyvinkin tehty vaikkapa julkaisemattomalla 4090 Ti:llä tai vaikkapa 4050:lla.. jälkimmäisellä tosin kestäisi hetken pidempään video pukata pihalle.

Edit: CDPR:n oma pressitiedote ei mainitse Nvidiaa kumppanina pätkän teossa muutoin kuin rautatoimittajana, Platige Imagen mainitsevat erikseen.
 
Viimeksi muokattu:
On kyllä pettymys että 5090:ssä näyttää olevan vain 32GB muistia. Nykykehityksellä se tulee käymään hyötykäytössä pieneksi nopeaksi, ellei ole sitä jo julkaisussa.
 
On kyllä pettymys että 5090:ssä näyttää olevan vain 32GB muistia. Nykykehityksellä se tulee käymään hyötykäytössä pieneksi nopeaksi, ellei ole sitä jo julkaisussa.
Eikö hyötykäyttöön ole sitä varten suunniteltuja tuotteita joilta voi toivoa suurempaa muistia? Peleihin 32 gigaa on enemmän kuin riittävästi ja pelinäytönohjaimiahan RTX sarja on.
 
On kyllä pettymys että 5090:ssä näyttää olevan vain 32GB muistia. Nykykehityksellä se tulee käymään hyötykäytössä pieneksi nopeaksi, ellei ole sitä jo julkaisussa.
Tota,wtf? Jos tarkoitat jotain pro kielimallikäyttöä niin sinne tulee pro kortit clamshell muisteilla(64GB). Pro kortteihin oletettavasti tulee jossain kohtaa 3GB gddr7 piiriä niin saa96GB muistia.

Vaikea uskoa, että peleissä 32GB loppuis kesken.
 
Eikö hyötykäyttöön ole sitä varten suunniteltuja tuotteita joilta voi toivoa suurempaa muistia? Peleihin 32 gigaa on enemmän kuin riittävästi ja pelinäytönohjaimiahan RTX sarja on.
Kyllä rtx korteilla muutakin tehdään kuin pelataan. Jos pelkät pro-kortit pyörittäisi Stable Diffusionia sun muuta, voisi olla kehitys hitaampaa open source puolella. Nyt kun lokaalisti generoitavat AI videot tulee, pitäisi muistia olla enemmän tai sitten rtx5000-sarja tosiaan soveltuu vain pelaamiseen joka olisi muutos 4000-sarjaan.

Noh, toivo elää että julkaisevat myös huhutun Titan AI:n 48GB muistilla.
 
5090 on ainoa 5000 sarjan kortti jossa on huhujen mukaan enemmän muistia kuin 4000 sarjan vastineessa. Eikö se ole ainut noista joka ei ole pettymys? (5070 ti taitaa olla toinen jos jätetään super pois laskuista)
 
Kyllä rtx korteilla muutakin tehdään kuin pelataan. Jos pelkät pro-kortit pyörittäisi Stable Diffusionia sun muuta, voisi olla kehitys hitaampaa open source puolella. Nyt kun lokaalisti generoitavat AI videot tulee, pitäisi muistia olla enemmän tai sitten rtx5000-sarja tosiaan soveltuu vain pelaamiseen joka olisi muutos 4000-sarjaan.

Noh, toivo elää että julkaisevat myös huhutun Titan AI:n 48GB muistilla.
Pro käyttöö pro kortit ja pelikäyttöön pelikortit. Eiköhän sieltä tule blackwell vastine ada rtx 6000:lle eli clamshell muistit == 64GB. Jossain kohtaa ehkä myös 96GB pro kortti kunhan 3GB gddr7 piirejä on järkihinnalla tarpeeksi saatavilla.

 
Kyllä rtx korteilla muutakin tehdään kuin pelataan. Jos pelkät pro-kortit pyörittäisi Stable Diffusionia sun muuta, voisi olla kehitys hitaampaa open source puolella. Nyt kun lokaalisti generoitavat AI videot tulee, pitäisi muistia olla enemmän tai sitten rtx5000-sarja tosiaan soveltuu vain pelaamiseen joka olisi muutos 4000-sarjaan.

Noh, toivo elää että julkaisevat myös huhutun Titan AI:n 48GB muistilla.
Juuh, saa kortilla tehdä mitä haluaa. Pelaajille markkinoidussa kortissa lisämuisti on vain haittana korkeamman hinnan takia ja AI porukka syytää rahaa ammattipuoleen enemmän kuin Nvidia ehtii painaa uutta sirua pihalle, niin kyllähän se olisi vähän outoa jos tyrkkäisivät tuota enemmän muistia 5090:een.
 
Pro käyttöö pro kortit ja pelikäyttöön pelikortit.
Tää on nyt ihan oma mielipide.

Lainaus 4090 tuotesivulta, oleellinen kohta boldattuna:

NVIDIA® GeForce RTX™ 4090 on äärimäinen GeForce-grafiikkasuoritin. Se edustaa valtavaa loikkaa suorituskyvyssä, tehokkuudessa ja grafiikan tekoälytehostuksessa. Pääset kokemaan äärimmäisen tehopelaamisen, uskomattoman yksityiskohtaiset virtuaalimaailmat, ennen kokemattoman tuottavuuden ja uudet luovat työkalut. NVIDIA Ada Lovelace -arkkitehtuurin teho ja 24 Gt G6X-muistia antavat äärimmäisen käyttökokemuksen niin pelaajille kuin luovan työn tekijöillekin.
 
Tää on nyt ihan oma mielipide.

Lainaus 4090 tuotesivulta, oleellinen kohta boldattuna:
Kyllä mullekin on "luovaan" käyttöön tulossa 5090:en ja siihen riittää 32GB paremmin kuin hyvin. Luova käyttö mun tapauksessa
davinci resolve videoeditointi kera neuroverkkoefektien(ultranr kohinanpoisto, ai ylöspäin skaalaus, ai maskaus)
luminar neo kuvankäsittely ja sen neuroverkkoefektit
topaz video ai, photo ai ja gigapixel ai kuvien ja videoiden neuroverkkojen avulla parantamiseen.

Pullonkaula noissa mun jutuissa ei ole muistin määrä vaan laskentakyky. Mallit kyllä mahtuu pienempäänkin muistiin, mutta laskenta niin hidasta, että 4k tai 8k videon kanssa saa odotella kauan. Gigapixel ai:nkin kuvaskaalaus voi ottaa minuuttitolkulla aikaa kun lähteeksi antaa isomman reson kuvan.

LLama3.3 70B mitä on tullut macbook pro m4 max:lla testattua imaisee vajaan 50GB muistia. En laskis tätä luovaksi käytöksi. Tarvii järeämmän kortin tyyliin rtx 6000.
 
Viimeksi muokattu:
Kenen mukaan? Nvidian markkinointi ei jätä epäselväksi, että sarja on kohdistettu muuhunkin kuin pelikäyttöön.
Anteeksi tarkennan että Geforce RTX sarja on pelikäyttöön (AI hypesanoilla höystettynä, eli framegen ym.). On siellä tosiaan Quadro RTX johon Nvidia linkittää creativity AI hypesivuillaan.

Saa tuota lukea kuin piru raamattua tässä kontekstissa, mutta omaan silmään kaikki AI viittaukset ovat edelleen pelipuolelle ja heti creativity linkkiä painamalla saa eteensä Quadroa jos hakee studiotuotteita.


Edit:
Ja siis vieläkin tarkennan että materiaalista ylivoimaisesti suurin osa viittaa peleihin tai renderöintiin jossa muistivaatimukset ovat aika kevyet, niin miksi odottaa enemmän muistia tuotteelta jonka kohderyhmä ei tee sillä mitään?

Ymmärrän että se harmittaa jos toivoo ammattilaitetta kuluttajahintaan, mutta ellei Nvidia muuta tuotesegmentointia todella rajusti, on hyvin epätodennäköistä että muistia olisi enemmän.
 
Viimeksi muokattu:
Kyllä mullekin on "luovaan" käyttöön tulossa 5090:en ja siihen riittää 32GB paremmin kuin hyvin.
Ok, en sitten ymmärrä halua määrittää, että se on pelikortti.

5090 tulee kärsimään muistin puutteesta elinaikanaan enemmän kuin 4090, jos kiinnostaa touhuta tekoälyjutuilla, joten omasta mielestäni pettymys muistimäärään on perusteltu, jos tuohon käyttötarkoitukseen tulossa.

Anteeksi tarkennan että Geforce RTX sarja on pelikäyttöön (AI hypesanoilla höystettynä, eli framegen ym.). On siellä tosiaan Quadro RTX johon Nvidia linkittää creativity AI hypesivuillaan.
Puhuttiin hyötykäytöstä, ei tarkennettu AI-käyttöön (vaikka siihenkin on toisaalla mainostettu). Linkkaamallsi sivulla on "luo" osio, josta pääsee Studio sivulle. Suosittelen tsekkaamaan millaiseen käyttöön siellä mainostetaan niin ei jää epäselväksi (Blender, DaVinci Resolve jne).

 
Geforce = pelikortti. Ei kait tuossa nyt mitään epäselvää ole?
On se sitäkin juu. Mutta ottaen huomioon, että valmistajan mukaan se on myös luovan työn tekijöille, niin tuota kohderyhmää saattaa kiinnostaa erilaiset aspektit kuin pelaajia, kuten muistin määrä, josta tämä keskustelu nyt lähti.
 
5090 tulee kärsimään muistin puutteesta elinaikanaan enemmän kuin 4090, jos kiinnostaa touhuta tekoälyjutuilla, joten omasta mielestäni pettymys muistimäärään on perusteltu, jos tuohon käyttötarkoitukseen tulossa.
Noihin hommiin on omat korttinsa esim.se ada 6000 clamshell muistilla ja sen korvaava blackwell clamshell muistilla. Jos on tarvetta isommalle muistille niin ratkaisu on ostaa sellainen isommalla muistilla oleva kortti tai käyttää rahat pilveen/o1 pro:hon tms.
 
On se sitäkin juu. Mutta ottaen huomioon, että valmistajan mukaan se on myös luovan työn tekijöille, niin tuota kohderyhmää saattaa kiinnostaa erilaiset aspektit kuin pelaajia, kuten muistin määrä, josta tämä keskustelu nyt lähti.

Ja jos huhut pitää paikkaansa niin tuossa on tuplasti muistia toisiksi nopeimpaan pelikorttiin verrattuna. Eikös siinä silloin ole juurikin tuohon panostettu?
 
Se on hyvä, että muisti on riittämätön hyötykäyttäjille. Jääpähän enemmän kortteja meille pelaajille.
Sekin hyvä, että kun tuplamuistillisista korteista nvidia saa hyvän hinnan niin tulee tarjolle extreme pelikortteja. Jos ei olis "pro" markkinaa niin nvidia saattais tehdä amd:t.Nopein kortti joku 256bit muistiväylä, 16GB muistia.
 

Uusimmat viestit

Statistiikka

Viestiketjuista
261 799
Viestejä
4 539 535
Jäsenet
74 880
Uusin jäsen
krisek

Hinta.fi

Back
Ylös Bottom