NVIDIA-spekulaatioketju (Blackwell ja tulevat sukupolvet)

Sinällään 30x0 ja oletettavasti 40x0 sarja on uniikkeja, kun niissä on ne dedikoitut tensoriytimet ja säteenseurantayksikkö. Etenkin se tensoriydin tahtoo imaista kaiken muistikaistan. Silloin tensriydintä käytetään niin säteenseuranta/compute ei käytännössä etene kuin madellen, kun muistikaista ei riitä niiden syöttämiseen. Iso cache voisi auttaa tässä paljon.

Mutta toki se paras ja loogisin selitys on ihan vain kilpailu ja tarve kellottaa piirit tappiin. Mielenkiinnolla odotan ensi syksyä ja arvosteluita. Kiinnostaa paljon miten amd:n chiplet ratkaisu toimii(samanlainen kuin apple?) ja mitä nvidia saa aikaan huhutulla isolla 96MB cachella.
Ja miten tää maastoutuu käytännön suorituskykyyn? Mitä pelit tarjoavat kapasiteetin vastineeksi?

Nyt tuntuu olo aasilta, kun noilla top-end -näyttiksillä saa lähinnä lisättyä varjojen yksityiskohtaisuutta.

Mun on käytännön syistä vaikea nähdä syytä päivittää näyttiksiäni (RTX 3080 ja 3070ti).
 
Ja miten tää maastoutuu käytännön suorituskykyyn? Mitä pelit tarjoavat kapasiteetin vastineeksi?

Nyt tuntuu olo aasilta, kun noilla top-end -näyttiksillä saa lähinnä lisättyä varjojen yksityiskohtaisuutta.

Mun on käytännön syistä vaikea nähdä syytä päivittää näyttiksiäni (RTX 3080 ja 3070ti).
Top end näyttiksillä on aina ollut sama idea:
Pelit saa näyttämään hieman paremmilta ja / tai saa enemmän FPS:ää..
Ei tässä ole kertakaikkisen yhtään mitään uutta. Näin on ollut aina uusien näyttisten julkaisun aikoihin.

Hyväpuolikin asiassa on: Ei ole yhtään mikään pakko ostaa niitä top-end näyttiksiä, jos "se tuntuu aasilta". Voi ostaa vaikka low end näyttiksen ja pistää pelin asetukset ja reson pienemmälle. Itse pelistä se ei jätä ulkoasun lisäksi mitään pois.

Hyvin monet tosin haluavat esim FPS !!!!!MAX MAX MAX MAX!!!!!! tai mahdollisimman hyvännäköisen lopputuloksen (= nopea säteenseuranta on täysin pakollinen), jolloin sen top-end näyttiksen ostaminen on avain tyytyväisyyteen.
 
Top end näyttiksillä on aina ollut sama idea:
Pelit saa näyttämään hieman paremmilta ja / tai saa enemmän FPS:ää..

Plus jokunen harva vakaumuksellinen jotka uusii koko konepaketin aina 6 v välein, niin se tarvitaan, jotta pelit pyörähtää vielä vuonna 6.
 
Olikos huomenna Jenssenin GTC keynote jossa ehkä nähdään jo ammattikäyttöön se uusi sukupolvi?

EDIT: Heti guugle tarjosikin premiereä. Pitääpä katsoa tuleeko tässä mitään mielenkiintoista.

Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.
 
Viimeksi muokattu:
Olikos huomenna Jenssenin GTC keynote jossa ehkä nähdään jo ammattikäyttöön se uusi sukupolvi?

EDIT: Heti guugle tarjosikin premiereä. Pitääpä katsoa tuleeko tässä mitään mielenkiintoista.

Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.


Kai se hopper tulee perustuen nvidian blogi-kiusoitteluun

 
H100 TSMC 4nm prosessi, HBM3 muistit ja 700W TDP


Keynote klo 17.00 btw
 
Top end näyttiksillä on aina ollut sama idea:
Pelit saa näyttämään hieman paremmilta ja / tai saa enemmän FPS:ää..
Ei tässä ole kertakaikkisen yhtään mitään uutta. Näin on ollut aina uusien näyttisten julkaisun aikoihin.

Hyväpuolikin asiassa on: Ei ole yhtään mikään pakko ostaa niitä top-end näyttiksiä, jos "se tuntuu aasilta". Voi ostaa vaikka low end näyttiksen ja pistää pelin asetukset ja reson pienemmälle. Itse pelistä se ei jätä ulkoasun lisäksi mitään pois.

Hyvin monet tosin haluavat esim FPS !!!!!MAX MAX MAX MAX!!!!!! tai mahdollisimman hyvännäköisen lopputuloksen (= nopea säteenseuranta on täysin pakollinen), jolloin sen top-end näyttiksen ostaminen on avain tyytyväisyyteen.
Hyvä kommentti.

Pitkälti samaa mieltä.

Jotenkin pelisuunnittelu muotoutuu aina uuden konsolisukupolven tullessa vielä pari vuotta last-gen -konsoleiden tehoihin. Tällä omalla raudalla saa varmasti pelata sen 6 vuotta hyvin rauhassa.

Ymmärrän liian hyvin harrastusvälineiden merkityksen ja hifistelyn. Ymmärrän myös sen yli menevän. Että tietyn ekstran jälkeen rahalla saa kovin merkityksettömiä etuja.

Raudan kanssa ruuvaaminen oli hauskaa 1,5 v ja se tuli nähtyä tässä vaiheessa. En vaihtaisi pois. Tällä foorumilla on saanut täydentävää vinkkiä, vaikka olen ns. itseoppinut.

Next-gen GPU-hypen aaltojen iskiessä, kehotan laittamaan jäitä hattuun (erityisesti niille, jotka ovat innolla myymässä Ampere-sarjan näyttiksiään). Pörssiyhtiöiden tehtävä on tehdä rahaa. Ylimenevä hype on markkinointia, ja luvatut tehot eivät pitäneet paikkaansa Amperessa. Saatavuudesta puhumattakaan, tai hintatasosta.

Eli jos on näyttis, jonka kanssa voi elää, älä myy, vaikka nahkatakkimies lupaisi 300% tehot ja Nigeriasta kultaa lento-onnettomuudessa kuolleelta sedältä.

Hypejunassa on hauskaa, mutta on hyvä olla varovainen ja pelata omien pelimerkkien mukaan. Ei muuta tällä kertaa.
 
Lämmöntuotto alkaa olemaan iso ongelma, kun mennään 500 wattiin ja yli. Huhujen perusteella next-genissä ihan mahdollista. 3090 Ti tekee sitä jo nyt. Siksi olisi kiva, jos sais ajureihin sellaisen option, jossa on 2 eri power limittiä ja korkeampi kytkeytyisi päälle, jos peli dippaa jonkun FPS lukeman alle. FPS lukko ajaa vähän samaa asiaa, mutta eri power limiteillä voisi nauttia kovemmista ruudunpäivitysnopeuksista siten, ettei huone muutu saunaksi parin tunnin pelailun jälkeen. Laittaa vaikka alemman power limitin 350W ja sitten kun dippaa FPS alle 60 otetaan vasta kaikki mehut irti.
 
Ei ehkä olekkaan 4000 sarja nimeltään seuraava. Ehkä osittain siitä johtuen että RTX4000 sarja on jo olemassa ja toisaalta kiinalaisilla on jotain ongelmia numeron 4 kanssa...
XX90 kortti voi olla kohtuu tehosyöppö myös...

Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.
 
Luulisi että herran vuonna 2022 alkaisi maailmaa kiinnostamaan myös näyttisten kulutus, nyt kun hehkulamputkin on saatu vaihdettua pois. Viiden sadan watin näyttiksen kulutuksella saisi pitää aika montaa hehkulamppua päällä...

Itse jätän kauppaan kaikki joita ei saa helposti alle 300 W (mielummin 250 W) ilman merkittävää suorituskyvyn tippumista. Toisaalta, jos sieltä tulee selvästi 3080:stä tehokkaampi kortti joka kuluttaa alle 250 W, maksan siitä mielelläni vaikka tonnin.
 
Onkos kukaan koskaan laskenut/mitannut kuinka paljon intensiivinen pelaaminen kuluttaa sähköä jos omistaa juuri tuollaisen virtasyöpän näytönohjaimen?
 
Onkos kukaan koskaan laskenut/mitannut kuinka paljon intensiivinen pelaaminen kuluttaa sähköä jos omistaa juuri tuollaisen virtasyöpän näytönohjaimen?
Se myös riippuu piirin luonteesta ja siitä miten PL on tehtaalla asetettu.
Luullakseni esim. 6900XT hakkaa PL vasten vakiona aika aktiiviseti. Itselläni on 6900XTX ja asetettu 400W PL ei koskaan täyty. Parhaillaan pelatessa kuorma 1440p olen saanut 340W luokkaa. Jossain menuvalikossa ilman FPS limittiä on saattanut käydä 350W.

Eli tuo huhuttu 600W voi olla joko rajoittava tekijä tai sitten ei.
 
Ihan oikeastikko joku miettii näytönohjaimen sähkönkulutusta kun kortista on maksanut vaikkapa 1500-2500€?

Ihan oikeasti kyselen, mietityttänyt useasti kun pc-tavaroiden tehonkulutuksia listaillaan. Ymmärrän että jäähdytystehoa joutuu miettimään, mutta että sähkönkulutusta.

Monella on 6-10 kW kiukaitakin jotka lämpenee lähes joka päivä, puhumattakaan okt:n lämmityksestä.
Tähän nyt moni jo vastasikin, mutta en ainakaan itse aio palata enää isoihin tuhnupönttöihin, vaan max 15 litrasella (nyt alle 10 litrasella) kotelolla pitää pärjätä. Aivan mainiosti jäähtyy vielä 6800 XT, mutta kyllä jos tuon päälle vielä 100-150w lyödään alkaa tekemään tiukkaa. Lisäksi kesäkeleillä ja talvellakin pidemmissä sessioissa alkaa kyllä huonekin lämpenemään jos jatkuvasti nousee virrankulutus. Esimerkiksi tuo huhuttu 600w xx90 näyttiksellä.

Kaipaan aikoja, kun samalla tai jopa matalammalla virrankäytöllä saatiin reilusti tehoa lisää. Viimeisessä kahdessa sukupolvessa tehonlisäys tullut suurimmilta osin nousseen virrankulutuksen avulla. Eikä huhut näistä uusista varsinaisesti rohkaise odottamaan muuta seuraavistakaan.
 
Uusimpien huhujen mukaan RTX 4080 olisi AD103 ja RTX 4070 AD104. AD102 on yli 70% enemmän cuda coreja kuin AD103 (18432 vs 10752)

Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.
 
4070 kortissa samaa tasoa tehonkulutus mitä 3090 kortissa?

Voi pojat.

Huhujahan ne vielä on, mutta piirikoot kasvaa takuuvarmasti. Ei ne transistorit ilmaiseksi töitä tee, kellojakin viilataan taatusti sen verran mitä uusi prosessi antaa helposti myöten (eli pidetään hyvät saannit, mutta kulutus nousee).

Edit: Vähän huono muotoilu. Mutta ajatus oli, että vaikka prosessi paranee, niin niin sen hyödyt käytetään taatusti siihen, että kello/volttikäyrä vedetään sopivaksi, jotta saannit on hyvät. Uuden prosessin perffihyödyt menee siis isompiin piireihin ja kelloihin, eikä tippuneeseen kokonaiskulutukseen.
 
4070 kortissa samaa tasoa tehonkulutus mitä 3090 kortissa?

Voi pojat.
Koska on syytä odottaa, että tulee 4070, <4070Ti, <4080, <4080Ti, <4090, <4090Ti virrankulutukseltaan, joten on sitten monella aika vaihtaa isompi poweri..

Olennaista on vastaus kysymykseen: Saadaanko minkäverran suorituskykyä lisää /W? vai onko niin, että nyt on tullut perinteisen piivalmistustekniikan rajat vastaan kyseisellä alueella ja lisäsuorituskyky ssaadaan optimoimalla rautaa ja ohjelmia, eikä lisätransistoreilla..

Tosin tuo on todentamaton huhu, ei tieto, joten käytännössä merkityksetöntä.
 
Tässä vanha vertailutaulukko, jossa on laskettu kuluja tällä piirillä:

" The model is based on an imaginary 5nm chip the size of Nvidia's P100 GPU (610 mm2, 90.7 billion transistors at 148.2 MTr/mm2). "

Oleellisinta tuossa on, että 7nm asti iso piirin valmistuskustannukset laski, nyt alkaa taas nousu. Uudet piirit nostaa transistorimäärää, joten ne on kalliimpia valmistaa uudesta prosessista huolimata. Joten odottaisin, että syksyllä ei tapahdu isoa €/fps hyppäystä, tehoissa noustaan kummasti, mutta lippulaivapiirit maksaa sen mitä Amperet piiripulan aikana trokarilta ostettuna ihan kaupan normihintoina.

1651133823288.png
 
Tänään mietin viisi sekuntia ostaisinko 3080ti:n hintaan 1259€.

En ostanut.

Todella huono ajallinen hinta-suorituskyky.

Itse pelaan tasan tarkkaan 4k resolla, ja Ampere oli hyvä askel omaan suuntaan. Odotan kuitenkin Linda Lovelacea kovasti ja syvästi.
 
Olikos huomenna Jenssenin GTC keynote jossa ehkä nähdään jo ammattikäyttöön se uusi sukupolvi?

EDIT: Heti guugle tarjosikin premiereä. Pitääpä katsoa tuleeko tässä mitään mielenkiintoista.

Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.


Aloin katsomaan tuota Nvidian kanavalta. Kuva näytti suttuiselta ja sitten tajusin, että hemmetti sehän on max 1080p resoluutiolla :-D Luulisi, että graffufirma voisi laittaa tuollaiset videot kanssa vähän paremmilla resoilla Youtubeen.
 
Seuraavan sukupolven huhutusta virrankulutuksesta tulee elävästi mieleen 1080ti/pascal vs. vega aika. Mä oletan, että kilpailu tulee olemaan niin kovaa, että ainakin halo-piirit tykitetään maksimikelloille jo tehtaalla. Mikään ole niin tärkeää kuin benchmark voitot? Onneksi virrankulutus/lämpö skaalaa exponentiaalisesti. Alikellottamalla tuskin menettää paljoa suorituskykyä. Alikellottamalla saa virrankulutuksen/lämmöt alaspäin takaisin järkevälle tasolle. Jos tää menee näin niin syksyn isoin itku on, että kortit ei ylikellotu, kun ne on kellotettu jo maksimiin tehtaalla :)
 
Viimeksi muokattu:
Seuraavan sukupolven huhutusta virrankulutuksesta tulee elävästi mieleen 1080ti/pascal vs. vega aika. Mä oletan, että kilpailu tulee olemaan niin kovaa, että ainakin halo-piirit tykitetään maksimikelloille jo tehtaalla. Mikään ole niin tärkeää kuin benchmark voitot? Onneksi virrankulutus/lämpö skaalaa exponentiaalisesti. Alikellottamalla tuskin menettää paljoa suorituskykyä. Alikellottamalla saa virrankulutuksen/lämmöt alaspäin takaisin järkevälle tasolle. Jos tää menee näin niin syksyn isoin itku on, että kortit ei ylikellotu, kun ne on kellotettu jo maksimiin tehtaalla :)
Amperessa oli vähän jo samaa vikaa. Virtaa piti syöttää aika huolella, että benchmarkit nousivat. Tässä genissä alivoltitus oli pop, mikä on aika meh.

Ja rautahorona odotan innolla uutta, mutta en hypejunassa. Hyvä ilmiö on 4k-pelaamisen kehittyminen. Pelaan PC:llä TV-ruudulla, ja sujuva 4k on perusvaatimus.
 
Amperessa oli vähän jo samaa vikaa.
Mooren laki ei tunnu riittävän niin suorituskyky otetaan brute forcella. Ainoa joka tuntuu wattipelissä pärjäävän on apple. Toisaalta applella ei varsinaisesti ole kilpailijaa niin m1 pohjaiset laitteet on voitu kellottaa virrankulutuksen kannalta optimaalisesti.
 
Mooren laki ei tunnu riittävän niin suorituskyky otetaan brute forcella. Ainoa joka tuntuu wattipelissä pärjäävän on apple. Toisaalta applella ei varsinaisesti ole kilpailijaa niin m1 pohjaiset laitteet on voitu kellottaa virrankulutuksen kannalta optimaalisesti.

Ei mooren laki ole mihinkään muuttunut, brute forcea se on ollut ennenkin. Se mikä uhkaa muuttua omasta mielestä on teho/€ kehitys, kun uusi prosessi ei olekkaan automaattisesti halvempi.

Kellot nousi oikeastaan vain pascaliin asti. GPU:t skaalatuu hyvin, joten yksiköiden lisääminen ja cachen kasvattaminen on oikeasti tehokas tapa lisätä vääntöä. Sitähän nuo prosessipäivitykset ovat mahdollistaneet, samalla rahalla on saatu enemmän transitoreja ulos ja ne on käytetty hyväksi.

Esim nykyisissä huhuissa taitaa olla 80% lisää coreja. Sillä se voima tulee, se kello tai ipc boosti on näpertelyä tuonkaltaisiin lisäyksiin verrattuna.
 
Kesällä Kopite7kimin mukaan olis tulossa uusi sukupolvi:

Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.
 
Huh, aika kova väite. Omiin suunnitelmiin ei kyllä ole kuulunut päivittää kuin aikaisintaan loppuvuodesta, mutta ainahan sitä on oltava valmis joustamaan raudan kanssa... :asif:

En viitsi uskoa että sieltä tulee mitään konkreettista infoa vielä Computexin aikaan, mutta toisaalta Gamescom onkin sitten jo elokuussa.
 
En viitsi uskoa että sieltä tulee mitään konkreettista infoa vielä Computexin aikaan, mutta toisaalta Gamescom onkin sitten jo elokuussa.
Juu tuskin Computexissa, kun ei ole Jensen lavalla. Eikä taida olla Nvidialla tapana antaa edes sneak peekkejä kuten esim. AMD tekee aina välillä.
 
Oliskait se aika normaali päivitysaikataulu jos tänä vuonna tulis uutta, vaan toki emme elä enää normaaleja aikoja.
 
Mitä nuo muuten hyötyvät noista julkaisuista jonkun kissanristiäisen yhteydessä?
Pistäisivät vain myyntiin ja halukkaille kolmansille osapuolille muutamia kymmeniä testeihin. Jos tuote on hyvä, niin porukka kyllä ostaa sitä..
 
"Helposti" pitäis irrota 2x perffi Ämpäriin verrattuna.

Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.
 
Mitä nuo muuten hyötyvät noista julkaisuista jonkun kissanristiäisen yhteydessä?
Pistäisivät vain myyntiin ja halukkaille kolmansille osapuolille muutamia kymmeniä testeihin. Jos tuote on hyvä, niin porukka kyllä ostaa sitä..
Nvidialla saattaa olla pelko siitä että mainaajat ovat dumppaamassa markkinoille laivalasteittain käytettyjä Ampereja. Kun paperijulkaistaan uusi mallisto suurilla lupauksilla niin jengi jää mielummin odottelemaan niitä kuin ostaa vanhoja käytettynä.
 
Huh, aika kova väite. Omiin suunnitelmiin ei kyllä ole kuulunut päivittää kuin aikaisintaan loppuvuodesta, mutta ainahan sitä on oltava valmis joustamaan raudan kanssa... :asif:

En viitsi uskoa että sieltä tulee mitään konkreettista infoa vielä Computexin aikaan, mutta toisaalta Gamescom onkin sitten jo elokuussa.
Jos verkkis yhyttyy lähettämään 1,5v myöhässä olevan näyttiksen (Rtx 3080) vrk sisään ilman tilaajan hyväksyntää mallin vaihdosta, täytyy tilanteen olla aika relevantti ja next-gen lähellä.

Sanoisin että next-gen tarjoaa hyvää sekä RT-pelaamiseen että 4k pelaajille. Pelisuunnittelu on pitkälti liitetty konsoleihin, jotka ovat kaikesta huolimatta aika tehottomia (vrt. high-end PC:t). Mitä suorituskyky tarjoaa pelisuunnittelun puitteissa - reso, RT ja FPS. Ei huono, mutta ei mullistavaa.
 
Nvidialla saattaa olla pelko siitä että mainaajat ovat dumppaamassa markkinoille laivalasteittain käytettyjä Ampereja. Kun paperijulkaistaan uusi mallisto suurilla lupauksilla niin jengi jää mielummin odottelemaan niitä kuin ostaa vanhoja käytettynä.

Ennemminkin niin, että rdna3+chiplet huhut ovat pitkään olleet sellaisia, että nvidian on pakko reagoida, jos haluavat kisata suorituskykykruunusta.

Pitkästä aikaa uusi generaatio missä ainakin huhujen pohjalta ennakkoon voi olettaa, että amd vie ja nvidia vikisee,... Toki todellisuus selviää vasta julkaisun jälkeen. Huhut voivat toki olla väärässä ja/tai piirien todellinen suorituskyky on jotain muuta kuin mitä simulaattorit antavat olettaa. Ja tietenkin se kirsikka kakun pohjalla on se miten ajurit toimivat vai meneekö vuosia, että ajurit saadaan kuntoon.

Lieköhän nvidialla jo piirit käsissä ja kopitekimin twiitit perustuvat johonkin nvidian työntekijän/alihankkijan/??? vuotamaan tietoon siitä millaisella suorituskyvyllä piirit ovat heränneet henkiin?
 
Eikös Kopite tai joku muu näistä nykyaktiiveista ehtinyt twiittailla joku aika sitten, että suurin osa niiden "vuodoista" on vain arvailuja
 
Ennemminkin niin, että rdna3+chiplet huhut ovat pitkään olleet sellaisia, että nvidian on pakko reagoida, jos haluavat kisata suorituskykykruunusta.

Pitkästä aikaa uusi generaatio missä ainakin huhujen pohjalta ennakkoon voi olettaa, että amd vie ja nvidia vikisee,... Toki todellisuus selviää vasta julkaisun jälkeen. Huhut voivat toki olla väärässä ja/tai piirien todellinen suorituskyky on jotain muuta kuin mitä simulaattorit antavat olettaa. Ja tietenkin se kirsikka kakun pohjalla on se miten ajurit toimivat vai meneekö vuosia, että ajurit saadaan kuntoon.

Lieköhän nvidialla jo piirit käsissä ja kopitekimin twiitit perustuvat johonkin nvidian työntekijän/alihankkijan/??? vuotamaan tietoon siitä millaisella suorituskyvyllä piirit ovat heränneet henkiin?
Jotenkin tosiaan kaikki värientoistosta lähtien oli pielessä omassa rx6800xt:ssä, ja ajuri/softapuoli ei hivellyt sielua. Tehoa kuitenkin oli paljon. AMD:n kiri oli niin jäätävä tässä genissä, että olisi ylläri jos Nvidia olisi nahkatakkinen kukko tunkiolla.

Lasken aika paljon AMD:n freesyncin ja RT-comboon. Ilman hyvää VRR:ää, RT ei vain toimi.
 
Eikös Kopite tai joku muu näistä nykyaktiiveista ehtinyt twiittailla joku aika sitten, että suurin osa niiden "vuodoista" on vain arvailuja

Mä voisin ymmärtää allaolevan twiitin niin, että jostain on vuotanut suorituskykytietoa piiristä joka nvidialla on jo jollain tasolla herätetty henkiin. Alle kohdekelloilla oleva leikattu piiri 2x3090. Täys piiri kohdekelloilla jotain muuta. voi toki olla täyttä arvailuakin. Loppuvuodesta saanemme vastaukset. Siihen asti voi vain joko olla hiljaa tai spekuloida.

Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.
 
Mä voisin ymmärtää allaolevan twiitin niin, että jostain on vuotanut suorituskykytietoa piiristä joka nvidialla on jo jollain tasolla herätetty henkiin. Alle kohdekelloilla oleva leikattu piiri 2x3090. Täys piiri kohdekelloilla jotain muuta. voi toki olla täyttä arvailuakin. Loppuvuodesta saanemme vastaukset. Siihen asti voi vain joko olla hiljaa tai spekuloida.

Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.

Ei vaan meinaan siis twiittiä jossa sanottiin se ihan suoraan. En muista oliko nimenomaan Kopite vai joku muista näistä nykyisen ja tulevan sukupolven vuotajista
 
Eikös Lapsuksen hakkeroinnista ollut löytynyt ainakin jotain tietoja joihin varmasti osa arvailuista perustuu
 
Jos otetaan Ampere-geni ihan analyyttisesti, Turing RTX 2080ti oli aika-teho-hinta -suhteessa jäätävän kova.

Nvidian olisi pitänyt tarjota ihan eri tasoa, ja last geniin verrattuna Amd teki tempun. Nvidian tempuksi ei enää riitä 35% parempi kuin 3080, hintaan x. Siinä menee AMD ohi niin että suhisee. Ihan oikeasti, AMD otti NVIDIAn kiinni tässä genissä. 5700xt oli vitsi, mutta tää geni muutti asetelman (konsolit osatekijänä myös).

Itselläni rtx 3080 ja 3070 ti, joten kommentti on ihan vain pohdinnan ja kokemuksen tuotos.
 
5700xt oli vitsi
Ei, vaan keskiluokan kortti. Se ei edes yrittänyt olla high end kortti. Eihän siinä ollut laskentayksiköitä tai piirillä pinta-alaa riittävästi ollakseen huippukortti. 5700 oli ihan hyvä keskiluokan kortti ja tähän se oli tarkoitettu.
 
Jos otetaan Ampere-geni ihan analyyttisesti, Turing RTX 2080ti oli aika-teho-hinta -suhteessa jäätävän kova.

Nvidian olisi pitänyt tarjota ihan eri tasoa, ja last geniin verrattuna Amd teki tempun. Nvidian tempuksi ei enää riitä 35% parempi kuin 3080, hintaan x. Siinä menee AMD ohi niin että suhisee. Ihan oikeasti, AMD otti NVIDIAn kiinni tässä genissä. 5700xt oli vitsi, mutta tää geni muutti asetelman (konsolit osatekijänä myös).

Itselläni rtx 3080 ja 3070 ti, joten kommentti on ihan vain pohdinnan ja kokemuksen tuotos.

No ei se vitsi ollut. AMD:lla ei ilmeisesti vaan ollut aikaa taikka resursseja tehdä isompaa piiriä RDNA:sta. Jos olisivat tehneet niin kyllä olisivat jo RDNA:lla taistelleet ihan siitä halo kruunusta.

Mutta tulevaisuudesta ei voi kyllä sanoa mitään. Jos noi huhut nyt pitää paikkaa että AMD menee GPU:ssa chipletteihin, niin siinäkin voi tulla omia sudenkuoppia ratkottavaksi. Tosin AMD:lla on se etu että on jo jonkin verran hommasta kokemusta CPU puolelta ja jos nyt GPU:ssa siihen mennään niin saavat arvokasta etumatkaa chiplet GPU:sta koska nvidia ei ilmeisesti ole vielä noihin bileisiin lähdössä mukaan.
 
Jos otetaan Ampere-geni ihan analyyttisesti, Turing RTX 2080ti oli aika-teho-hinta -suhteessa jäätävän kova.

Nvidian olisi pitänyt tarjota ihan eri tasoa, ja last geniin verrattuna Amd teki tempun. Nvidian tempuksi ei enää riitä 35% parempi kuin 3080, hintaan x. Siinä menee AMD ohi niin että suhisee. Ihan oikeasti, AMD otti NVIDIAn kiinni tässä genissä. 5700xt oli vitsi, mutta tää geni muutti asetelman (konsolit osatekijänä myös).

Itselläni rtx 3080 ja 3070 ti, joten kommentti on ihan vain pohdinnan ja kokemuksen tuotos.

En nyt ihan päässyt jyvälle mitä hait tässä viestissä. Mutta Pascalista Turingiin hyppy oli ihan tuhnu, jos perus rasterontisuorituskykyä katsoo. 2080Ti oli vain jonkun 25-30% prosenttia nopeampi, kun 1080Ti. Sitten taas Turingista Ampereen tulikin rasterointi perffiä se 80% lisää (Toki pelistä riippuen). Sen päälle noin 100% RT perffiä. Ei mikään huono hyppy.

Toki AMD:llä tuli isompi hyppy, kun 5000 sarjasta ei julkaistu huippupiiriä ollenkaan.
 
Aiemmin oli puheita jostain 600W hirviöistä, nyt Kimin mukaan 4090 oliskin 450W:

Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.



Ja julkkariajankohdaksi täsmentää heinäkuun:

Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.
 
Aiemmin oli puheita jostain 600W hirviöistä, nyt Kimin mukaan 4090 oliskin 450W:

Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.



Ja julkkariajankohdaksi täsmentää heinäkuun:

Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.


Vai että kahden kuukauden päästä olis jo julkkari? :jd:
 
Saa nähdä, tulevatko hitaammat RTX 4060 Ti ja 4070 -kortit tehokkaampien kanssa samaan aikaan, vai meneekö myöhemmälle syksyyn. RTX 3080 -tasoinen kortti, mutta selvästi paremmalla säteenseurannan suorituskyvyllä, olisi aika sweet spot 1440p-pelailuun. Ei pitäisi olla mahdotonta noille korteille.

Toki saatavuus hirvittää. Ärysttävää, jos nyt lykkään näytönohjaimen päivitystä semmoista korttia varten, jota ei saakkaan heti julkaisussa. F5-hakkaukseen heti julkaisussa pitää ainakin valmistautua. Tai jos vaikka edullisemmat mallit tulevat vasta vuoden lopussa ja joutuu odottelemaan. Onneksi RTX 3060 Ti ei ole mikään mopo, eli tulenpalavaa kiirettä ei ole päivittää, vaikkakin edulliset RTX 3070 Ti ja 3080 ovatkin käyneet jo ostoskorissa.
 
Toivonmukaan noiden rtx 4xxx sarjalaisten mukana tulee 12VHPWR adapterit vanhoille virtalähteille jos siirtyvät uuteen kaapeli systeemiin.

Itse myös ajatellut aika varmasti päivittää rtx 4060 ti tai 4070 riippuen hinnasta, ehkä jompaa kumpaa saisi n.800 eurolla heti julkaisussa...

Edit oliko muuten mitään huhua ketään lukenut että tulee jotain parannuksia esim nvenciin? Sama Nvenc ollut jo rtx 2xxx ja 3xxx sarjassa joten voi olla että nyt tulee jokin parannus.
 
Toivonmukaan noiden rtx 4xxx sarjalaisten mukana tulee 12VHPWR adapterit vanhoille virtalähteille jos siirtyvät uuteen kaapeli systeemiin.

Itse myös ajatellut aika varmasti päivittää rtx 4060 ti tai 4070 riippuen hinnasta, ehkä jompaa kumpaa saisi n.800 eurolla heti julkaisussa...

Edit oliko muuten mitään huhua ketään lukenut että tulee jotain parannuksia esim nvenciin? Sama Nvenc ollut jo rtx 2xxx ja 3xxx sarjassa joten voi olla että nyt tulee jokin parannus.

Varmasti tulee adapterit mukana. Uusia virtalähteitä, joissa tuo liitäntä on suoraan, on markkinoilla vain muutama.
 

Uusimmat viestit

Statistiikka

Viestiketjuista
300 371
Viestejä
5 124 973
Jäsenet
81 790
Uusin jäsen
Eikkapoika

Hinta.fi

Back
Ylös Bottom