NVIDIA-spekulaatioketju (Lovelace ja tulevat sukupolvet)

No, jotkut tykkää muhkummasta mut toi Strix on kyllä ihan jotain..... Zotac on nätti vaikka vähän lumilauta tai Super-jäätelö tulee mieleen noista muodoista, ei se väärin ole, ainakin jää mieleen, hyvällä tapaa.

Helvetti, nyt alko sit tekee mieli jätskiä :p
 
Se että julkaistiin 4080 12Gt eikä 4070 laittaa miettimään, että nVidia uskoo tällä olevansa R7800 tasolla?
 
Kaksi vuotta kulunut korttien julkistuksesta ja vieläkin kuvitellaan, ettei AMD:llä ole/ollut vastinetta 3000-sarjalle

Taitaa olla siksi, että nvidialla oli kuitenkin aika massiivinen etu RT:ssä ja paremmat muut jutut kuten dlss, nvenc etc. En yhtään ihmettelis, että amd ois taas parempi 1080p ja 1440p ei-RT:ssä, mutta RT:n suhteen voipi jäädä edelleen jälkeen (vaikka sitä luultavasti massiivisesti parantavatkin).

Näillä hinnoilla on joka tapauksessa luultavasti pakko mennä AMD:n kelkkaan, vaikkei nvidiaa huipulla voittaiskaan.
 
Onhan nää Strixit aika muhkuja.
1663823966225.png

1663823987572.png



Lisäksi Zotacilla virransyöttö kohillaan.

Onko valitun emolevyn tarkoitus ilmaista, että tässä on täydellinen kortti mATX mini-ITX-koteloon?:lol:
 
Viimeksi muokattu:
Silti päässä supattaa Jensseni jotain mordorin black speechiä kun nVidian sivuja katsoo, kuten Sauron Frodolle kun sormusta hipelöi.

Eiiiii... se on tie voiman pimeälle puolelle...

"Help us Obi-AMD, you are our only hope" taitaa olla päivän sana.

Samaan aikaan 4090n PCB-kuvat paljastavat että koko virransyöttö ei ole käytössä, tilaa PCBllä on vielä pinota lisää. Joka kertoo kaiken tarvittavan siitä että onko NVIDIAlla 4090ti countteri valmiina jos käy Onnettomuus AMD-vastarinnan kanssa. Voi myös olla että 4090 on "vain"$1599 jotta jätettiin tilaa 4090tille $1999 hintatasolle. Joku väitti jo jossain että tuo 4090 hinta oli se viime hetken Jensen-tune ja alun perin sen piti olla rapeat kaksi tonnia mutta se muuttui presentaatioon.

Tilanne on kyllä sen verran muuttunut että 2v sitten ei voinut koskea AMDiin koska ajurit olivat vielä kuraa varsinkin DX11-puolella, mutta nykyään nuo alkavat olla jo "good enough". Eli jos RT-perffipuute korjautuu ja ollaan edes oikealla pallokentällä suorituskyvyssä muuten, ja sen päälle hinta-tehosuhde on parempi....

...ja sitten heräsimme, koska AMD luonnollisesti kyllä nyhtää irti joka sentin minkä saa, eli epäilen että hinnat ovat vain hieman halvempia.
 
Viimeksi muokattu:
Näytönohjaimet paisuvat kuin pullataikina...
1663837371854.png


edit aavistuksen extrapoloituna...
1663839489664.png
 
Viimeksi muokattu:
Joo tota. Taidan vaan etsiä jostain 3090 tai Ti. Ei mitään jakoja saada mahtumaan 4080 16Gb saati sitten 4090 Fractal Nano S koppaan. En suostu ostamaan uutta koppaa vain näyttiksen takia. Tosin powerin jos siirtäisi kopan etuosaan...
 
Näytönohjaimet paisuvat kuin pullataikina...
1663837371854.png


Tossa kuvassa on kyllä käyny joku käpy tuon 3090:n kohdalla. Ei se noin kapea ole. Soelsien mukaan 3090Master/Extreme on 140mm ja tuo 4090 on 152mm, eli ei ole kun 12mm leveämpi, mutta kuvassa ero on varmaan joku 30-40mm. Oliskohan ton 3090 tekstin tilalla pitäny olla joku muu malli, kuten 3070 tai 3080.
 

Telling consumers that lower, fairer prices are a thing of the past is a bold move. Not a smart move, but a bold one for sure

This is part of their narrative to hide the fact that they are holding 3000 stock to price fix. They have to find a way to offload a massive overstock of 3000 without taking a loss while 4000 exists. So they jack up 4000 prices as if crypto didn’t crash and off load 3000 at a more normal price. This is also an attempt to cement the higher prices they’ve been enjoying the past two years.

This is a company living in denial.

The following factors that made cards so expensive no longer exist:

1) Pandemic where everyone got a new PC and gamed.

2) Shortage of parts during pandemic.

3) Miners buying high end cards.

4) People needing a new machine to run current games. Many people bought all at once and will not need an upgrade for a couple of years.

Reasons why the price of cards will go lower:

1) Backlog of 30xx series cards still unsold by NVIDIA and OEM manufacturers.

2) Flood of high end and mid-range cards being sold by ex-miners.

What will happen:

1) Their new cards will not sell and the price will be lowered incrementally. They no question know their cards will not sell and are aiming for pie-in-the-sky prices to see where there is demand.

2) The second-hand market of cards will take months to sell through and destroy their ability to sell most tiers of cards. The higher NVIDIA keeps their prices, the longer it will take to clear out the secondary market.

3) The 4070 and below will be delayed into the middle of next year (at best).

4) Expect a factory fire to destroy most of their remaining chips that they were not able to get out of the contract to buy. You can almost count on this.

Alkaa pikkuhiljaa loppua Nvidian ostaminen. :kahvi:
 
Eiköhän Jönssöni vaan aattele että se myy paremmin nimellä 4080 12gt ku ainoastaan asiasta tietävämmät tajuaa että toi on huomattavasti paskempi kortti ko 4080 16gt. Kustaan kasuaalia silimään.
Kai ton hintaisessa tuotteessa kuluttaja tsekkaa suorituskyvyn ennen ostamista. Ei voi kusta silmään, jos vilkaisee arvostelut. Tosin, jos ostaa vain mallinimen takia noin kalliin tuotteen ilman mitään perehtymistä niin ehkä joutaakin eroamaan rahoistansa? Mulla olis taikapapuja myytävänä, vain tonnin kipale. Aika sama onko se nimi 4080,4070 vai blingbling2001, jos tsekkaa arvostelut.
 
Kai ton hintaisessa tuotteessa kuluttaja tsekkaa suorituskyvyn ennen ostamista. Ei voi kusta silmään, jos vilkaisee arvostelut. Tosin, jos ostaa vain mallinimen takia noin kalliin tuotteen ilman mitään perehtymistä niin ehkä joutaakin eroamaan rahoistansa? Mulla olis taikapapuja myytävänä, vain tonnin kipale. Aika sama onko se nimi 4080,4070 vai blingbling2001, jos tsekkaa arvostelut.
Hienosti hermanni. Meinaatkos että mamma ja pappa jotka ostaa villepetterille konneen ku on toivottu että siinä o vaikka rtx4080 ni tietää eron 16gb ja 12gb välillä? Toi on ihan suoraan kuluttajan harhauttamista tuo nimeäminen ja itsekkin tiedät sen.
 
Hienosti hermanni. Meinaatkos että mamma ja pappa jotka ostaa villepetterille konneen ku on toivottu että siinä o vaikka rtx4080 ni tietää eron 16gb ja 12gb välillä? Toi on ihan suoraan kuluttajan harhauttamista tuo nimeäminen ja itsekkin tiedät sen.

Jos ostaa sian säkissä niin saa sian säkissä, tai ehkä hermannin. Ton hintaluokan vehkeissä kannattaa kyllä ne arvostelut tsekata ennen ostamista. Tai sit on niin paljon ylimääräistä rahaa ettei vaan kiinnosta ja mulla olis niitä taikapapuja tonnin kipale myynnissä.
 
Jos ostaa sian säkissä niin saa sian säkissä, tai ehkä hermannin. Ton hintaluokan vehkeissä kannattaa kyllä ne arvostelut tsekata ennen ostamista. Tai sit on niin paljon ylimääräistä rahaa ettei vaan kiinnosta ja mulla olis niitä taikapapuja tonnin kipale myynnissä.
Ei voi tsekkaa arvosteluja, pakko ostaa ja sitten katsoa jos meinasi kortin julkkarissa saada.
 
Kai ton hintaisessa tuotteessa kuluttaja tsekkaa suorituskyvyn ennen ostamista. Ei voi kusta silmään, jos vilkaisee arvostelut. Tosin, jos ostaa vain mallinimen takia noin kalliin tuotteen ilman mitään perehtymistä niin ehkä joutaakin eroamaan rahoistansa? Mulla olis taikapapuja myytävänä, vain tonnin kipale. Aika sama onko se nimi 4080,4070 vai blingbling2001, jos tsekkaa arvostelut.
Hyvä ohje yleisesti ottaen jonka takia jäin ilman korttia 3000 sarjan kanssa. En usko saman tapahtuvan nyt, eiköhän noita kortteja riitä. Osa taas haluaa varmistaa saavansa kortin ja maksaa. Onhan noissa kuitenkin palautusoikeus.
 
Jos ostaa sian säkissä niin saa sian säkissä, tai ehkä hermannin. Ton hintaluokan vehkeissä kannattaa kyllä ne arvostelut tsekata ennen ostamista. Tai sit on niin paljon ylimääräistä rahaa ettei vaan kiinnosta ja mulla olis niitä taikapapuja tonnin kipale myynnissä.
Vaikka kuinka olenkin samaa mieltä, että henkilön tulisi perehtyä siihen mitä ostaa, niin tuo ei silti poista sitä faktaa että Nvidia yrittää harhauttaa ostajaa.

Ei tuo ole joko/tai tilanne, vaan sekä kortin paremmasta tietämättä ostanut kuluttaja että tätä tarkoituksella harhauttanut myyjä ovat syypäitä.
 
Vaikka kuinka olenkin samaa mieltä, että henkilön tulisi perehtyä siihen mitä ostaa, niin tuo ei silti poista sitä faktaa että Nvidia yrittää harhauttaa ostajaa.

Ei tuo ole joko/tai tilanne, vaan sekä kortin paremmasta tietämättä ostanut kuluttaja että tätä tarkoituksella harhauttanut myyjä ovat syypäitä.
Tästä kyllä samaa mieltä. Käytännössä nvidia lähti tuolle tielle jo 3060 12gb:lla. Tuon takia jotkut valitsivat 3060 3060ti:n sijaan, kun muistia sai enemmän ja vielä halvalla! Mutta juu, entistä enemmän pitäisi tietää mitä ostaa, ettei tule "huojatuksi". Onneksi tuo muistimäärä on selkeästi esillä, niin kaikkien asiasta tietävien on mahdollista erottaa mallit toisistaan
 
Tästä kyllä samaa mieltä. Käytännössä nvidia lähti tuolle tielle jo 3060 12gb:lla. Tuon takia jotkut valitsivat 3060 3060ti:n sijaan, kun muistia sai enemmän ja vielä halvalla! Mutta juu, entistä enemmän pitäisi tietää mitä ostaa, ettei tule "huojatuksi". Onneksi tuo muistimäärä on selkeästi esillä, niin kaikkien asiasta tietävien on mahdollista erottaa mallit toisistaan

Eihän tuo nyt ole millään tasolla verrattavissa tähän 12Gt 40"8"0 nimiperseilyyn, missä selvästi aivan eri, ja alemman tehokategorian kortti on nimetty ylemmän kategorian nimellä.

Millä nimellä sitä 3060 12Gt mallia olisi pitänyt sitten kutsua, että ei olisi johdettu harhaan... Olisko siihen pitäny laittaa mallinen perään "Warning! slower than 3060 Ti"
 
Vaikken mikää hirvee fani olekkaan näille "LT/TI/XT/PE/LE/SE" lisänimille korteille, nii on tää jotenki vähän härskimpää että kortit on täysin samannimisiä eri muistimäärällä mutta kuitenki sit reilusti eritehosia.
 
Eihän tuo nyt ole millään tasolla verrattavissa tähän 12Gt 40"8"0 nimiperseilyyn, missä selvästi aivan eri, ja alemman tehokategorian kortti on nimetty ylemmän kategorian nimellä.

Millä nimellä sitä 3060 12Gt mallia olisi pitänyt sitten kutsua, että ei olisi johdettu harhaan... Olisko siihen pitäny laittaa mallinen perään "Warning! slower than 3060 Ti"
3050ti 12gb? No lopetetaan tämä vanhojen tuotteiden offtopic, kun ei liity tulevaan tuotesarjaan
 
3050ti 12gb? No lopetetaan tämä vanhojen tuotteiden offtopic, kun ei liity tulevaan tuotesarjaan

Mitäs järkeä tuossa nyt olisi ollu, että oltaisi pistetty leikatumman piirin mallini 3060:lle... Sehän se vasta taas olisi ollutkin harhaanjohtamista, vaikkakin toisin päin.
 
Vaikken mikää hirvee fani olekkaan näille "LT/TI/XT/PE/LE/SE" lisänimille korteille, nii on tää jotenki vähän härskimpää että kortit on täysin samannimisiä eri muistimäärällä mutta kuitenki sit reilusti eritehosia.
Niin, se kortin nimen pitäisi ilmaista sen verrannollinen suorituskyky, ja muistin määrä ilmaisee muistin määrän.
Tällä logiikalla voi tulla 4080 20gb jossa on vähemmän cuda coreja kuin 4080 12gb, miksi ei?
 
Mitäs järkeä tuossa nyt olisi ollu, että oltaisi pistetty leikatumman piirin mallini 3060:lle... Sehän se vasta taas olisi ollutkin harhaanjohtamista, vaikkakin toisin päin.
On sitä ennenkin ollut eri piirillä kortteja samassa sarjassa, kuten GTX 660 (gk102) ja GTX 660ti (gk104, joka on myös GTX 670).

Eikä tuossa minunkaan ideassa ole järkeä, eikä sitä tilannetta muuta vaikka asiaa miten veivaa. Nvidia tekee omat päätöksensä ja meille jää lopulta aina vaan maksajan rooli. Josko nyt kuitenkin jatketaan siitä, että epäselvä tilanne on tulevan 4080:n kanssa, eikä tuollaisia nimeämisiä olisi hyvä tehdä. Olisi tehokkaampi malli ollut sitten vaikka rtx 4085 16gb
 
NVIDIA Vice President of Applied Deep Learning Research Bryan Catanzaro:


Eli tuosta voisi päätellä DLSS3 lisäävän viivettä. Vaikka FPS olisi korkea, niin tämä ei välttämättä välity pelikokemukseen. Tätä voi auttaa ottamalla käyttöön Nvidia Reflexin, jota myös vanhemmat kortit tukee. Onkohan tämä teknologia vähän kuin joku huiputus, millä saadaan fps testi näyttämään korkealta :psmoke:
Nvidian mukaan DLSS3 voi kuulemma laskea viivettä jopa kaksinkertaisesti. Tuon sivun yhdessä kuvassa näyttäisi olevan jopa 161ms>55ms parannus DLSS3 ja Reflex päällä vs molemmat pois. En sitten tiedä olisiko viive vielä pienempi perus DLSS2:lla ja Reflexillä.
 
Nvidian mukaan DLSS3 voi kuulemma laskea viivettä jopa kaksinkertaisesti. Tuon sivun yhdessä kuvassa näyttäisi olevan jopa 161ms>55ms parannus DLSS3 ja Reflex päällä vs molemmat pois. En sitten tiedä olisiko viive vielä pienempi perus DLSS2:lla ja Reflexillä.

Täysin hyödytön kuva, kun verrataan kahta täysin eri asiaa. Pitäis verrata dlss3 101 fps ja natiivi 101 fps.

Ja muutenkin, 55ms on aika huomattava määrä input lagia, joten varmistanee sen, että fps dlss3:lla ei tunnu samalta kuin sama fps natiivina.
 
On sitä ennenkin ollut eri piirillä kortteja samassa sarjassa, kuten GTX 660 (gk102) ja GTX 660ti (gk104, joka on myös GTX 670).

Eikä tuossa minunkaan ideassa ole järkeä, eikä sitä tilannetta muuta vaikka asiaa miten veivaa. Nvidia tekee omat päätöksensä ja meille jää lopulta aina vaan maksajan rooli. Josko nyt kuitenkin jatketaan siitä, että epäselvä tilanne on tulevan 4080:n kanssa, eikä tuollaisia nimeämisiä olisi hyvä tehdä. Olisi tehokkaampi malli ollut sitten vaikka rtx 4085 16gb

Juu ei tietenkään pitäisi tehdä typeriä ja harhauttavia nimeämistä ala 4080 12Gt, mutta RTX 3060 12Gt on täydellinen ja oikea nimi sille tuotteelle. Se kertoo täsmälleen oikein, mikä tuote on kyseessä. RTX 3060 jossa on 12Gt muistia. Se on sitten asiakkaan vastuulla selvittää, millainen nahdollinen vaikutus isommalla muistimäärällä on suorituskykyyn.
 
Mielenkiinnolla odottelen noita oikeita testejä dlss3:n vaikutuksista kuvanlaatuun. 30fps tai alle materiaalilla voi olla vaikea arpoa seuraavaa freimiä ilman artefakteja. 60fps kamasta saa jo melko helpolla 120fps kun esim monet tv:tkin siihen kykenee, täysin eri tavalla tietysti input lagin kustannuksella. Ja dioissa oli käytetty max performance -tilaa eli heikointa kuvanlaatua?

Jos totetutus hioutuu joskus niin hyväksi ettei virheitä huomaa monitorietäisyydeltä niin kehitysloikka käytännön suorituskyvyssä on merkittävä. Vielä tässä hetkessä en usko sekuntiakaan etteikö tuossa olisi haittapuolia liikaa, ellei pelaa parin metrin päästä pieneltä tv ruudulta ohjaimella hidastempoisia pelejä.
 
Mielenkiinnolla odottelen noita oikeita testejä dlss3:n vaikutuksista kuvanlaatuun. 30fps tai alle materiaalilla voi olla vaikea arpoa seuraavaa freimiä ilman artefakteja. 60fps kamasta saa jo melko helpolla 120fps kun esim monet tv:tkin siihen kykenee, täysin eri tavalla tietysti input lagin kustannuksella. Ja dioissa oli käytetty max performance -tilaa eli heikointa kuvanlaatua?
Jep, varmaan demottu performance modessa just siksi, että freimien välinen ero pysyisi pienenä ja kuvanlaatuhäikät tällöin vähäisemmät.

Performance modessa DLSS kuvanlaatu on jo muutenkin aika heikkoa ja vielä heikennetään tuolla sitten lisää... Ei ole kyllä kovin korkealla odotukset tälle härpäkkelle. Toivottavasti yllättää positiivisesti.
 
NVIDIA GeForce RTX 4090 Runs At Up To 2850 MHz at Stock Within 50C Temps In Cyberpunk 2077, DLSS 3 Cuts GPU Wattage By 25%

Cyberpunk 2077 1440P (Max Settings + Ultra RT + Psycho) 60fps ilman DLSS 3 (461 Watts)
1440p resolla melkein voi jo pelata 60fps! Seuraavassa genissä sitten locked.
 
Vilkaisin vähän foorumin näyttismyyntialuetta, ja ihan kuin siellä olisi vähän ruuhkaa. Mahtaakohan nVidian kermankuorinta onnistua? :kahvi:
 
Vilkaisin vähän foorumin näyttismyyntialuetta, ja ihan kuin siellä olisi vähän ruuhkaa. Mahtaakohan nVidian kermankuorinta onnistua? :kahvi:
Eipä vielä näytä ainakaan kauppahinnat juuri pudonneen, vaikka tarjontaa on toki paljon enemmän aiempaan verrattuna.
Varmaankin vanhojen hintaspekulointiin olisi oikeampi ketju tuo
 
Täysin hyödytön kuva, kun verrataan kahta täysin eri asiaa. Pitäis verrata dlss3 101 fps ja natiivi 101 fps.

Ja muutenkin, 55ms on aika huomattava määrä input lagia, joten varmistanee sen, että fps dlss3:lla ei tunnu samalta kuin sama fps natiivina.

Se viive on myös huonompi 101 fps dlss3:lla verrattuna 60fps ilman dlss3sta.
 
Täysin hyödytön kuva, kun verrataan kahta täysin eri asiaa. Pitäis verrata dlss3 101 fps ja natiivi 101 fps.

Ja muutenkin, 55ms on aika huomattava määrä input lagia, joten varmistanee sen, että fps dlss3:lla ei tunnu samalta kuin sama fps natiivina.
Itse en näkisi järkeä tuommoisessa testissä. Jos peli pyörii jo natiivina 101fps niin miksi siihen kukaan sotkisi DLSS alunperinkään? Koko DLSS on kehitetty sitä varten että natiivina peli pyörii päin persettä joten otetaan DLSS mukaan ja saadan enemmän fps.
 
AD103 378,6mm²

AD104 294,5mm²




Smith vielä erikseen vahvistaa Nvidian sanoneen AD103:ssä olevan 80SM yksikköä mikä on tuolla twitterin kommenteissa aiheuttanut ihmetystä. Ei vissiin mene yksiin 112 ROP-yksikön kanssa.
 
AD103 378,6mm²

AD104 294,5mm²



Smith vielä erikseen vahvistaa Nvidian sanoneen AD103:ssä olevan 80SM yksikköä mikä on tuolla twitterin kommenteissa aiheuttanut ihmetystä. Ei vissiin mene yksiin 112 ROP-yksikön kanssa.


nVidialla ROPien määrää ei ole yli kymmeneen vuoteen sidottu laskentaytimien määrään, ne ovat olleet erillään. Sen sijaan ROPien määrä on joissain (ei ehkä kaikissa?) nVidian viime aikojen arkkitehtuureissa sidottu DRAM-muistiohjainten (muistikanavien) määrään.

TMUiden määrä sen sijaan on sidottu laskentaytimien määrään, TMUt on aina suoraan liitetty johonkin laskentaytimeen.
 
nVidialla ROPien määrää ei ole yli kymmeneen vuoteen sidottu laskentaytimien määrään, ne ovat olleet erillään. Sen sijaan ROPien määrä on joissain (ei ehkä kaikissa?) nVidian viime aikojen arkkitehtuureissa sidottu DRAM-muistiohjainten (muistikanavien) määrään.
Itseasiassa luin vähän väärin, tuolla sanotaan 112 ROPin viittaavan seitsemään GPC:hen, joka viittaa 84 SM:ään, mutta ehkä tolla ei lopputuloksen kannalta ole merkitystä, jos tosiaan ovat sidottu muistiohjaimien määrään.




SM määrät ilmeisesti muissa siruissa 12x GPC:iden määrä, mutta tuo AD103:n 80 SM ei ole 12:lla jaollinen, joten ehkä vähän eri struktuuri sitten.

Turingissahan TU102 ja TU104:ssä oli sama määrä GPC:itä mutta eri määrä SM:iä, eli vähän eri rakenne.
 
Jos ihmiset ei ostais noita isoja kalliita kortteja niin niiden tekeminen loppuisi ja saisi vain sitä halvempaa kaupasta. Ei 4090:en BOM muutu siitä yhtään halvemmaksi osti niitä porukka tai ei. Jäis vain ad102 kokonaan tekemättä ja olis vain joku ad104 kaupassa. Vrt. jos jengi lopettaa ferrarin ostamisen niin ei niitä ferrareita maagisesti tule kauppaan toyotan hinnalla.

Lienee kuitenkin ihan kivat n. 70% kate valmistuskustannusten jälkeen noissa top level korteissa (ainakin chipin osalta).
 
Lueskelin PC Gamerin artikkelia 4080-korteista ja kyllähän tuo pettymys alkaa nousta alkuinnostuksen jälkeen pintaan. Artikkelissa sanotaan mm. että nVidia tietää tarkalleen mitä AMD:ltä on tulossa ja 4080-korteista on tehty vain "tarpeeksi hyvät". Ja siinä missä 3080:ssa oli n. 80 % 3090:n shadereista, niin 4080:ssa (16GB) on vain 59 % 4090:n shadereista. Toistaiseksi en tee ostopäätöstä mistään, vaan odottelen arvosteluita.
 
Generaatio generaatiolta itseni kaltaiselle ns tarkan markan budjettipelaajalle tilanne on huonontunut.
Ennemminkin jo kirjoittanut, että 3000 sarjassa oli kehno suuntaus eli hinta putosi suurinpiirtein samassa suhteessa kuin tehot -> Aiemmin budjettipelaaja sai paremmin tehoa pienemmällä rahalla.
Mittarina käytetty Techpowerupin relative perfonmance listausta ja julkaisuhintaa dollareina.

Nyt eilen piirtelin excelillä käppyrät:
1000.png
2000.png
3000.png

Nyt julkaistusta 4000 sarjastahan ei ole oikeata dataa saatavilla, vain Nvidian itsensä julkaisemat muutamat pelit.
Niiden kertoma on vieläkin tasapäisempää teho/hinta leikkausta kuin 3000 sarjassa.
4000.png
 
Lueskelin PC Gamerin artikkelia 4080-korteista ja kyllähän tuo pettymys alkaa nousta alkuinnostuksen jälkeen pintaan. Artikkelissa sanotaan mm. että nVidia tietää tarkalleen mitä AMD:ltä on tulossa ja 4080-korteista on tehty vain "tarpeeksi hyvät". Ja siinä missä 3080:ssa oli n. 80 % 3090:n shadereista, niin 4080:ssa (16GB) on vain 59 % 4090:n shadereista. Toistaiseksi en tee ostopäätöstä mistään, vaan odottelen arvosteluita.

Aika tylyä kommentointia PC-gamerilta kyllä... Saa nähdä miten käy. Noh, eiköhän 3060 ti palvele vielä useamman vuoden... :rolleyes:
 
Generaatio generaatiolta itseni kaltaiselle ns tarkan markan budjettipelaajalle tilanne on huonontunut.
Mittarina käytetty Techpowerupin relative perfonmance listausta ja julkaisuhintaa dollareina.

Onko tuo inflaatiokorjattu? Muutenhan se ei kerro hinnasta kovinkaan paljon. Toki yleinen elektroniikan hinnan lasku jonkin verran vaikuttaa, mutta eipä tuota hinnan laskua muillakaan komponenteilla enää juuri tapahdu (vaan samalla rahalla saa hivenen enemmän, esim. kapasiteettia kuin vuosi sitten).


Mutta olen kyllä sinällään samaa mieltä, että budjetti pelaajalle ei ole Nvidialta tullut juuri 1000 sarjan jälkeen mitään.
 
Onko tuo inflaatiokorjattu? Muutenhan se ei kerro hinnasta kovinkaan paljon. Toki yleinen elektroniikan hinnan lasku jonkin verran vaikuttaa, mutta eipä tuota hinnan laskua muillakaan komponenteilla enää juuri tapahdu (vaan samalla rahalla saa hivenen enemmän, esim. kapasiteettia kuin vuosi sitten).


Mutta olen kyllä sinällään samaa mieltä, että budjetti pelaajalle ei ole Nvidialta tullut juuri 1000 sarjan jälkeen mitään.
Inflaatio ei juuri vaikuta, jos saman generaation kortteja verrataan vain keskenään. Muutenkin näkisin että 500€ kortti on 500€ kortti ja 550€ kortti 2 vuoden päästä on kalliimpi, vaikka inflaatio olisi mitä. Ainakaan oma ostovoimani nouse inflaation noustessa, jolloin jokainen euro on pois samalla tavalla taskusta
 
Ei se samaan generaatioon vaikutakaan, mutta jos lähdetään vertaamaan yleisesti vähänkään pidemmälle niin onhan sillä massiivinen vaikutus.

Mitä budjetti pelaamiseen tulee, niin ei siitä montaa vuotta ole kun rx580 sai kaupasta sillä 150 eurolla ja itsekin ostin 2600x:n alle 120e jimssistä. Noiden edullisempien korttien hinta on sinänsä pysynyt hyvin omistuksessa, kun uudet kortit eivät noille hintatasoille ole laskeneet missään vaiheessa.
 

Statistiikka

Viestiketjuista
262 783
Viestejä
4 565 701
Jäsenet
75 021
Uusin jäsen
nlksu

Hinta.fi

Back
Ylös Bottom