Galaxin vuotanut dia varmistaa RTX 3080 20 Gt:n ja muita julkaisemattomia malleja

Kaotik

Banhammer
Ylläpidon jäsen
Liittynyt
14.10.2016
Viestejä
22 630
galax-nvidia-geforce-rtx-30-slide-20200924.jpg


Kaotik kirjoitti uutisen/artikkelin:
NVIDIA on julkaissut ensimmäiset kolme GeForce RTX 30 -sarjan näytönohjainta ja saanut niistä myyntiin asti RTX 3080 10 Gt:n ja RTX 3090:n. Gigabyten verkkosivuille lipsahtaneet tiedot kuitenkin vihjasivat yhtiöllä olevan valmisteilla pitkä liuta muitakin RTX 30 -sarjan näytönohjaimia. Myös NVIDIAn oma whitepaper-julkaisu viittaa RTX 3080 -malliin nimenomaan 10 Gt:n versiona, mikä on kyseisissä julkaisuissa poikkeuksellista.

Nyt nettiin on vuotanut Galaxin tapahtumassa esitelty diagrammi, jossa on esillä jo julkaistujen näytönohjainten lisäksi kolme vielä julkaisematonta RTX 30 -sarjan jäsentä. Galaxin diassa RTX 30 -sarjan näytönohjaimet on asetettu rinnakkain RTX 20 -sarjan mallien kanssa suhteessa niiden suorituskykyyn.

Dian mukaan GeForce RTX 3070 tulisi jäämään jonkin verran jälkeen GeForce RTX 2080 Ti:stä, vaikka NVIDIA ehtikin jo mainostaa niiden olevan yhtä nopeita. Todennäköisesti NVIDIAn lupaus suorituskyvystä perustuikin vain Minecraft RTX- ja Quake II RTX -suorituskykyyn, kuten lupaus 3080:n kaksinkertaisesta nopeudesta RTX 2080:een nähden.

RTX 3070:n suorituskyvyn lisäksi taulukossa on kuitenkin myös mielenkiintoisia yksityiskohtia. GeForce RTX 3080:sta on listattu 10 Gt:n lisäksi myös 20 Gt:n versio, kuten odotettua, jonka lisäksi RTX 3080:n ja RTX 3070:n väliin on mahtumassa ”PG142 SKU 0”, josta ei ole vielä tarkempaa tietoa. Pakan pohjimmaiseksi listataan RTX 3060, joka tarjoaisi vastaavaa suorituskykyä, kuin GeForce RTX 2080.

Lähde: HXL @ Twitter

Linkki alkuperäiseen juttuun
 
Viimeksi muokattu:
Kannibalisoiko Nvidia nyt vähän tuota 3090:tä kun tälläkin hetkellä erot 3080 ja sen välillä 10-15% . . .

Jos tämä kuitenkin käy toteen niin näyttää jo paljon houkuttelevammalta 20GB muistilla, sitä odotellessa.
 
Näyttäisi tuo 3060 olevan aika kova 1080p näytön kaveriksi. Vähän ajattelinkin, että jos vanhat merkit paikkansa pitävät, on 3060 tehoissa suurinpiirtein tasoissa 2080:n kanssa. Hinnastahan se toki riippuu onko järkevämpi ostaa tuo 3060 3070:n sijaan. Tämän hetkiset 600€ ja ylöspäin hinnat ovat ainakin itselle liikaa 3070:stä.
 
Vielä kun joku leakkais ton 20gb mallin hinnan niin olisi loisto juttu.
 
Jos 3070 ei edes ole täysin 2080 Ti:n suorituskykyvastaava ja kortin tehonkulutuskin on vielä vain 30W alempi, niin ei kyllä ole arkkitehtuuri kehittynyt paljoa mitään...
(tai Samsungin node sukkaa ja kovaa)
 
Kannibalisoiko Nvidia nyt vähän tuota 3090:tä kun tälläkin hetkellä erot 3080 ja sen välillä 10-15% . . .

Jos tämä kuitenkin käy toteen niin näyttää jo paljon houkuttelevammalta 20GB muistilla, sitä odotellessa.
Tämäkin tukee sitä, että 3090 oli Titan RTX:n päivitys ja 3080 20GB puolestaan 2080 Ti:n vastaava.
 
Jos 3070 ei edes ole täysin 2080 Ti:n suorituskykyvastaava ja kortin tehonkulutuskin on vielä vain 30W alempi, niin ei kyllä ole arkkitehtuuri kehittynyt paljoa mitään...
(tai Samsungin node sukkaa ja kovaa)

Piti ihan tarkistaa Nvidian sivuilta teknisiä tietoja ja tosiaan, ero vain tuo 30w spekseissä. Jos tämä on vähän 2080Ti:tä hitaampi, on perf/w samaa luokkaa korteilla. EI hyvältä vaikuta, taitaa olla Samsungin 8nm hyvin kaukana vrt TSMC 7nm.
 
Millähän "take my money" -kansa perustelee 3090 rtx:n tarpeellisuuden, kun tuosta 3080:sta tulee tämä 20 gigan versio ? Samaan arkkitehtuuriinhan nuo perustuu.
 
Millähän "take my money" -kansa perustelee 3090 rtx:n tarpeellisuuden, kun tuosta 3080:sta tulee tämä 20 gigan versio ? Samaan arkkitehtuuriinhan nuo perustuu.
Eiköhän suurin osa kenellä on tämä "pakko saada isoin ja paras ekana heti" kirous niin ostele enemmänkin vain saadakseen ja sanoakseen, ei tuota 3090:tä kukaan järki ihminen osta vaikka rahaa on, ellei sitten firman piikkiin devaajille työkäyttöön.
 
3090 on niin törkykallis että todennäköisesti nvidia rahastaa 3080 20Gt mallilla sen 1000€ luokkaa heti kättelyssä.
 
Oliko Quake II RTX samaan tapaan vain RTX raudalla toimiva kuin Minecraft?
 
Oliko Quake II RTX samaan tapaan vain RTX raudalla toimiva kuin Minecraft?

Kyllä se GTX:llä pyörii emuloituna, mutta todella hitaasti. Sain pelattua sitä 1070:lla 720P resoluutiolla hädin tuskin pelattavana ja 2070:llä näytön resolla ihan kivasti.
 
En kyllä ymmärrä tätä jatkuvaa hämmästelyä, vinoilua heitä kohtaan jotka "kehtasivatkin" tilata 3090-kortin.

.. taisipa joku haukkua tilanneita "valopäiksi" ;)

Itse peruutin oman 3090 tilauksen ja tilalle tuli 3080 mutta siltikään en hetkeäkään ole ihmetellut jos joku muu haluaa itselleen 3090 ja on siitä valmis maksamaan tuplasti vs 3080.
 
En kyllä ymmärrä tätä jatkuvaa hämmästelyä, vinoilua heitä kohtaan jotka "kehtasivatkin" tilata 3090-kortin.

.. taisipa joku haukkua tilanneita "valopäiksi" ;)

Itse peruutin oman 3090 tilauksen ja tilalle tuli 3080 mutta siltikään en hetkeäkään ole ihmetellut jos joku muu haluaa itselleen 3090 ja on siitä valmis maksamaan tuplasti vs 3080.

Ei ole tässä threadissa kukaan haukkunut ketään 3090:n tilaajaa valopääksi tai muuten vinoillut. Jos henkilö X ei jostain syystä halua ymmärtää/hyväksyä sitä että 3090 on huono sijoitus, varsinkin pelaamiseen niin sanoisin että henkilö joka näin ajattelee ei tiedä rajaa haluamisen ja tarpeen välillä.
 
  • Tykkää
Reactions: E.T
Eikö se nyt tullut jo aika selväksi myös io-techin puolelta että 3090 ei vaan kannata hankkia. Itse odottelen 3060 koska köyhä.
 
Eikö se nyt tullut jo aika selväksi myös io-techin puolelta että 3090 ei vaan kannata hankkia. Itse odottelen 3060 koska köyhä.

No ei se nyt ihan niinkään mene. 3090 on heikkoa arvoa puhtaaseen pelikoneeseen, mutta jos teet tuottavaa työtä kortilla niin sehän on varsin mainio ostos tuohonkin hintaan. Ja toisaalta jos koneessa on muutenkin 10900K ja 2080Ti, eli ainoastaan pelisuorituskyky kiinnostaa, niin rahan löytyessä tässä on marginaalin pienuudesta huolimatta silti kiistatta markkinoiden kovin kortti pelaamiseen.

Niille jotka haluaa kovan pelikortin mutta tahtoo pitää molemmat munuaisensa, 3080 on paras ratkaisu.

Niiden jotka haluaa parasta vastinetta vähille rahoilleen on paras odottaa ainakin 3070 jonka voisi kuvitella vielä 3080:aakin parempaa arvoa. Jos/kun 3060 tulee ja olisi dian mukaisesti uusi 2080 hintahaarukassa 300-350 niin epäilen että kaupan ovella on jonoa senkin kortin saapuessa.

Tähän soppaan sitten vielä kohderesoluutiot, eli mitä "kannattaa" tehdä riippuu pitkälti siitä mikä se tavoite (ja budjetti) on.
 
Voisiko "PG142 SKU 0" olla aiemmin huhuttu RTX 3070 Super (Ti) 16Gt? Mitä Google Lensillä yritin tsekkailla, niin eri väriset viivat jaottelevat mallit suorituskyky tasoihin. Silloin olisi molemmissa xx70 Super sinisen viivan päällä.
Tuo vaikuttaisi kyllä järkevimmältä. Suorituskyvyn puolesta 3070:n ja 3080:n välissä on sopiva paikka 3070 Super/Ti-mallille. Hinnan puolesta tuossa ei ole kyllä väliä juuri yhtään, jos nuo tämänhetkiset hinnat (alkaen noin 600€) 3070:lle pitävät paikkansa. Toisaalta, jos tuleva 3080 20G korvaisi 3080 10G:n ja 3070 Super/Ti 3070:n, niin sitten se olisi vähän järkevämpää.

Nytkin tilanne on se, että en ainakaan itse maksaisi 3070:tä yli 550€:a. Jos joku Asuksen Dual on jo +600€ niin samantien ottaa sitten sen 3080 TUFin 739€:lla.
 


Niin...eihän se 3090 sitten ollutkaan mikään Titanin korvike? tehokäytön ominaisuuksia karsittu pois.
 
Näyttäisi tuo 3060 olevan aika kova 1080p näytön kaveriksi. Vähän ajattelinkin, että jos vanhat merkit paikkansa pitävät, on 3060 tehoissa suurinpiirtein tasoissa 2080:n kanssa. Hinnastahan se toki riippuu onko järkevämpi ostaa tuo 3060 3070:n sijaan. Tämän hetkiset 600€ ja ylöspäin hinnat ovat ainakin itselle liikaa 3070:stä.
Sitten tilaukseen se alle 600e Rtx3070 koska niitäkin tulee saataville.
Varmaan sieltä 3060 löytyy myös se ohjain(esim.Strix) joka hipoo edullisempien 3070 hintoja.

Itse odottelen 3060 koska köyhä.
Tai fixu ;) 3060 kyllä on varmasti hyvin puhtia 1080p/1440p pelailuun, miksipä ei jopa kevyempiin tai optionsilla karsittuna 4K pelailuunkin.
 
Diassa mielenkiintoisinta antia on tuo, ettei 3070 yllä ihan 2080 Ti:n tasolla vaikka NVidia sitä hehkutti, joka olikin aika odotettavaa kun katsoo 3080 vs 3070 speksejä.
 
Kyllä se GTX:llä pyörii emuloituna, mutta todella hitaasti. Sain pelattua sitä 1070:lla 720P resoluutiolla hädin tuskin pelattavana ja 2070:llä näytön resolla ihan kivasti.
Muotoillaans uudestaan - nämä ovat vain NVIDIAn korteilla toimivaa tavaraa, eivät DXR:n mukaista.
 
Piti ihan tarkistaa Nvidian sivuilta teknisiä tietoja ja tosiaan, ero vain tuo 30w spekseissä. Jos tämä on vähän 2080Ti:tä hitaampi, on perf/w samaa luokkaa korteilla. EI hyvältä vaikuta, taitaa olla Samsungin 8nm hyvin kaukana vrt TSMC 7nm.
Tässä on AMD:llä saumat mennä Nvidiasta selvästi ohi energiatehokkuudessa.
Mutta eihän huonompi energiatehokkuus koskaan ongelma olekaan, jos se sattuu Nvidialle...
 
Diassa mielenkiintoisinta antia on tuo, ettei 3070 yllä ihan 2080 Ti:n tasolla vaikka NVidia sitä hehkutti, joka olikin aika odotettavaa kun katsoo 3080 vs 3070 speksejä.
Veikkaan että se "yhtä nopea" tarkoittaa jotain Quake 2 RTX / Minecraft RTX settejä niin kuin joku 2080-3080-vertailukin oli
 
Miten se Quake voisi edes olla DXR:n mukaista tavaraa, kun se ei käytä DirectX:ää ollenkaan?
Vulkan enginen päälle näköjään tehty Q2VKPT Olisi voinut olla D3D myös. Niitäkin projekteja löytyy. Kärki oli kuitenkin se että toteutukset ovat vain NVIDIAn korteilla toimivia.
 
Kuinkahan paljon eroa mahtaa olla A100 piirin ja GA102 piirin välillä, sitten kun puhutaan oikeasti työn tekemisestä? Muistelen että vaikka Tesla on tuotenimenä kuopattu niin A100 pohjaisia PCIe kortteja olisi saatavilla. Onkohan jossakin tehty näiden välillä vertailuja?
 
Eli alkuvuodeksi voisi sitten odottaa kaiketi 20Gt.n julkaisua kun ollaan ensin saatu 10Gt myytyä halukkaimmille.

Tässä on AMD:llä saumat mennä Nvidiasta selvästi ohi energiatehokkuudessa.
Mutta eihän huonompi energiatehokkuus koskaan ongelma olekaan, jos se sattuu Nvidialle...
Ja Nvidialla ohi hinta+suorituskyvyssä? jota ainakin Amd ohjaimissa useampikin kiitellyt.
Mutta mitäs jos odottais ensin Amd ohjaimia ennenkuin ketään kruunaa ja Amd nvidia väännölle löytyy omakin ketju ettei täällä tarvi sohlata
 
Viimeksi muokattu:
Vulkan enginen päälle näköjään tehty Q2VKPT Olisi voinut olla D3D myös. Niitäkin projekteja löytyy. Kärki oli kuitenkin se että toteutukset ovat vain NVIDIAn korteilla toimivia.
Jos se olisi DXR:llä se toimisi millä vain sitä tukevalla ellei sitä erikseen estetä
 
Eli alkuvuodeksi voisi sitten odottaa kaiketi 20Gt.n julkaisua kun ollaan ensin saatu 10Gt myytyä halukkaimmille.


Ja Nvidialla ohi hinta+suorituskyvyssä? jota ainakin Amd ohjaimissa useampikin kiitellyt.
Mutta mitäs jos odottais ensin Amd ohjaimia ennenkuin ketään kruunaa ja Amd nvidia väännölle löytyy omakin ketju ettei täällä tarvi sohlata
Hieman epäilen että tuo 20Gt versio tulee olemaan lähinnä "markkinointia" AMD:tä vastaan, josta tulee huhujen mukaan löytymään enimmillään 16Gt, itse suorituskykyyn sillä tuskin on isoa (mitään?) vaikutusta. "Siinä enemmän muistia, pakko olla parempi", mutta senpä näkee sitten.
 
Hieman epäilen että tuo 20Gt versio tulee olemaan lähinnä "markkinointia" AMD:tä vastaan, josta tulee huhujen mukaan löytymään enimmillään 16Gt, itse suorituskykyyn sillä tuskin on isoa (mitään?) vaikutusta. "Siinä enemmän muistia, pakko olla parempi", mutta senpä näkee sitten.

Näin on ollut aina niin kauan kuin näyttiksiä on markkinoitu.

Muistan hyvin kuinka oli pakko saada GeForce 256 DDR eikä riittänyt SDR malli vaikka tuolloin olisi ollut järkevämpää pistää erotus pennit ja markat ihan muihin osiin kuin kuuminta hottia olevaan double data rate muistiin...
 
Näin on ollut aina niin kauan kuin näyttiksiä on markkinoitu.

Muistan hyvin kuinka oli pakko saada GeForce 256 DDR eikä riittänyt SDR malli vaikka tuolloin olisi ollut järkevämpää pistää erotus pennit ja markat ihan muihin osiin kuin kuuminta hottia olevaan double data rate muistiin...
GeForce 256 DDR oli selvästi nopeampi kuin SDR-versio.
edit: Lainaten AnandTechin muinaista arvostelua
The DDR GeForce is everything we expected from the original GeForce, unfortunately its high price tag will keep it out of the hands of many. The performance of the DDR GeForce so completely shadows that of the SDR version that it almost makes no sense to opt for the SDR version.
 
Kun resoluutioo nosti niin erot alkoi kasvamaan suuriksi DDR version hyväksi, matalemmalla resoluutiolla tietysti sitten erot olivat pienehköjä.
Kyllä ne erot olivat merkittäviä jo ihan sillä 640x480-resolla kuten tuossa revikassa näkyy.
 
Tässä on AMD:llä saumat mennä Nvidiasta selvästi ohi energiatehokkuudessa.
Mutta eihän huonompi energiatehokkuus koskaan ongelma olekaan, jos se sattuu Nvidialle...

Huonompi energiatehokkuus on ongelma, jos sattuu oelmaan kaksi yhtä nopeaa korttia, jotka maksavat saman verran.

Sen sijaan on 10% nopeampi kortti 5% hintapreemiolla ja 25% kovemmalla virrankulutuksella niin ainakin itse lähtökohtaisesti suosin sitä nopeamapaa korttia. Suuri virrankulutus on ongelma vasta kun se on: 150W vs 200W kortti ATX kopassa ei ole mikään ongelma. Sitten jos 150W kortissa onkin selkeästi enemmän kellotusvaraa, niin se voi olla järkevämpi ostos, JOS KELLOTTAA. Sit jos ero olisi 200W vs 350W niin alhaisemmalle virrankulutukselle voisi antaa jotain ihan oikeaa arvoakin, 350W kun oikeasti voi olla liikaa virtalähteelle ja kotelon ilmankierrolle
 
GeForce 256 DDR oli selvästi nopeampi kuin SDR-versio.
edit: Lainaten AnandTechin muinaista arvostelua

OT.
But then again, everything is relative, right? So the actual severity of the price depends on the overall experience though, correct? If you pay $300 for a graphics card and barely get an extra 5 fps under your favorite game then the card wasn't really worth $300 to you in the first place, now was it?
...
Tuon ajan huippukortti maksoi 300$, ja artikkelissa pohdittiin, onko noin kallis kortti hintansa arvoinen...
:geek:
 
GeForce 256 DDR oli selvästi nopeampi kuin SDR-versio.
edit: Lainaten AnandTechin muinaista arvostelua


Varmaan lukenut jotain vastaavaa silloin kun halusin tuon DDR mallin. Loppupeleissä muu kone ja varsinkin vanha 15" näyttö oli alimitoitettu tolle näyttikselle eli en ollut muistimarkkinoinnin uhri vaan näyttismarkkinoinnin :). Joku 2x halvempi riva tnt 2 olisi ollut parempi valinta. Sitä ennen tuli vedettyä integroidulla + voodoo 1, joten tehon hyppäys olisi ollut silti posketon.
 
Näin on ollut aina niin kauan kuin näyttiksiä on markkinoitu.

Muistan hyvin kuinka oli pakko saada GeForce 256 DDR eikä riittänyt SDR malli vaikka tuolloin olisi ollut järkevämpää pistää erotus pennit ja markat ihan muihin osiin kuin kuuminta hottia olevaan double data rate muistiin...
Tästä oli myös semmoinen variaatio että SDR muistillisia kortteja myytiin kaksin tai jopa nelinkertaisella muistimäärällä varustettuna verrattuna DDR malleihin. Ja DDR korteilta tuli turpaan niin että tuhina kävi.
 
Diassa mielenkiintoisinta antia on tuo, ettei 3070 yllä ihan 2080 Ti:n tasolla vaikka NVidia sitä hehkutti, joka olikin aika odotettavaa kun katsoo 3080 vs 3070 speksejä.

Sekin että molemmat lähteet suorituskyvylle on enemmän tai vähemmän summittaisia visuaalisuus edellä tehtyjä "sielläpäin" dioja/lausuntoja. NVIDIA varmasti poimii parhaat esimerkit ja Galax-dian ero voi tarkoittaa paria prosenttia tai viivojen kohdat voi olla täysin fontista eikä mistään muusta kiinni. Ylipäätään ilman lukuja tälläsiä dioja on mielestäni vähän turha alkaa liikaa tulkitsemaan.
 
Nyt kun Amperen julkaisusta on jo tovi vierähtänyt niin kyllähän tuo tarkemmin ajateltuna melko heikko esitys on kaikin puolin. Samsung 8nm on floppi, GDDR6X vie pirusti virtaa (eikä hyöty ilmeisesti ole edes kovin kummoinen?), ytimien kellot ja voltit nekin ovat ylikelloteltu valmiiksi överiksi, RT-suorituskyky ei noussut paljoa yhtään, hinnat edelleen turhan korkeat (pelkään AMD:n tulevaa hinnoittelua myös), kaatuilut, saatavuusongelmat..

Kirsikkana kakan päälle rahastus näillä Super-malleilla taas.. paljonkohan näillä 3080 Supereilla tulee olemaan hintaa, 1000-1200€? Huh huh.... Järkevät hiljaiset mallit sitten varmaan sen +1300€

Toivottavasti AMD julkaisee pikimmiten järkihintaan jonkin ~150W näykkärin, kunnon jäähyllä. Nämä Nvidian Fermit eivät kiinnosta
 
Sekin että molemmat lähteet suorituskyvylle on enemmän tai vähemmän summittaisia visuaalisuus edellä tehtyjä "sielläpäin" dioja/lausuntoja. NVIDIA varmasti poimii parhaat esimerkit ja Galax-dian ero voi tarkoittaa paria prosenttia tai viivojen kohdat voi olla täysin fontista eikä mistään muusta kiinni. Ylipäätään ilman lukuja tälläsiä dioja on mielestäni vähän turha alkaa liikaa tulkitsemaan.
Kyllähän tuosta diasta nyt pystyy tulkitsemaan, että 3070 on asemoitu 2080Ti:n alapuolelle ja 3060 tasoihin 2080:n kanssa. Vai ymmärsinkö nyt pointtisi väärin :)
Se on ihan totta, että siitä ei pysty näkemään kuinka paljon nopeampi 3060 on 2070 Superia tai 2080Ti 3070:tä.
 
Jäin muistelemaan että olikohan aikoinaan AMDllä samanlainen Samsung rajoite, kun NVIDIA teki piirinsä TSMC ja AMD glofo ja samsung. Elettiinköhän silloin 22/24nm aikaa? Exynos piirien kanssa oli myös aikoinaan eroja sen suhteen missä valmistettu. Olisiko tietoinen valinta että Samsung prosessit tuottavat ahnaita piirejä? Se mielenkiintoinen kysymys on sitten että miksi ja mitä prosessissa kompensoidaan? Vaikea uskoa että kyse olisi osaamattomuudesta.
 
Kyllähän tuosta diasta nyt pystyy tulkitsemaan, että 3070 on asemoitu 2080Ti:n alapuolelle ja 3060 tasoihin 2080:n kanssa. Vai ymmärsinkö nyt pointtisi väärin :)
Se on ihan totta, että siitä ei pysty näkemään kuinka paljon nopeampi 3060 on 2070 Superia tai 2080Ti 3070:tä.

3060 on asemoitu "tasoihin" myös 2080 Superin kanssa, siinä heti ollaan jo 5-10% heitolla liikenteessä. Ei taida 2080ti ja RTX Titankaan täsmälleen samoissa olla vaikka niilläkin viiva on sama.

Toisin sanoen tämä on tod. näk. enemmän näitä "keskiluokan kortti" tyyppisiä jaotteluja kuin täsmällinen suorituskykykaavio. Eli voimasuhteet on varmaan suurinpiirtein noin, mutta onko eroa 5 vai 25 prosenttia merkitsee paljon ja tuo kaavio ei kerro siitä oikein mitään.
 


Niin...eihän se 3090 sitten ollutkaan mikään Titanin korvike? tehokäytön ominaisuuksia karsittu pois.

Olisihan melko typerää myydä halvalla korttia, joka sitten korvaisi paljon kalliimman kortin. Tehokäyttöön tarkoitetut kortit ovat perinteisesti olleet kalleita ja halvemmista on perinteisesti karsittu ominaisuuksia s.e. ne eivät "houkutteleisi" liikaa tehokäyttöön. Tilanteessa ei ole mitään uutta.
 
Tuo ero Quadrojen hyväksi koskee ainoastaan OpenGL päällä pyöriviä softia (joita keinotekoisesti hidastetaan peliajureilla) Ja toisin kuin Linus tuossa veistelee, niin nuo alkaa olemaan siellä niche-kategoriassa. Esimerkiksi sellaisen pienen suunnitteluohjelmistoja tarjoavan yrityksen kuin Autodesk softat ei ole hyötyneet quadroista enää vuosiin. Muutehan sitten 3d-grafiikka ja GPU-laskenta alkavat punkemaan alalle kuin alalle ja näissä kuluttaja/prosumer -kategoriat tarjoavat ihan ylivoimaista suorituskykyä ainakin käytettyjä euroja kohden.

Ja tuo NVlink voi olla monessa asiassa se feature mistä kannattaa maksaa 2x hinta ja kyllä tuo 10% parannus monessa muussakin asiassa meinaa kustannusten tuplaantumista, silloin kun haetaan sitä absoluuttisesti parasta/nopeinta jne ratkaisua.
 
Vaativaa laskentaa tekevän duunarin palkkakustannukset on vuositasolla eläkemaksuineen luokkaa 80 000e. (About 50k/v liksaa ja päälle työnantajamaksut).

Jos 800e lisää maksamalla saa 1%:n verran lisää tuottavuutta, niin ollaan +-0:ssa. Jos saa 2% lisää tuottavuutta duunariin, niin 3080->3090 upgrade tuottaa jo voittoa työnantajalle.
 
Nyt ne on sit vissiin virallisesti peruttu (5:58):

e: Nvidia antoi vaparin AMD:lle kun siellä on kaikissa high end -korteissa 16GB.
 

Uusimmat viestit

Statistiikka

Viestiketjuista
261 566
Viestejä
4 540 438
Jäsenet
74 823
Uusin jäsen
MaxMonLar

Hinta.fi

Back
Ylös Bottom