NVIDIA varoittaa jo ennakkoon: GeForce RTX 3090:n saatavuus tulee olemaan rajoitettua

Kaotik

Banhammer
Ylläpidon jäsen
Liittynyt
14.10.2016
Viestejä
22 620
nvidia-geforce-rtx-3090-fe-20200901.jpg


Kaotik kirjoitti uutisen/artikkelin:
NVIDIAn ”BFGPU” eli GeForce RTX 3090 saapuu myyntiin ja arvosteluihin huomenna. Yhtiö on nyt julkaissut artikkelin, jossa se kertoo mitä näytönohjaimen julkaisulta on syytä odottaa.

GeForce RTX 3080:n myyntiintulo ei sujunut niin kuin toivottiin. Markkinoiden normaalia korkeampi kysyntä yhdistettynä vain normaalin julkaisun varastosaldoihin, botteihin ja trokareihin sai kaikki tahot myymään eioota. Nyt NVIDIA varoittaa jo valmiiksi, että RTX 3090 -näytönohjaimia tulee olemaan saatavilla vain rajoitetusti ja selvästi vähemmän, kuin pelaajille suunnattuja RTX 3080 -näytönohjaimia.

NVIDIAn mukaan GeForce RTX on suunniteltu Titan RTX:n korvaajaksi raskaaseen renderöintiin, sisällöntuotantoon ja tekoälykehitykseen, unohtamatta 8K-pelaamisen perään haikailevia harrastajia. Titan-sarjan jatkajana sen kohdemarkkinat ovat kuitenkin pelinäytönohjaimia kapeammat, minkä vuoksi myös sen saatavuus tulee olemaan heikompaa. NVIDIAn mukaan se työskentelee ahkerasti kumppaneidensa kanssa saadakseen myös RTX 3090 -näytönohjaimia enemmän tuotantoon tulevien viikkojen aikana.

Kenties hieman erikoisestikin, NVIDIA paljasti myös mitä näytönohjaimen pelisuorituskyvyltä on odotettavissa huomenna. Yhtiön mukaan GeForce RTX 3090 tulee peittoamaan RTX 3080:n 4K-resoluutiolla vain noin 10 – 15 %:n erolla huolimatta yli kaksinkertaisesta suositushinnastaan. Titan RTX:ään eroa syntyy yhtiön mukaan parhaimmillaan noin 50 %. NVIDIAn lupaukset suorituskyvystä osuvat varsin hyvin yksiin ensimmäisten testitulosvuotojen kanssa, sillä ne ovat lupailleet noin 10 – 20 %:n eroa.

io-tech tulee julkaisemaan huomenna Asuksen TUF Gaming RTX 3090-, Gigabyten RTX 3090 Gaming OC- ja MSI RTX 3090 Gaming X Trio -näytönohjaimiin pureutuvan arvostelun, mutta Founders Edition -malli saapuu testilaboratorioomme vasta hieman myöhemmin.

Lähde: NVIDIA

Linkki alkuperäiseen juttuun
 
Viimeksi muokattu:
Noin 15-20% teho ero RTX3080:seen ja yli 100% hintaero kuulostaa kyllä jokseenkin erikoiselta yhtälöltä? Saatavuus lähes nolla tuolla mutta ei tuo 3080:nkään nyt mitenkään helposti irtoa:) Joten kohta voidaan jo sanoa että paperijulkaisu ja tuhnuhan sieltä tuli. Toki Superit odottavat AMD:n julkkaria joten sitä paskamyrskyä odotellessa kun Nvidia lataa "uudet" näytönohjaimet myyntiin...heh.
 
Paperijulkaisua pukkaa Nvidialta edelleen siis. Jos tosiaan VAIN 15 - 20% suorituskykyero tuohon 3080:n, niin 3090 on käytännössä täysi floppi Nvidialta tuohon 1539 €:n hintaan jota suomesta löytyi halvimpana.

En yhtään ihmettele miksi Nvidia ilmoitti että SLI tuen kehitys Nvidian osalta loppuu. Tosin tälläkin oli kai tarkoitus vain hämmentää asiakkaita otsikolla ja harhaanjohtaa asiakkaita olla ostamatta 2x 3080, sillä todellisuudessahan vain SLI:n (nimi nykyään eri) optimointi siirtyi pelintekijöiden vastuulle. Olemassaolevat SLI -tuet ei myöskään katoa mihinkään.
 
Paperijulkaisua pukkaa Nvidialta edelleen siis. Jos tosiaan VAIN 15 - 20% suorituskykyero tuohon 3080:n, niin 3090 on käytännössä täysi floppi Nvidialta tuohon 1539 €:n hintaan jota suomesta löytyi halvimpana.

En yhtään ihmettele miksi Nvidia ilmoitti että SLI tuen kehitys Nvidian osalta loppuu. Tosin tälläkin oli kai tarkoitus vain hämmentää asiakkaita otsikolla ja harhaanjohtaa asiakkaita olla ostamatta 2x 3080, sillä todellisuudessahan vain SLI:n (nimi nykyään eri) optimointi siirtyi pelintekijöiden vastuulle. Olemassaolevat SLI -tuet ei myöskään katoa mihinkään.

Muistia on yli kaksinkertaisesti ja jotkut voivat maksaa extraa siitä, että heillä on paras näytönohjain.
Ei se RTX 2080 Ti ollut niin paljon parempi kuin RTX 2080 tai erityisesti RTX 2080 Super, niin tuo on niille ihmisille, joilla on sitä rahaa; ja toivottavasti ovat jo oppineet, että ostan max. 3v päästä tuommoisen viidelläsadalla.
 
Toi hinta on ihan järkevä niille jotka sen ostaa. Mitä ylemmäs mennään suorituskyvyssä niin sitä enemmän se yksi pykälä maksaa. Tosta muuten oli jo joku NVidian influencer kumppani tehnyt lyhyen 8k pelivideon. Tosin se oli minusta aika huono, koska se oli vain HD:lla nauhoitettu. Käytännössä täytyy vain uskoa tyypin puheeseen kuinka mahtavaa 8k on.
 
Muistia on yli kaksinkertaisesti ja jotkut voivat maksaa extraa siitä, että heillä on paras näytönohjain.
Ei se RTX 2080 Ti ollut niin paljon parempi kuin RTX 2080 tai erityisesti RTX 2080 Super, niin tuo on niille ihmisille, joilla on sitä rahaa; ja toivottavasti ovat jo oppineet, että ostan max. 3v päästä tuommoisen viidelläsadalla.

Jos kuitenkin haluaa kaksinkertaista tehoa, niin ostaa 2x 3080 niin saa sille rahalleen vastinettakin. Älytöntä hommaa ostaa jotain yksittäistä hitusen nopeampaa korttia kaksinkertaiseen hintaan.

Toi hinta on ihan järkevä niille jotka sen ostaa. Mitä ylemmäs mennään suorituskyvyssä niin sitä enemmän se yksi pykälä maksaa. Tosta muuten oli jo joku NVidian influencer kumppani tehnyt lyhyen 8k pelivideon. Tosin se oli minusta aika huono, koska se oli vain HD:lla nauhoitettu. Käytännössä täytyy vain uskoa tyypin puheeseen kuinka mahtavaa 8k on.

Tuo hinta ei ole järkevä kenellekään kuka sen ostaa. Täysin vedätyshinta. Jos pistetään pyörimään rinnakkain kokoonpanot joissa on 3080 RTX ja 3090 RTX niin jo noilla 3080 RTX:n vauhdeilla et huomaa kummassakaan mitään eroa käytännön tasolla vaikka olisit ykköstason kilpapelaaja.

Siitä 8k hommasta linus tech tips teki jo videon. Nvidia oli toimittanut näytönohjaimen kylkeen lapun jossa oli suositellut asetukset peleille. Arvaa oliko DLSS käytössä ?
 
Viimeksi muokattu:
Jos kuitenkin haluaa kaksinkertaista tehoa, niin ostaa 2x 3080 niin saa sille rahalleen vastinettakin. Älytöntä hommaa ostaa jotain yksittäistä hitusen nopeampaa korttia kaksinkertaiseen hintaan.

3080 ei tue SLI, jota ollaan muutenkin kuoppaamassa.
 
Jos kuitenkin haluaa kaksinkertaista tehoa, niin ostaa 2x 3080 niin saa sille rahalleen vastinettakin. Älytöntä hommaa ostaa jotain yksittäistä hitusen nopeampaa korttia kaksinkertaiseen hintaan.

Toinen varalle jos hajoaa?
 
Ahaa siis Nvidia ilmoittikin tosiaan että Ampere sukupolvesta vain 3090 tukee explicit multiGPU -tilaa. Eli voivat nyhtää faneilta rahasalkut pois tuolla ylihintaisella 3090 kikkareellaan.
 
Sehän on ollut selvää alusta asti, että erot tulevat olemaan pieniä niin kauan kuin 3080:n muisti riittää koska speksit on ollut jo pitkään tiedossa. 3090 onkin lähinnä niille jotka tarvitsevat enemmän muistia tai kuvittelevat tarvitsevansa sitä.
 
Sitten, jos ne 20G 3080 mallit tulevat niin vielä turhemman oloinen julkaisu 15% tehonlisäyksellä.
 
Eipä taida 3080 Ti mallia olla tiedossa. Ei sitä saisi mitenkään järkevästi asemoitua 3080 ja 3090 väliin. Lisää muistia?
 
Yhtiön mukaan GeForce RTX 3090 tulee peittoamaan RTX 3080:n 4K-resoluutiolla vain noin 10 – 15 %:n erolla huolimatta yli kaksinkertaisesta suositushinnastaan.

3080 tdp 320 W, 3090 tdp 350 W, lisäys 9 %
3080 cuda cores 8704, 3090 cuda cores 10,496, lisäys 21 %
3080 muistikaista 760, 3090 muistikaista 936 GBps, lisäys 23 %

Sanotaanko näin, että juuri kun luopuivat Ti lisänimestä niin sille olisi ollut käyttöä. Mieluummin 3080 Ti kuin 3090.

Nimi 3090 on oikeutettu suhteessa siihen paljonko sähköä kortti ottaa töpselistä.
Veikkaan että suuri osa ostajista laittaa korttiin vesijäähyn ja ajaa sitä 400 W sähkötehoilla.
Jolloin se saattaa olla 20-25 % tehokkaampi kuin 3080, ja vastaa eroa cuda-ydinten määrissä ja muistikaistoissa.

Ilmajäähdytteinen 3090 ei äkkiseltään kuulosta niin hyvältä idealta vaikka ei sitä käyttöohjeissa erikseen kielletä :geek:
 
Tässä on nyt, osittain kiitos uuden nimeämisen, mennyt osalta ohi se että se 3090 on Titanin korvaaja. Eikä ne Titanit ole pariin sukupolveen (Voltasta asti) olleet mitään pelinäyttiksiä. Se olennaisin ero tuolla 3090 vs. 3080 akselilla on muistin määrä. Tällä hetkellä Nvidia tietty nyhtää kiireisiltä rahat pois, mutta ainakin itse jo kieli pitkällä odottelen niitä huhuiltuja tuplamuistiversioita 3070/3080 korteista.
 
Odotin enemmän tältä kortilta, vaikka sitä ei ole tarkoitettu pelaamiseen. En tule siirtymään 8K resoon vielä vuosiin, joten 3090 on minulle täysin turha. Harmi.

Vuodoissa ja foorumeilla toistuvat huhut 3080 20Gb -versiosta. Onko suuremmasta määrästä muistia mitään hyötyä 4K pelaamisessa, jos muistien nopeutta ja väylää ei kasvateta nykyisestä? Näin maallikon mielestä ei pitäisi vaikuttaa yhtään, jos muistia on entisestään jo tarpeeksi.

Ehkä uumoilluissa "refresh-korteissa" tullaan käyttämään nopeampaa muistia, joka tuo mukanaan tuntuvan lisän suorituskyvyssä. Jos näin käy, niin toivottavasti myös virrankulutusta saadaan hilattua alas.
 
Sama homma oli edellisessäkin RTX 2000 -sarjassa, ettei tämänä pitänyt tulla kenellekkään yllätyksenä ettei 3090 ole "tarkoitettu" pelikäyttöön.

Gamers Nexuksesta poimittu, koskien RTX Titania, jonka 3090 on nyt tarkoitus korvata.

"The Titan RTX ends up at 72FPS AVG for stock performance, which isn't much better than the 2080 Ti FE's 67FPS AVG. The 7.6% performance uplift is undesirable in the face of a 100% price increase, but note again that the bigger reason to buy this card is for its VRAM increase, not for any other reason. "
 


3090 olisi varmaan "Titan", mutta sen tehorajat on jouduttu vetämään aivan älyttömyyksiin. Ammattilaiset ei pakosti halua 400W lämpökuormaa koneisiinsa.
Onkohan 3090 nyt se tappiin ylikellotettu tuote, jollaisia on totuttu näkemään viime aikoina vain AMD:ltä. Energiatehokkuus roskikseen, jotta saadaan maksimitehot.
 
Joo aika heikko esitys jos vain 10-15% nopeampi kuin 3080.
Täällä ainakin Rtx titanit korvautuu 3090 eikä ole tulossa pelkkään pelailuun, tosin siinä samalla voi sitten heittää pelin jos toisenkin eli huvin ja hyödyn yhdistäminen.

Pelkkään pelailuun sitten heille jotka haluaa parasta,ei sillä järjellä tarvitse hankintaa perustella jos pussi vaan muuten kestää.
 


3090 olisi varmaan "Titan", mutta sen tehorajat on jouduttu vetämään aivan älyttömyyksiin. Ammattilaiset ei pakosti halua 400W lämpökuormaa koneisiinsa.
Onkohan 3090 nyt se tappiin ylikellotettu tuote, jollaisia on totuttu näkemään viime aikoina vain AMD:ltä. Energiatehokkuus roskikseen, jotta saadaan maksimitehot.

Rippuu ihan miten skaalautuu kun kellottaa mutta nykyisellä kellotaajuudella energiatehokkuus jopa parempi kuin 3080 (Riippuu toki mitä tekee/millä vertailee)
 
Luulen, että saatavuusongelmat johtuvat ainakin osin siitä, ettei niin hyviä yksilöitä olla saatu tarpeeksi binnattua jotka toimisi hyvin 3090 kortissa ja ne joudutaan käyttämään 3080 kortteihin tai muihin GA102 variantteihin.
 
3090 on mielestäni tuotu markkinoille sen vuoksi, että nVidia saa säilyttää nopeimman näytönohjaimen maineen (en oikeasti usko, että AMD sitä voittaa, vaikka mistä sen koskaan tietää mitä sillä puolella suunnitellaan).
Ja hinta laitettii korkeaksi sen vuoksi, että aina löytyy niitä, jotka maksavat mitä tahansa saadakseen nopeimman kortin (vaikka siinä minun ja monen muunkaan mielestä ei ole mitään järkeä).
 
Kai sitten myös Threadripperitkin on ihan paskoja, kun pelitehon nousu on mitätön suhteessa hintaan?
 
3090 jättää option 3090 Superille, kun 3080 Ti Super kuulostaisi tyhmältä?
Kiinostaa kyllä mitä 3090 Super sitten sisältäisi. Noihin 3070 ja 3080 saa helposti muistia lisättyä vaan ja sillä myytyä Super versiota, tuohon 3090 ei oikeen muistia lisää tarvitse
 
3080 tdp 320 W, 3090 tdp 350 W, lisäys 9 %
3080 cuda cores 8704, 3090 cuda cores 10,496, lisäys 21 %
3080 muistikaista 760, 3090 muistikaista 936 GBps, lisäys 23 %



Nimi 3090 on oikeutettu suhteessa siihen paljonko sähköä kortti ottaa töpselistä.
Veikkaan että suuri osa ostajista laittaa korttiin vesijäähyn ja ajaa sitä 400 W sähkötehoilla.
Jolloin se saattaa olla 20-25 % tehokkaampi kuin 3080, ja vastaa eroa cuda-ydinten määrissä ja muistikaistoissa.

Ilmajäähdytteinen 3090 ei äkkiseltään kuulosta niin hyvältä idealta vaikka ei sitä käyttöohjeissa erikseen kielletä :geek:
NVidia oli itsekin jo ilmoittanut että suorituskyky on 10-15% parempi kuin 3080:llä, eli kannattaa nuo 20-25% unohtaa.
For 4K gaming, the GeForce RTX 3090 is about 10-15% faster on average than the GeForce RTX 3080, and up to 50% faster than the TITAN RTX.

Videocardz oli kysellyt testaajilta ja ne oli todenneet että todellisuus on lähempänä 10-12%.
When it comes to 4K gaming, NVIDIA made a surprising declaration ahead of the 3rd party reviews, the card will (only) be 10 to 15% faster in 4K gaming. We have confirmed this claim with at least four reviewers, although most of them are reporting a 10-12% performance increase over RTX 3080.

Kannattaa siis lukea ensin rauhassa testit ennen kuin tilaa, ettei tule pettymyksiä. :syes:
 
NVidia oli itsekin jo ilmoittanut että suorituskyky on 10-15% parempi kuin 3080:llä, eli kannattaa nuo 20-25% unohtaa.

Ei kun puhuin ylikellotuksista. Silloin 3080 ja 3090 olisi lähes samoilla kelloilla ja ainakin 3090 on vesillä. Silloin niiden välinen suorituskyvyn ero olisi minun mielikuvituksessa samaa luokkaa kuin näiden korttien cuda-ytimien määrien ja muistikaistojen välinen ero. Samoin töpselistä vedetyn sähkön määrä olisi samassa suhteessa.

Kun suoraan laatikosta 3090 ottaa liian "vähän" sähköä ja tehoraja 350 W (jos se pitää paikkansa) hakkaa vastaan. Ja kuten aina, en ole nettiä aiheesta selannut enkä muutenkaan perehtynyt, muutamia numeroita vaan naputin laskimeen.
 
Kai sitten myös Threadripperitkin on ihan paskoja, kun pelitehon nousu on mitätön suhteessa hintaan?
Suurinta osaa maailman tietokoneista käytetään aivan johonkin muuhun kuin pelaamiseen.
Erityisesti Threadrippereiden osalta tämä pelaajien osuus voi olla paljon pienempikin.
Tällä (ja monella muullakin) foorumilla tunnutaan aina ihmettelevän, miksi joku moponäytönohjain on laitettu kiinni johonkin kalliiseen OLED tms. näyttöön kiinni, kun 'Eihän tuolla näytönohjaimella voi pelata 4K-resoluutiolla kaikki herkut päällä 120Hz FPS:llä'.
Joillekin kun riittää, että saadaan vakaa 2D-kuva ja jonkinlainen 3D-kuva laadukkaalle 4K-näytölle.
Itselläni menee tietokoneajasta ehkä 1% pelaamiseen, enkä pelaa edes joka viikko.
Olen tilannut itse RTX 3080:n ensisijaisesti HDMI 2.1:n vuoksi, jotta saisin vakaan 120Hz 4K-kuvan windows työpöydälle ja 2D-sovelluksiin.

Toki jossakin vaiheessa pelailenkin kunhan saan näyttiksen ja CX48:n tulille (aion varmaan pelata uudelleen Dying Lightin läpi - yökohtaukset kun nykyisellä näytöllä eivät olleet oikein pelattavia tummien sävyjen tukkoisuuden vuoksi).
 
Ei kun puhuin ylikellotuksista. Silloin 3080 ja 3090 olisi lähes samoilla kelloilla ja ainakin 3090 on vesillä. Silloin niiden välinen suorituskyvyn ero olisi minun mielikuvituksessa samaa luokkaa kuin näiden korttien cuda-ytimien määrien ja muistikaistojen välinen ero. Samoin töpselistä vedetyn sähkön määrä olisi samassa suhteessa.

Kun suoraan laatikosta 3090 ottaa liian "vähän" sähköä ja tehoraja hakkaa vastaan. Ja kuten aina, en ole nettiä aiheesta selannut enkä muutenkaan perehtynyt, muutamia numeroita vaan naputin laskimeen.
Ylikellotuksella toki voidaan saavuttaa isompia eroja, onneksi @Sampsa tarjoaa tähän vastauksen kello 16:00. :comp2:
 
NVidia oli itsekin jo ilmoittanut että suorituskyky on 10-15% parempi kuin 3080:llä, eli kannattaa nuo 20-25% unohtaa.


Videocardz oli kysellyt testaajilta ja ne oli todenneet että todellisuus on lähempänä 10-12%.


Kannattaa siis lukea ensin rauhassa testit ennen kuin tilaa, ettei tule pettymyksiä. :syes:
$ per lisä fps ainakin kohdallaan. :D

Ei kun puhuin ylikellotuksista. Silloin 3080 ja 3090 olisi lähes samoilla kelloilla ja ainakin 3090 on vesillä. Silloin niiden välinen suorituskyvyn ero olisi minun mielikuvituksessa samaa luokkaa kuin näiden korttien cuda-ytimien määrien ja muistikaistojen välinen ero. Samoin töpselistä vedetyn sähkön määrä olisi samassa suhteessa.

Kun suoraan laatikosta 3090 ottaa liian "vähän" sähköä ja tehoraja 350 W (jos se pitää paikkansa) hakkaa vastaan. Ja kuten aina, en ole nettiä aiheesta selannut enkä muutenkaan perehtynyt, muutamia numeroita vaan naputin laskimeen.
Eipä sille ihan kauheasti yli tuon voi edes vedellä antaa sähköä kun piirin pinta-ala on kuitenkin rajattu. Saa olla aika kylmää vettä että saa 400+W yhdeltä komponentilta pois. Toki kaikki maailmanennätykset tuolla tehdään, mutta perus vesille aika kova lämpökuorma.
 
Ei kun puhuin ylikellotuksista. Silloin 3080 ja 3090 olisi lähes samoilla kelloilla ja ainakin 3090 on vesillä. Silloin niiden välinen suorituskyvyn ero olisi minun mielikuvituksessa samaa luokkaa kuin näiden korttien cuda-ytimien määrien ja muistikaistojen välinen ero. Samoin töpselistä vedetyn sähkön määrä olisi samassa suhteessa.

Kun suoraan laatikosta 3090 ottaa liian "vähän" sähköä ja tehoraja 350 W (jos se pitää paikkansa) hakkaa vastaan. Ja kuten aina, en ole nettiä aiheesta selannut enkä muutenkaan perehtynyt, muutamia numeroita vaan naputin laskimeen.
Ylikellotuksella toki voidaan saavuttaa isompia eroja, onneksi @Sampsa tarjoaa tähän vastauksen kello 16:00. :comp2:

Kun 3080 ja 3090 molemmat kellotetaan tappiin, ero niiden välillä pienenee..
 
Kai sitten myös Threadripperitkin on ihan paskoja, kun pelitehon nousu on mitätön suhteessa hintaan?

Tämä. Kolmen tonnin TR on halpaa ku makkara tuottavaan työhön mutta siihen nähden puoleen hintaan tarjolla oleva ja monessa jutussa täysin ylivoimainen kortti (nimenomaan tuottavaan työhön) kallis kun mikä ja järjetön julkaisu kun 4k suorituskyky ei olekaan tuplat.

Tietysti paras olisi ollut NVIDIAN puolelta olla suu kiinni 8k pelaamisestakin ja antaa yhteisön tuoda tämä kulma orgaanisesti esiin, mutta ehkä sama poru pelisuorituskyvystä olisi syntynyt silti.
 
Kun 3080 ja 3090 molemmat kellotetaan tappiin, ero niiden välillä pienenee..
Pieneneekö, no sinä sen jo taidat tietää. :)
Voisi kuvitella että 3090 kanssa olisi enemmän potentiaalia nostaa kelloja jos vain jäähy riittää. Sama valmistusprosessi ja arkkitehtuuri, joten kellojen pitäisi nousta lähelle samaa. 3090 on taas vakiona alemmilla kelloilla, jolloin % nousu olisi järjen mukaan isompi... Mutta aina siellä voi olla asioita jotka tämän estää.
 
Eipä sille ihan kauheasti yli tuon voi edes vedellä antaa sähköä kun piirin pinta-ala on kuitenkin rajattu. Saa olla aika kylmää vettä että saa 400+W yhdeltä komponentilta pois. Toki kaikki maailmanennätykset tuolla tehdään, mutta perus vesille aika kova lämpökuorma.

Aika iso piirin pinta-ala on toisaalta kuitenkin, tyyliin 2,5 x 2,5 cm. Verrokkina 3800X-prosun chipletti on neljänneksen siitä (1,2 x 1,2 cm) ja sille laitetaan joku 100 W. Jos nyt oikein googlasin.

Onhan tuo 400 W kaamean paljon toki.

Kun 3080 ja 3090 molemmat kellotetaan tappiin, ero niiden välillä pienenee..

Miten sitten vesijäähyllä, katsotaan mitä uusia vesijäähytuotteita palokunta muutaman kuukauden päästä tuo markkinoille :interested:
 
Pieneneekö, no sinä sen jo taidat tietää. :)
Voisi kuvitella että 3090 kanssa olisi enemmän potentiaalia nostaa kelloja jos vain jäähy riittää. Sama valmistusprosessi ja arkkitehtuuri, joten kellojen pitäisi nousta lähelle samaa. 3090 on taas vakiona alemmilla kelloilla, jolloin % nousu olisi järjen mukaan isompi... Mutta aina siellä voi olla asioita jotka tämän estää.
Noissa oletus-boosteissahan ei taida olla kuin 15MHz ero, 3090 1695MHz ja 3080 1710MHz.
Molemmissa FE on myös tuo 12pin liitin, joka tulee 2x8pin liittimellä kiinni, joten maksimi tehoraja speksien mukaan 375W ja 3080 FE oli rajoitettu 370W:hen power limit maksimissa, joten tuon 3090 kellotuspotentiaali lienee jopa pienempi, kun tehobudjettia on vähemmän käytössä 30W suuremman TGP:n vuoksi (jonka käytännössä syö nuo 14 lisämuistipiiriä).

Ja yhdeltä komponentiltahan ei tuota 400W tarvitse koittaa siirtää pois, tainnut pyöriä 3080:n pelkän GPU:n kulutus jossain 180W tienoilla ja loput sitten muisteille yms.
NVIDIA-GeForce-RTX-3080-Memory-OC-Test.png
 
Viimeksi muokattu:
  • Tykkää
Reactions: hik


3090 olisi varmaan "Titan", mutta sen tehorajat on jouduttu vetämään aivan älyttömyyksiin. Ammattilaiset ei pakosti halua 400W lämpökuormaa koneisiinsa.
Onkohan 3090 nyt se tappiin ylikellotettu tuote, jollaisia on totuttu näkemään viime aikoina vain AMD:ltä. Energiatehokkuus roskikseen, jotta saadaan maksimitehot.

Pakkoko noita roskakanavia on tänne pakottaa?

Ammattilaiset tuskin välittävät tuosta lämpökuormasta, kun se on täysin jäähdytyksellä ratkaistavissa oleva asia. Sähkönkulutuskaan ei ole mikään ongelma, kun Ampere tarjoaa kuitenkin parempaa perf/W, kuin Turing. Se mikä merkkaa on paljonko menee aikaa jonkun laskutoimituksen suorittamiseen. Kun ei tarvitse odotella tietokonetta, niin työnteko tehostuu.
 
oletus-boosteissahan ei taida olla kuin 15MHz ero, 3090 1695MHz ja 3080 1710MHz.
Molemmissa FE on myös tuo 12pin liitin

Oletusboosti on kait eri kuin käytännön boosti, ja 3090 ei ole pelkästään FE vaan tulee myös custom kortit.

Mutta hyvät pointit :)
 
Oletusboosti on kait eri kuin käytännön boosti, ja 3090 ei ole pelkästään FE vaan tulee myös custom kortit.

Mutta hyvät pointit :)
Toki todelliseen boostiin vaikuttaa myös mm. piirin lämpötila, joka todennäköisesti 3090:n massiivisen coolerin vuoksi on pienempi.
Customeissahan taas sitten on samat jäähyt ja virtaliittimet kuin 3080 versioissa, niin ainoa erottava tekijä saattaa olla tuo power limit, jos valmistajat ovat saaneet vapauksia 3090:n kanssa nostaa se 400W+ (epäilen paitsi ehkä nyt se Strix, mutta mainospuheiden mukaan 3080 Strix kait on myös 400W limit).
 
Customeissahan taas sitten on samat jäähyt ja virtaliittimet kuin 3080 versioissa, niin ainoa erottava tekijä saattaa olla tuo power limit,

Olisi tylsää jos kellottaminen jäisi kaikissa korteissa kuristavasta virtaliittimestä kiinni. Katsotaan mitä kaikkea joulun myyntiin tulee.

edit. Googlasin mainitsemasin Strixin (linkki) jossa tosiaan näkyy 3 kpl 8 pin liitintä ja "400 W".
 
Viimeksi muokattu:
Kaipa täällä niitäkin löytyy jotka oikeesti uskoo tän lepakkomäyrän juttuihin.
Mikä juttu? Eiköhän nämä 3090 ole parhaimmillaan hyötykäytössä.
En ainakaan tällä koneessa olevalla 3080 pärjäisi koska Vram ei ole riittävä joten pyhitän tämän 3080 100% pelaamiseen.
Tämä on mun juttu ja teen niinkuin parhaakseni näen.
 
Ei nyt ihan paperijulkaisu, mutta lähellä. Taitanut olla saannit ei niin kovin optimaaliset tuolla Samsungin "8" 10nm sörsselillä
 
Pakkoko noita roskakanavia on tänne pakottaa?
Pakottaa?


Ammattilaiset tuskin välittävät tuosta lämpökuormasta, kun se on täysin jäähdytyksellä ratkaistavissa oleva asia. Sähkönkulutuskaan ei ole mikään ongelma, kun Ampere tarjoaa kuitenkin parempaa perf/W, kuin Turing. Se mikä merkkaa on paljonko menee aikaa jonkun laskutoimituksen suorittamiseen. Kun ei tarvitse odotella tietokonetta, niin työnteko tehostuu.
400W lämpökuorma on hieman eri asia jäähdyttää kuin 250W lämpökuorma. Se ei ole enää ihan olankohautuksella hoidettu asia.

Ja yhdeltä komponentiltahan ei tuota 400W tarvitse koittaa siirtää pois, tainnut pyöriä 3080:n pelkän GPU:n kulutus jossain 180W tienoilla ja loput sitten muisteille yms.
NVIDIA-GeForce-RTX-3080-Memory-OC-Test.png
Ok, eli 180W/300W menee sirulle.

Jos samalla suhteella mennään niin puhutaan 240W/400W. Tämä 33% korotus vaikuttaa aika suoraan lämpöihin. Samasta kuvasta... 71*1.33= kevyet 95 asteen keskilämmöt. Ja mitä enemmän virtaa kuluu, sitä vaikeampi on pitää viileänä.
 
Jos samalla suhteella mennään niin puhutaan 240W/400W. Tämä 33% korotus vaikuttaa aika suoraan lämpöihin. Samasta kuvasta... 71*1.33= kevyet 95 asteen keskilämmöt. Ja mitä enemmän virtaa kuluu, sitä vaikeampi on pitää viileänä.

Ei sitä keskilämpöä voi laskea tuolla tavalla suoraan kertolaskuna. Jäähdyttimen jäähdytysteho on verrannollinen deltaT:hen (jäähdytettävän elementin lämpötila - ympäröivän ilman lämpötila).

Mutta joo, joka tapauksessa kuumana tulee käymään.
 
Ei sitä keskilämpöä voi laskea tuolla tavalla suoraan kertolaskuna. Jäähdyttimen jäähdytysteho on verrannollinen deltaT:hen (jäähdytettävän elementin lämpötila - ympäröivän ilman lämpötila).

Mutta joo, joka tapauksessa kuumana tulee käymään.
Ja sitten voidaan ottaa laskuihin myös kuumemman piirin korkeammat vuodot jne jne jne. Kuumana tulee käymään. :)
 
Ja sitten voidaan ottaa laskuihin myös kuumemman piirin korkeammat vuodot jne jne jne. Kuumana tulee käymään. :)

Mitä suuruusluokkaa tuollaiset lämpeämisen aiheuttamat suuremmat vuodot on?

Toi jäähdytysteho skaalautuminen menee melko lailla suoraan niiden deltaT suhteessa, eli tollasella 70-95 asteen heittelyvälillä 20 asteen sisäilmassa ero on jo 50° vs 75° deltaT. Eli pahimmillaan/parhaimmillaan jäähdytystehokin luokkaa puolitoistakertaistuu, millä on jo ihan oikeaakin merkitystä.
 
...
Jos samalla suhteella mennään niin puhutaan 240W/400W. Tämä 33% korotus vaikuttaa aika suoraan lämpöihin. Samasta kuvasta... 71*1.33= kevyet 95 asteen keskilämmöt. Ja mitä enemmän virtaa kuluu, sitä vaikeampi on pitää viileänä.

Ei ole ihan noin suuri ero (Disclaimer: en tarkistanut ettei kortin jäähdytysilma ollut 0 asteista, jolloin laskelmasi pitäisikin paikkansa :) ).

Jos haluaa tehohäviön muutoksen vaikutusta lämpötilaan samalla jäähdytyksellä arvioida, pitää laskea lämpenemän kautta. Eli jos kuvien tapauksessa kortin tuulettimien ottoilman lämpötilaksi oletetaan esimerkiksi 31 astetta, lämpenemä on tällöin 71-31 = 40 astetta. Lämpenemä 33% suuremmalla tehohäviöllä puolestaan tällöin 1.33*40 = 53.3 astetta => 31+53.3 = 84.3 astetta. Tähän toki pitää lisätä kotelon sisälämpötilan eli jäähdytysilman lämpötilan nousu kun koteloon tuupattava lämpöteho lisääntyy, eli jos lisätehon seurauksena lämpötila onkin 32.5 astetta, piirin lämpötila silloin 32.5+53.3 = 85.8 astetta.

Edit: Lisäksi kaikki lämpötilan mukana säätyvät tuulettimet pienentävät syntyvää eroa luonnollisesti.
 
De8auer oli vedellä saanut 2fps enemmän irti 3090 kortista kuin ilmalla, eli ei siellä hirvittävästi löysiä ole.

Ihan mielenkiintoinen juttu sinällään. Jos on käyttöä hyötykäytössä niin tuosta saa varmaan parhaiten kaiken irti muut varmaan tyytynevät 3080 malleihin.
Mutta hyvin nämäkin hävisivät markkinoilta, eli jengi ostaa kyllä!
 
De8auer oli vedellä saanut 2fps enemmän irti 3090 kortista kuin ilmalla, eli ei siellä hirvittävästi löysiä ole.

Ihan mielenkiintoinen juttu sinällään. Jos on käyttöä hyötykäytössä niin tuosta saa varmaan parhaiten kaiken irti muut varmaan tyytynevät 3080 malleihin.
Mutta hyvin nämäkin hävisivät markkinoilta, eli jengi ostaa kyllä!

Vaikeaa kuvitella, että tällä Samsungin 8nm prosessilla enää saataisiin merkittävästi nopeampia GPUita aikaiseksi.
Seuraava sukupolvi (Hopper) tullee sitten TSMC:n 7nm (tai 5nm) prosessilla.
Voi toki tulla joku väli-refreshikin, jos se tehdään TSMC:n 7nm prosessilla kuten laskentakorteissa käytettävät Ampere-sukupolven A100 -piirit.
 

Statistiikka

Viestiketjuista
261 396
Viestejä
4 536 806
Jäsenet
74 795
Uusin jäsen
karhuluu

Hinta.fi

Back
Ylös Bottom