NVIDIA-spekulaatioketju (Lovelace ja tulevat sukupolvet)

Itsellä menee 3080 2700x kanssa koneeseen kunhan FE malli saadaan toimitettua. Katsotaan minkälaisena pullonkaulana toimii ja odotellaan amd zen3:sta.
 
Viimeksi muokattu:
2700X nyt ei tunnetusti ole mikään nopein mahdollinen peliprossu. Ydinten määrä ei auta, jos ja kun yhden threadin suorituskyky ei ole riittävä.
Tiedän hyvin. Pointtihan oli, että CPU:lta vaaditaan enemmän jos säteenseuranta käytössä. Tämä pätee muihinkin kuin Zen+ prossuihin.

Veikkaisin, ettei 2700X ole niin pahasti esim. Zen2:ta takana etteikö vaikka 3700X:llä nähtäisi pahempia pullonkauloja 3080:n kanssa kuin 2700X:llä 2080:n kanssa.
 
Tiedän hyvin. Pointtihan oli, että CPU:lta vaaditaan enemmän jos säteenseuranta käytössä. Tämä pätee muihinkin kuin Zen+ prossuihin.

Veikkaisin, ettei 2700X ole niin pahasti esim. Zen2:ta takana etteikö vaikka 3700X:llä nähtäisi pahempia pullonkauloja 3080:n kanssa kuin 2700X:llä 2080:n kanssa.
Tätähän ei sitten ole testattu vielä noiden tulevien korttien kanssa. Toivottavasti testataan..
Eli muutama peli, joissa on RT, kuormittaako useampaa prossucorea oikeasti ja jos kuormittaa, niin miten montaa ja miten paljon?
 
Itsellä menee 3080 2700x kanssa koneeseen kunhan FE malli saadaan toimitettua. Katsotaan minkälaisena pullonkaulana toimii ja odotellaab amd zen3:sta.

Kannattaa odottaa ihan rauhassa jos ei bottleneckitä, mutta toisaalta ei kannata odottaa ihmeitä uusilta CPU:ilta pelikäyttöön koska niillä ei oikein tuppaa tällä hetkellä olemaan suurta merkitystä. Hyvällä GPU-päivityksellä saat usein frameraten tuplattua tai nostettua tyyliin 60 ->144 joka täysin mullistaa pelaamisen, mutta päivittämällä vaikka parin sadan "budjetti-CPU" Ryzen 3600 kellotettuna -> high end 3950x/10900k kellotettuna, puhutaan tuurilla 20 FPS:stä ja usein melkein nollasta.

Tulevaisuudessa voi olla että ytimien määrällä on enemmän väliä kuin nyt ja esim. tuo 6-ytiminen 3600 alkaa ottaa osumaa, mutta ei vielä varmaan pariin vuoteen nähdä tilannetta jolla CPU olisi oikeasti merkittävä päivitys pelikäytössä kunhan se täyttää tietyt peruskriteerit. Työ/hyötykäytössä tietysti sitten vähän eri asia.

Se on aika säälittävää että tietokoneiden tulevaisuus riippuu niin paljon huomattavasti heikommista, karsituista konsoleista mutta niin se vaan on että "casualit" ovat paljon suurempi asiakaskunta ja niiden ehdoilla mennään.
 
Tätähän ei sitten ole testattu vielä noiden tulevien korttien kanssa. Toivottavasti testataan..
Juu hyvä pointti että eroja voi olla Turingin ja Amperen välillä siinä miten pahasti prossu joutuu hoitelemaan säteenseurannan BVH-tonttia ym. Tähän mennessä en ole nähnyt Nvidian kehuvan että tätä kuormaa siirrettäisiin prossulta GPU:lle.

Eli muutama peli, joissa on RT, kuormittaako useampaa prossucorea oikeasti ja jos kuormittaa, niin miten montaa ja miten paljon?
Minua kiinnostaisi enemmän testi jossa katsotaan, minkälainen fps näillä eri sukupolven näyttiksillä saadaan samoissa RT-pelitesteissä, jossa ollaan CPU bottleneckissä.
 
Viimeksi muokattu:
Olisi hyvä, jos nuo pelitestit aloitettaisiin vaikka 4C4T prossuista, näkisi, mikä nyt sitten onkaan tilanne nykypelien kanssa tuossa säikeistyvyydessä, eri tapauksessa. Tuosta asiasta kun liikkuu paljon luulottelua ja mopon keulimista tällä hetkellä..
 
Onko kellään teorioita siitä, että millä keinolla Nvidia puristaa 3070:stä vääntöä saman verran kuin 2080Ti:stä, kun tiitisessä on 37,5% enemmän muistikaistaa? Mahtaakohan olla kuinka tilanneriippuvaista noiden erot, kun balanssi shadereiden ja kaistan välillä on ihan totaalisesti erilainen?
Tuo 37,5% on pelkkä muistikaistan ero, mutta jos lasketaan koko muistiväylän siirtonopeus, niin ero on noin 20%:
2080 Ti: muistien nopeus 1750MHz (14Gbps efektiivinen), muistikaista 352bit = 14Gbps*352bit/8 = 616GB/s
3070: muistien nopeus 2000MHz (16Gbps efektiivinen), muistikaista 256bit = 16Gbps*256bit/8 = 512GB/s
Ero: 616GB/s / 512GB/s = 1,20 kertainen eli + 20% Ti:n hyväksi

Tuo ei vastaa kaistakysymykseen. Itse veikkaisin isompia cacheja ja vain uusimpia pelejä. Eli vuoden 2020 peleissä tasoissa tai pinnan pari ohi, vanhemmissa ja DX11 peleissä tulee taas pataan 2080TI:ltä.
Mainittu FP32 suorituskyky tosiaan teoreettisella tasolla on 35% 3070:n hyväksi: 5888 CUDA / 4352 CUDA = 1,35 kertainen = +35%
 
Muistilämpökeskusteluun: lämmitin 1660 ti:n 85 asteeseen ja laitoin lämpömittarin noin 3,5cm päähän mittaamaan heatsinkistä ulospuhaltuvan ilman lämpötilaa. Mittari stabiloitui 37,3 asteeseen.

Kertooko tämä mitään. En tiedä, mutta en olisi edelleenkään huolissaan.
 
3070: muistien nopeus 2000MHz (16Gbps efektiivinen), muistikaista 256bit = 16Gbps*256bit/8 = 512GB/s
3070:ssä on 14Gbps muistit ainakin parin valmistajan tuotesivujen mukaan. En tiedä onko Nvidialta tullut virallista tietoa asiasta.

 
Olisi hyvä, jos nuo pelitestit aloitettaisiin vaikka 4C4T prossuista, näkisi, mikä nyt sitten onkaan tilanne nykypelien kanssa tuossa säikeistyvyydessä, eri tapauksessa. Tuosta asiasta kun liikkuu paljon luulottelua ja mopon keulimista tällä hetkellä..

Tuo 4C4T on ollut pullonkaulana jo vuosia. Muistan kun joskus kolmisen vuotta sitten päivitin lähelle 5Ghz ylikellotetusta Intelin 4C4T prosessorista AMD:n 8-ytimiseen ja jopa silloisella GTX970 näytönohjaimella ero oli peleissä suuri. Tuskin nykyään edes on niin huonoja näytönohjaimia, missä tuollainen prosessori ei hidastaisi menoa.
 
Jos sieltä FE:n takaa poistus varovaisen arvion mukaan vaikka kolmannes lämmöstä, niin kotelon sisään täydessä rasituksessa jää teoriassa hieman yli 200W, eli suunnilleen saman verran, kuin esim. 2080:lla. Mielestä parempi tuo on, kuin että AIB:n kortilla 100% lämmöstä menee koteloon..? :think:
Turhaa spekulaatiotahan tämä on, kunnes saadaan riippumatonta dataa ja jokainen laittaa rahansa mihin lystää, mutta omasta mielestä menee hieman pelottelun puolelle tommonen "FE:llä koneet kaatuu, kun muistit ylikuumenee", kun edelleenkään mitään oikeaa faktaa tuosta ei ole saatavilla suuntaan tai toiseen.
Vielä kauempana faktoista on sen väittäminen, että ison lämpökuorman puhaltaminen suoraan päin muisteja ei voi vaikuttaa niihin.

Jäähystä saatavilla olevien kuvien perusteella arvioisin että edes kolmanneksen lämmöistä ulos puhaltaminen olisi jo kovan työn takana tuolle.
Rakenne kun ei ole edes puoliksikaan lähellä blower-jäähyä ilmavirraltaan tuulettimella kiinni kortin "perälaudassa".
Tilanne olisi eri, jos ulos puhaltava tuuletin olisi edes kortin puolivälissä.
Mutta nyt se on sijoitettu siten, että todennäköisesti yhtä paljon sen puhaltamaa lämpöä jää kotelon sisään kuin menee ulos.
Päälle sitten tuo toinen tuuletin puhaltamassa rivaston toisen pääosan lämmön suoraan päin naamaa muisteille.

Kaikilla muilla tähän astisilla ei-blower korteilla se koteloon jäävä lämpö on sekoitettu tasaisemmin kotelon ilmaan.
Eikä se ole varsinkaan ollut suoraan heikentämässä kotelon etutuulettimilta tulevaa viileää ilmavirtaa.
Vaikka se näytönohjaimen ilmavirta olisi "vain" 40 asteista, se on jo rajusti etutuulettimien 20-25 asteista ilmaa kuumempi vain 10 asteen erolla B-dien ~50C maksimilämpöihin.

Eli tässä on olemassa selvästi merkittävä riski muistien vakauden kärsimisestä.
Itse muistien toimintaympäristön lämpenemisen lisäksi tuota lämpöä menee aika pahasti myös prossun "jäähdytysilmaksi" ja prossun lämpötila vaikuttaa myös muistiohjaimen rasitustasoon.


Muistilämpökeskusteluun: lämmitin 1660 ti:n 85 asteeseen ja laitoin lämpömittarin noin 3,5cm päähän mittaamaan heatsinkistä ulospuhaltuvan ilman lämpötilaa. Mittari stabiloitui 37,3 asteeseen.
Nyt menee kyllä maapähkinät sekaisin kookospähkinöiden kanssa.
1660 Ti on ~120-130W tehonkulutuksen kortti.
Se on todella kaukana 3080 ja 3090:n lämpötehosta.
 
3070:ssä on 14Gbps muistit ainakin parin valmistajan tuotesivujen mukaan. En tiedä onko Nvidialta tullut virallista tietoa asiasta.

Ei tuosta virallista tietoa taida olla ja kyllähän se tosiaan näyttäisi useamman lähteen perusteella, että olisi vain 14Gbps, mutta mahdollisesti myös malleja 16Gbps muisteilla (Inno listattuna) NVIDIA GeForce RTX 3070 Specs
Laskelmat täten meikäläisen moka, jolloin 3070 on GPU:n osalta teoreettisesti 35% nopeampi, mutta VRAM osalta teoreettisesti 37,5% hitaampi, mutta kumoaako nämä sitten käytännön tasolla melkolailla toisensa + IPC parannukset, niin ollaan päästy tuohon Ti teholuokkaan.
 
Ei kai 3900:sta tulossa mitään Ti/Super versiota myöhemmin? Entäs milloin intellilta seuraavat työpöytä prossut? Keväällä olis tarkoitus päivittää koko laitos.
Edit. 3090 oli tarkoitus kirjoittaa tietysti, mutta kiitokset kattavista vastauksista.
 
Viimeksi muokattu:
Muistilämpökeskusteluun: lämmitin 1660 ti:n 85 asteeseen ja laitoin lämpömittarin noin 3,5cm päähän mittaamaan heatsinkistä ulospuhaltuvan ilman lämpötilaa. Mittari stabiloitui 37,3 asteeseen.

Kertooko tämä mitään. En tiedä, mutta en olisi edelleenkään huolissaan.

Oliko kulutus 320W tai yli?
 
Joo ei hätää, ihan mielenkiinnosta kyselin et miten pitkälle menneisyyteen pitää mennä et vois kuvitella prossun bottleneckaavan tuolla kortilla :p Eilen just ostin uuden rossun ja tätä 3080 korttia odotellaa että saa koneen kasaan :)
joku 8700k taso intel ja 3600 amd vois olla.
ps katsioin taas doom benchmark ja jensen kitchen hehkutus 35 min.
 
Viimeksi muokattu:
Tulevaisuudessa voi olla että ytimien määrällä on enemmän väliä kuin nyt ja esim. tuo 6-ytiminen 3600 alkaa ottaa osumaa, mutta ei vielä varmaan pariin vuoteen nähdä tilannetta jolla CPU olisi oikeasti merkittävä päivitys pelikäytössä kunhan se täyttää tietyt peruskriteerit.
Oikeastaan juuri tätä yritin tuossa aiemmassa viestissäni sanoa. Että CPUsta tulee pullonkaula mikäli siitä puuttuu kriittinen ominaisuus (esim core-määrä) jollekin tietylle pelille.
Toki myös riittävä single thread perffi tarvitaan.
 
Ei kai 3900:sta tulossa mitään Ti/Super versiota myöhemmin? Entäs milloin intellilta seuraavat työpöytä prossut? Keväällä olis tarkoitus päivittää koko laitos.

3900X:sta tuli juuri XT-malli joka maksaa enemmän, siinä ei ole stock cooleria mukana(jolla on parin kympin myyntiarvo), ja joka ei tee yhtään mitään nopeammin kuin 3900X. Ei mitään syytä maksaa tuota extraa - tosin 3900X:n saa jo vähän yli 400€:lla esim. Amazon.destä mikä varmasti kantaa monta vuotta eteenpäin ja jossa on riittävästi ytimiä lähivuosiksi jos esim. pelit alkavat hyödyntää ytimien määrää paremmiin.


Intelin tulevilta prossuilta ei kannata odottaa liikaa koska ainakin noissa läppäriprossuissa(jotka julkaistaan ensimmäisenä) markkinointi perustui lähinnä sen toistoon että benchmarkit on turhia ja AMD:n passiivis-aggressiiviseen lokaamiseen, sen sijaan että oltaisiin kerrottu mikä omassa tuotteessa on oikeasti hyvää. Hyvin uskonnollista argumentointia jossa sanottiin että usko minuun, minä olen Jumala, äläkä välitä todisteista koska ne on saatanan luomuksia. Varmasti ne Intelin prossut edelleen on laadukkaita mutta markkinoinnin perusteella eivät itekään oikein jaksa uskoa omaan tuotteeseen.
 
Tiedän hyvin. Pointtihan oli, että CPU:lta vaaditaan enemmän jos säteenseuranta käytössä. Tämä pätee muihinkin kuin Zen+ prossuihin.

Veikkaisin, ettei 2700X ole niin pahasti esim. Zen2:ta takana etteikö vaikka 3700X:llä nähtäisi pahempia pullonkauloja 3080:n kanssa kuin 2700X:llä 2080:n kanssa.

Kyllä se 2700x on vaan aika reippaasti hitaampi pelikäytössä kun 3700x. Varsinkin noissa minimiframeissa on melko isoja yli 20% eroja.

 
Jäähystä saatavilla olevien kuvien perusteella arvioisin että edes kolmanneksen lämmöistä ulos puhaltaminen olisi jo kovan työn takana tuolle.

Mutta nyt se on sijoitettu siten, että todennäköisesti yhtä paljon sen puhaltamaa lämpöä jää kotelon sisään kuin menee ulos.

50% on enemmän kuin 1/3.

Toisekseen, eikös se peräpään tuuletin ole paljon lähempänä itse lämpölähdettä, eli sirua? jolloin voi olettaa että perän tuuletin kohtaa suuremmassa lämpötilassa olevan siilin, joten sen on helpompi puhaltaa lämpöenergiaa pois verrattuna etupään PCB:n läpi puhaltavaan. En osaa sanoa kuinka tehokkaasti lämpöputket saavat lämpöä siirrettyä etupään rivastolle, mutta veikkaisin sen olevan vähemmän kuin suoraan sirun päällä olevalla siilillä.
 
Kyllä se 2700x on vaan aika reippaasti hitaampi pelikäytössä kun 3700x

Joo olen ihan perillä tästä kyllä. Ja tuo testihän vain todistaa pointtini. Sen mukaan 3700X on ~25% nopeampi kuin 2700X kilpapeleissä. 3080 on tämänhetkisten tietojen mukaan yli 50% nopeampi kuin 2080.

Aika turvallinen olettamus että CPU-pullonkaulaan törmätään helpommin 3700X+3080 kombolla kuin 2700X+2080 kombolla, eikö?
 
Tuo 4C4T on ollut pullonkaulana jo vuosia. Muistan kun joskus kolmisen vuotta sitten päivitin lähelle 5Ghz ylikellotetusta Intelin 4C4T prosessorista AMD:n 8-ytimiseen ja jopa silloisella GTX970 näytönohjaimella ero oli peleissä suuri. Tuskin nykyään edes on niin huonoja näytönohjaimia, missä tuollainen prosessori ei hidastaisi menoa.
Tämähän riippuu kovasti pelistä. Jos peli ei säikeisty kuin kahdelle threadille, niin 4C4T@5GHz pyörittää paremmin kuin 8C16T@4,9GHz.
Battlefield2 taisi olla itellä eka peli joka ei pyörinyt 2-core kivellä ja piti nostaa neljään. Nykypeleistä AC Origins taitaa nikotella jopa 6C6T-kivellä.
Mutta on totta että pelit koko ajan säikeistyvät paremmin ja paremmin ja sitä kautta nuita coreja tarvitaan enemmän. Kehitys on kuitenkin ollut hämmästyttävän hidasta, jos katsotaan että esim Q6600 on julkaistu peräti 13 vuotta sitten! Jos uusissa konsoleissa on keskusprosessorina 8-core lastu, niin sen voisi kuvitella nopeuttavan tätä kehitystä.
 
Itse meinaan laittaa 3090:n i3-8100 prossun seuraksi. Näyttö on 4K 55” 60hz OLED, joten luulen että bottleneck on enemmän se kuin prosessori, näin tuntuu olevan jo nykyisellä 1080tiitisellä silloin jos ei kortti ahdista ensin (saa nopeasti kyykkyyn kun resolution scalea nostaa). Ainakin varmasti saa tulevaisuudessa vääntää kaikki karkit, raytracingit ja scalet täysille vailla Allahin pelkoa ja nauttia tasaisesta 60fps 4K silmäkarkista. (en ole yli 100hz näyttöjä käyttänyt niin ei osaa niitä kaivatakaan, 100hz en huomannut merkittävää eroa 60fps)
 
Ei, vaan sitä laskentatapaa muutettin 2000-sarjasta 3000-sarjaan.
Ei sitä laskentatapaa muutettu, se on edelleen sama kuin ennenkin eli CUDA-ytimeksi lasketaan FP32-tarkkuuden laskentayksiköt.
Se mikä muuttui oli itse laskentayksiköt, eli Turingissa vain INT32-laskuja laskeneet yksiköt osaa nyt laskea tarpeesta riippuen joko INT32- tai FP32-laskuja, jolloin nekin lasketaan mukaan CUDA-ytimiin.
Eli Turingin SM:ssä on 4x 16xFP32 + 16xINT32 = 4x 16 CUDA-ydintä, Amperen SM:ssä 4x 16xFP32 + 16xFP32/INT32 = 4x 32 CUDA-ydintä
 
Itse meinaan laittaa 3090:n i3-8100 prossun seuraksi. Näyttö on 4K 55” 60fps OLED, joten luulen että bottleneck on enemmän se kuin prosessori, näin tuntuu olevan jo nykyisellä 1080tiitisellä silloin jos ei kortti ahdista ensin (saa nopeasti kyykkyyn kun resolution scalea nostaa). Ainakin varmasti saa jatkossa vääntää kaikki karkit, raytracingit ja scalet päälle vailla Allahin pelkoa ja nauttia 60fps 4K silmäkarkista.

60Hz 4k tulee varmasti bottleneckittämään jos pelaat pelejä joissa korkeammasta FPS:stä on mitään hyötyä. Sanon suoraan että RTX 3090 menee pelikäytössä täysin hukkaan jos rajaat itsesi 60 FPS:ään, ja 3070 tai 2080 Ti riittäisi tuohon jo enemmän kuin hyvin. Minulla on 2070 Super ja tällä jo 4k-pelaa hyvin, ja vähän asetuksia rukkaamalla saan vielä 80-120 FPS(näyttöni on 120Hz) ja 4k 60FPS on hyvin helppo saavuttaa. Ja kannattaa muistaa että tästä kortista on vielä reilusti matkaa 2080 Ti/3070:n tasolle.

Vaihtoehtona on tietysti myös 8k 60FPS, mutta tässäkin tapauksessa joudut päivittämään ruudun enkä noista 8k-näytöistä osaa sanoa oikeastaan mitään. Lisäksi tuo 8k-pelaaminen on vielä niin lastenkengissä että ei kannata lähteä beta-testaajaksi kalliilla hinnalla.

Hanki itsellesi 4k-näyttö jossa on ainakin 100Hz päivitysnopeus.
 
60Hz 4k tulee varmasti bottleneckittämään jos pelaat pelejä joissa korkeammasta FPS:stä on mitään hyötyä. Sanon suoraan että RTX 3090 menee pelikäytössä täysin hukkaan jos rajaat itsesi 60 FPS:ään, ja 3070 tai 2080 Ti riittäisi tuohon jo enemmän kuin hyvin. Minulla on 2070 Super ja tällä jo 4k-pelaa hyvin, ja vähän asetuksia rukkaamalla saan vielä 80-120 FPS(näyttöni on 120Hz) ja 4k 60FPS on hyvin helppo saavuttaa. Ja kannattaa muistaa että tästä kortista on vielä reilusti matkaa 2080 Ti/3070:n tasolle.

Vaihtoehtona on tietysti myös 8k 60FPS, mutta tässäkin tapauksessa joudut päivittämään ruudun enkä noista 8k-näytöistä osaa sanoa oikeastaan mitään. Lisäksi tuo 8k-pelaaminen on vielä niin lastenkengissä että ei kannata lähteä beta-testaajaksi kalliilla hinnalla.

Hanki itsellesi 4k-näyttö jossa on ainakin 100Hz päivitysnopeus.
11gb näytönohjaimen muisti loppuu kesken jos resolution scalea nostaa yli 125% tietyillä peleillä. Tuolla skaalauksella tuntuu olevan iso vaikutus grafiikoihin niin mielellään sitäkin täysillä käyttäisi. Lisäksi en olisi ihan varma että ainakaan 2080ti tulee pyörittämään esim. CP2077 RTX:llä ja täysillä karkeilla 60fps tasaisesti (+muut tulevat RTX pelit).
Itsellä tuntuu pikseliallergia olevan pahempi kuin matala fps...
 
Vielä kauempana faktoista on sen väittäminen, että ison lämpökuorman puhaltaminen suoraan päin muisteja ei voi vaikuttaa niihin.

Jäähystä saatavilla olevien kuvien perusteella arvioisin että edes kolmanneksen lämmöistä ulos puhaltaminen olisi jo kovan työn takana tuolle.
Rakenne kun ei ole edes puoliksikaan lähellä blower-jäähyä ilmavirraltaan tuulettimella kiinni kortin "perälaudassa".
Tilanne olisi eri, jos ulos puhaltava tuuletin olisi edes kortin puolivälissä.
Mutta nyt se on sijoitettu siten, että todennäköisesti yhtä paljon sen puhaltamaa lämpöä jää kotelon sisään kuin menee ulos.
Päälle sitten tuo toinen tuuletin puhaltamassa rivaston toisen pääosan lämmön suoraan päin naamaa muisteille.

Kaikilla muilla tähän astisilla ei-blower korteilla se koteloon jäävä lämpö on sekoitettu tasaisemmin kotelon ilmaan.
Eikä se ole varsinkaan ollut suoraan heikentämässä kotelon etutuulettimilta tulevaa viileää ilmavirtaa.
Vaikka se näytönohjaimen ilmavirta olisi "vain" 40 asteista, se on jo rajusti etutuulettimien 20-25 asteista ilmaa kuumempi vain 10 asteen erolla B-dien ~50C maksimilämpöihin.

Eli tässä on olemassa selvästi merkittävä riski muistien vakauden kärsimisestä.
Itse muistien toimintaympäristön lämpenemisen lisäksi tuota lämpöä menee aika pahasti myös prossun "jäähdytysilmaksi" ja prossun lämpötila vaikuttaa myös muistiohjaimen rasitustasoon.


Nyt menee kyllä maapähkinät sekaisin kookospähkinöiden kanssa.
1660 Ti on ~120-130W tehonkulutuksen kortti.
Se on todella kaukana 3080 ja 3090:n lämpötehosta.
En missään vaiheessa sanonut, etteikö muistille tuleva lämpö voisi vaikuttaa niihin. Kyseenalaistin vain sen merkittävyyden!

Sulla kun kerran faktaa on, niin kerrotko meille muillekin, kuinka suuri lämpökuorma tuolta kortilta suoraa muistelle tulee? Ja mikä mahtaa olla kortilta muisteille tulevan ilman lämpötila?

Itse kyllä näkisin, että mikäli koneessa on etutuuletin imemässä ja takatuuletin poistamassa, niin se näytönohjaimelta tuleva lämpö aika tehokkaasti ohjautuu sivuun muisteilta.
Mutta kuten sanoin, niin voin toimia koekaniinina ja postilla muistien lämmöt nykyisen vesijäähdytetyn 1080 Ti:n ja FE 3080:n kanssa, mikäli semmoisen onnistun hommaamaan. :)
 
Onko kellään teorioita siitä, että millä keinolla Nvidia puristaa 3070:stä vääntöä saman verran kuin 2080Ti:stä, kun tiitisessä on 37,5% enemmän muistikaistaa? Mahtaakohan olla kuinka tilanneriippuvaista noiden erot, kun balanssi shadereiden ja kaistan välillä on ihan totaalisesti erilainen?
Oletan 16gbs muistit vakiona.
ja se kaista tosiaan sen 512 vs 616.
vääntö tulee fp32 5888 core osuudesta tässä.
jos muisteille saa sen 18gbs kellotettuna niin...
 
Nyt menee kyllä maapähkinät sekaisin kookospähkinöiden kanssa.
1660 Ti on ~120-130W tehonkulutuksen kortti.
Se on todella kaukana 3080 ja 3090:n lämpötehosta.
Joo. Ei. Vaikka sen lämpökuorma on miljoona wattia niin se lämmönsiirto ilmaan tapahtuu kuitenkin muilla parametreilla.
 
Joo olen ihan perillä tästä kyllä. Ja tuo testihän vain todistaa pointtini. Sen mukaan 3700X on ~25% nopeampi kuin 2700X kilpapeleissä. 3080 on tämänhetkisten tietojen mukaan yli 50% nopeampi kuin 2080.

Aika turvallinen olettamus että CPU-pullonkaulaan törmätään helpommin 3700X+3080 kombolla kuin 2700X+2080 kombolla, eikö?

Juu kyllähön se noin menee, jos toisiaan jotain kilpapelailua harrastaa matalilla resoilla ja tähtää 200 FPS ja yli. Siinä jää sitten tosin jo aika hyvin intelin puolen prossutkin pullonkaulaksi, ihan terävintä kärkeä lukuunottamatta.
 
Oletan 16gbs muistit vakiona.
ja se kaista tosiaan sen 512 vs 616.
vääntö tulee fp32 5888 core osuudesta tässä.
jos muisteille saa sen 18gbs kellotettuna niin...

No näin oletin minäkin, mutta kun meillä on jo ihan virallisia speksejä joistakin malleista, ja niissä sanotaan että 14Gbps. Siksi tästä tuleekin mielenkiintoinen keissi. Otin itse aika kritiikittömästi vastaan Nvidian väitteen, ja nyt on alkanut oikeasti mietityttää, että kuinka paljon on eroa Nvidian marrkinointiskenaarion ja kattavan pelikattauksen osoittaman todellisuuden ero.

Se hyvä puoli toki 14Gbps muisteissa on, että niistä on yleensä saanut sen 15-20% lisää kellottamalla. 18 on kyllä jo aika tiukassa.
 
Juu kyllähön se noin menee, jos toisiaan jotain kilpapelailua harrastaa matalilla resoilla ja tähtää 200 FPS ja yli. Siinä jää sitten tosin jo aika hyvin intelin puolen prossutkin pullonkaulaksi, ihan terävintä kärkeä lukuunottamatta.
GPU-tehojen noustessa CPU-pullonkaulan todennäköisyys kasvaa kyllä muissakin kuin kilpapeleissä. Minun reaalimaailman esimerkkini oli Wolfenstein RT-herkuilla, ei kilpapeli.
 
Joo. Ei. Vaikka sen lämpökuorma on miljoona wattia niin se lämmönsiirto ilmaan tapahtuu kuitenkin muilla parametreilla.

No mutta eihän tommosella mittauksella tee mitään, että GPU vaan asetetaan 85c lämpötilaan. Sen voi saada aikaan pienellä kuormituksella ja olemattomalla tuulettimen nopeudella, jolloin jäähystä koteloon siirtyvän lämmön määrä on huomattavasti pienempi, kun esim 100% loadilla ja vaikka 80% tuuletinnopeudella, vaikka GPU temp olisi siinä myös 85c.

3000 sarjan jäähyt niin paljon järempiä, että ne siirtää ihan eri määrän lämpöä GPU:lta koteloon aikayksikössä vs mitä tuon 1660:n jäähy pystyy tekemään.
 
No näin oletin minäkin, mutta kun meillä on jo ihan virallisia speksejä joistakin malleista, ja niissä sanotaan että 14Gbps. Siksi tästä tuleekin mielenkiintoinen keissi. Otin itse aika kritiikittömästi vastaan Nvidian väitteen, ja nyt on alkanut oikeasti mietityttää, että kuinka paljon on eroa Nvidian marrkinointiskenaarion ja kattavan pelikattauksen osoittaman todellisuuden ero.

Se hyvä puoli toki 14Gbps muisteissa on, että niistä on yleensä saanut sen 15-20% lisää kellottamalla. 18 on kyllä jo aika tiukassa.
Muuten kopite7kimi twitter hemmo sanoi heinäkuussa noista gddr6x muisteista, että kellotus 21gbs epäonnistui kävisikö 19gbs.
 
vääntö tulee fp32 5888 core osuudesta tässä.

Sinällään jännä kun Turingin INT32 yksiköistä kertoessa Nvidian kaveri kertoili miten uudemmat / monimutkaisemmat pelit alkaa käyttää enemmän ja enemmän INT laskentaa. Nyt kuitenkin "tuplattiin" FP laskentateho.

 
Joo. Ei. Vaikka sen lämpökuorma on miljoona wattia niin se lämmönsiirto ilmaan tapahtuu kuitenkin muilla parametreilla.

Meinaatko tosiaan että ytimen lämpötila vaikuttaa tuohon koteloon siirtyvään lämpöön eikä teho? :facepalm:

Toki vaikuttaahan se niin että mitä kuumempi ydin samalla kuormalla, sitä vähemmän lämpöä vapautuu koteloon...
 
Sinällään jännä kun Turingin INT32 yksiköistä kertoessa Nvidian kaveri kertoili miten uudemmat / monimutkaisemmat pelit alkaa käyttää enemmän ja enemmän INT laskentaa. Nyt kuitenkin "tuplattiin" FP laskentateho.


tämä on varmasti hkultala ja kaotik parhaiten perillä tästä.
Lähinnä tuo pcbn 28mrd transistoria on kyllä paljon ja noin pienellä alalla kun kuitenkin 8 - 10 nm prosessi.
eipähän ole jäänyt tyhjää pcb.lle.
 
Viimeksi muokattu:
Meinaatko tosiaan että ytimen lämpötila vaikuttaa tuohon koteloon siirtyvään lämpöön eikä teho? :facepalm:

Toki vaikuttaahan se niin että mitä kuumempi ydin samalla kuormalla, sitä vähemmän lämpöä vapautuu koteloon...
Teho ei vaikuta mitään siihen mitä siitä heatsinkistä siirtyy ilmaan. Ytimen lämpökään vaikuta tasan mitään. Vain sen heatsinkin lämpötila.
 
GPU-tehojen noustessa CPU-pullonkaulan todennäköisyys kasvaa kyllä muissakin kuin kilpapeleissä. Minun reaalimaailman esimerkkini oli Wolfenstein RT-herkuilla, ei kilpapeli.

Juu toki jos lähdetään juuri todella korkeita FPS lukuja hakemaan DLSS:n käytöllä ym. Yleensä jotain 144 + fps lukemia vaan nimenomaan yleensä tavoitellaan kilpapelaamisessa. Eipä tuolla suurimmalle osalle pelaajista hirveesti ole väliä, onko se FPS 150 vai 250.
 
Ja siihen jäähdytyssiilin lämpötilaan vaikuttaa teho...
Ja se ei enää liity siihen minkä lämpöiseksi se ilma pystyy lämpiämään virratessaan yli siitä heatsinkistä. Pieni saman lämpöinen heatsinkki saa pienen määrän ilmaa saman lämpöiseksi kuin suuri saman lämpöinen hestsinkki suuren määrän ilmaa. Kokonaislämpöenergia oli sitten paljon suurempi toisessa tapauksessa. Sepä ei nyt ollutkaan epäselvää missään välissä.
 
Teho ei vaikuta mitään siihen mitä siitä heatsinkistä siirtyy ilmaan. Ytimen lämpökään vaikuta tasan mitään. Vain sen heatsinkin lämpötila.

No kyllähän se teho vaikuttaa aika pirun ratkaisevasti siihen, kuinka paljon sitä lömpöä voi siirtyä siihen heatsinkkiin ja siten siihen, mitä siitä heatsinkistä sitten siirtyy koteloon. 3000 sarjan heatsink varastoi ja vapauttaa sitä "tehoa" ihan eri määriä, mitä 1660:n rimpula heatsink, vaikka molempien GPU temp olisi 85c
 
No kyllähän se teho vaikuttaa aika pirun ratkaisevasti siihen, kuinka paljon sitä lömpöä voi siirtyä siihen heatsinkkiin ja siten siihen, mitä siitä heatsinkistä sitten siirtyy koteloon. 3000 sarjan heatsink varastoi ja vapauttaa sitä "tehoa" ihan eri määriä, mitä 1660:n rimpula heatsink, vaikka molempien GPU temp olisi 85c
Kyllä, mitä enemmän tehoa die ja muistit tuottaa----suurempi lämpökuorma heatsinkille tuulettimille ratkaistavaksi.
 
Ja se ei enää liity siihen minkä lämpöiseksi se ilma pystyy lämpiämään virratessaan yli siitä heatsinkistä. Pieni saman lämpöinen heatsinkki saa pienen määrän ilmaa saman lämpöiseksi kuin suuri saman lämpöinen hestsinkki suuren määrän ilmaa. Kokonaislämpöenergia oli sitten paljon suurempi toisessa tapauksessa. Sepä ei nyt ollutkaam epäselvää missään välissä.

Eli sun mielestä siis 320w näytönohjain ei lämmitä koteloa ja sen komponentteja yhtään enempää kun 120w rimpula...

Tämä selvä.
 
Ja se ei enää liity siihen minkä lämpöiseksi se ilma pystyy lämpiämään virratessaan yli siitä heatsinkistä. Pieni saman lämpöinen heatsinkki saa pienen määrän ilmaa saman lämpöiseksi kuin suuri saman lämpöinen hestsinkki suuren määrän ilmaa. Kokonaislämpöenergia oli sitten paljon suurempi toisessa tapauksessa. Sepä ei nyt ollutkaan epäselvää missään välissä.
Sinä olet tässä kyllä väärässä. Selkein asia joka vaikuttaa siilistä poistuvaan lämpötilaan on nimenomaan teho minkä näytönohjain ottaa. Ainoat tapaukset missä näin ei ole, on epätasapainossa oleva systeemi, eli sellainen jossa näytönohjaimen lämpötila muuttuu. Jos siilistä/sirusta poistuva lämpövuo on suurempi kuin näytönohjaimen ottama teho, se viilenee. Toisinpäin taas se kuumenee.

Jossain kohtaa lämpövuo tasaantuu siihen, mikä on näytönohjaimen ottoteho. Tällöin näytönohjaimen tuulettimen poistama lämpöteho on käytännössä täsmälleen se, minkä näytönohjain kuluttaa.
 
@Cirrus tuossa varmaan tarkoitti, että vaikka se RTX3080 näytönohjain hohkaisi 80'C lämpöisenä niin ei siihen ~24'C lämpöiseen ilmaan mikä virtaa siilen läpi kerkeä siirtyä kuin murto osa eli ei se lämmitä sitä ilmaa 80'C lämpöiseksi.
 
Sinä olet tässä kyllä väärässä. Selkein asia joka vaikuttaa siilistä poistuvaan lämpötilaan on nimenomaan teho minkä näytönohjain ottaa. Ainoat tapaukset missä näin ei ole, on epätasapainossa oleva systeemi, eli sellainen jossa näytönohjaimen lämpötila muuttuu. Jos siilistä/sirusta poistuva lämpövuo on suurempi kuin näytönohjaimen ottama teho, se viilenee. Toisinpäin taas se kuumenee.

Jossain kohtaa lämpövuo tasaantuu siihen, mikä on näytönohjaimen ottoteho. Tällöin näytönohjaimen tuulettimen poistama lämpöteho on käytännössä täsmälleen se, minkä näytönohjain kuluttaa.
Mistään tallaisesta ei edes keskusteltu. Kaikki lämpöenergia täytyy poistaa tasapainotilan syntymiseen tietysti.
 
50% on enemmän kuin 1/3.

Toisekseen, eikös se peräpään tuuletin ole paljon lähempänä itse lämpölähdettä, eli sirua? jolloin voi olettaa että perän tuuletin kohtaa suuremmassa lämpötilassa olevan siilin, joten sen on helpompi puhaltaa lämpöenergiaa pois verrattuna etupään PCB:n läpi puhaltavaan. En osaa sanoa kuinka tehokkaasti lämpöputket saavat lämpöä siirrettyä etupään rivastolle, mutta veikkaisin sen olevan vähemmän kuin suoraan sirun päällä olevalla siilillä.
Osuus kokonaislämpövuosta ei varmasti ole kuin maks kolmannes.
Tuon takana olevan tuulettimen jäähdyttämän rivaston lämmöistä luokkaa puolet pyrkii koteloon sisään:
NVIDIA GeForce RTX 3080 heatsink leaked - VideoCardz.com
Eli vaikka se rivaston osa hoitaisikin hieman yli puolet lämmön ilmaan haihduttamisesta ollaan edelleen kolmanneksessa kokonaislämpöenergian poistamisessa kotelosta.

Tuulettimen sijoittaminen jäähyn keskiosaan puhaltamaan ilmaa ulos tuulettimen nykyisen sijainnin kohdalla olevan täysipaksuisen rivaston läpi olisi ollut paljon tehokkaampi poistamaan lämpö kotelosta.

Ja lämpöputket ovat todella tehokkaita siirtämään lämpöä matkan päähän.
 

Uusimmat viestit

Statistiikka

Viestiketjuista
259 254
Viestejä
4 501 848
Jäsenet
74 375
Uusin jäsen
wookie

Hinta.fi

Back
Ylös Bottom