NVIDIA GeForce RTX 3080 / 3080 Ti / 3090 -ketju (GA102)

  • Keskustelun aloittaja Keskustelun aloittaja Kaotik
  • Aloitettu Aloitettu
HWinfo 6.42 lisäsi GDDR6X lämpöjen sensorilukeman :thumbsup:


Added monitoring of GDDR6X Memory Junction Temperature on NVIDIA RTX 30-series.
Vihdoin. Vielä jos sais VRM lämmöt näkyville niin ei tartteis miettiä ottaako blokki kunnolla kontaktia kaikkeen.

Ihan yleisenä huomiona sit et ei kannata korkeita lämpötiloja säikähtää muisteilla. Noi on Micronin puolesta speksattu 0-95c rangelle, ja nää kanssa sitten myös käy lämpösenä. Varsinkin 3090 korteilla ku jäähynä toimii taustapuolella ainoastaan backplate.
 
Ajattelin vihdoin alivoltittaa 3080 TUF OC:n kunnes huomasin GPU-Z monitoroinnissa tällaista:

3080.JPG


Miten tuo on mahdollista, toinen kaapeli irti? Silmämääräisesti on kyllä paikallaan ja kaikki toimii kuten pitää...
 
Ajattelin vihdoin alivoltittaa 3080 TUF OC:n kunnes huomasin GPU-Z monitoroinnissa tällaista:

3080.JPG


Miten tuo on mahdollista, toinen kaapeli irti? Silmämääräisesti on kyllä paikallaan ja kaikki toimii kuten pitää...
Tuskin käynnistyiskään jos ei se toinen letku olis kiinni. Tsekkaa mitä HWInfo sanoo, varmaan samaa kyl mut kannattaa se silti kokeilla. Mitä kokonaiskulutus sanoo GPU-Z puolesta?

Tuskin kannattaa tosta huolestua sen suuremmin, jos kaikki toimii muuten miten pitää siis.
 
Tuskin käynnistyiskään jos ei se toinen letku olis kiinni. Tsekkaa mitä HWInfo sanoo, varmaan samaa kyl mut kannattaa se silti kokeilla. Mitä kokonaiskulutus sanoo GPU-Z puolesta?

Tuskin kannattaa tosta huolestua sen suuremmin, jos kaikki toimii muuten miten pitää siis.

Board Power Draw 208.6W (max) muutaman 3dmark ajon jälkeen, outoa...
 
Board Power Draw 208.6W (max) muutaman 3dmark ajon jälkeen, outoa...
No siitä puuttuu just se 150w mitä toi 8-pin #2 antaa. Mitä sun tulokset on tosta 3D Markista? Jos ne kuitenkin on normaalit niin joko toi sensori on rikki tai sit ohjelmat eivät vaan sun koneellas osaa sitä syystä tai toisesta lukea.
 
Prossupäivitystä kannattaa myös suhteuttaa useampaa, kuin ainoastaan yhteen peliin tai pelimoottoriin. Väittäisin että suurimmassa osassa peleistä tuollaista stutterointia ei ole 1440p tai 4K resoluutoilla.

Tässä hieman isompaa otantaa eri peleistä 1080p, 1440p ja 4K resoluutioilla. Benchin tulos tulee monelle varmasti yllätyksenä:

Tässä oli kyseessä i5-8600K eli 6c6t prosessori. Linkkaamassasi 16 game averagessa ei ole yhtään tällaista vertailussa, vaan kaikki ovat vähintään 6c12t. Lisäksi käytössä oli RX6800 eikä huomattavasti tehokkaampi 3090 RTX. Siksi nuo 4K averaget ovat noin matalat ja ne tasoittavat CPU:iden välisiä eroja.

Techspotilla on esim. tällainen vertailu, missä 1% low FPS on testatuissa peleissä selkeästi jäljessä 6c12t vs. 6c6t (8700K vs. 9600K):

Toki tässä pelataan 4K:lla eikä 1080p:llä. Jos ei pelata asetukset tapissa vaan tavoitellaan 4K/120Hz-kokemusta (johon 3090 usein hankitaan), niin silloin vaaditaan myös tehokas CPU. Nuo keskiarvojen keskiarvot ultra-asetuksilla piilottavat satunnaiset nykimiset alleen ja tilanne muuttuu, kun asetuksia pudotetaan paremman refresh raten eteen.

Tätä olen tässä vähän miettinyt, kun tosiaan käyttö on nyt 3090 myötä täysin 4K töllöllä pelaamista. En ainakaan silmämääräisesti noissa kahdessa mainitussa pelissä ole mitään stutterointia (nykimistä oletan, en jaksa nyt googlata). Tiedä sitten auttaako g-sync myös tähän vaivaan. Mutta pistetään korvan taakse, sinäänsä 9900k voisi olla oiva vaihtoehto, mutta toisaalta jos tässä nyt syksyyn/ensi vuoteen pärjää näillä ja säästelee kunnon rykäisyä varten niin voisi olla DirectStorage yms käyttövalmis ja PCI-E gen4 NVMe ajankohtainen myös :hmm:

G-sync auttaa satavarmasti ja pehmentää/peittää mahdollisia nykimisiä. Jos kone tuntuu liukkaalle, niin mitäpä sitä päivittämään. Käytettyjä 9900K-prossuja löytynee käytettynä sopuhintaan toreilta myöhemmin tänä vuonna. Onhan tuo jo nyt melkoinen battle station, mutta ikääntynyt i5 useamman tonnin koneessa tekee siitä epätasapainoisen.
 
Tässä oli kyseessä i5-8600K eli 6c6t prosessori. Linkkaamassasi 16 game averagessa ei ole yhtään tällaista vertailussa, vaan kaikki ovat vähintään 6c12t. Lisäksi käytössä oli RX6800 eikä huomattavasti tehokkaampi 3090 RTX. Siksi nuo 4K averaget ovat noin matalat ja ne tasoittavat CPU:iden välisiä eroja.

Techspotilla on esim. tällainen vertailu, missä 1% low FPS on testatuissa peleissä selkeästi jäljessä 6c12t vs. 6c6t (8700K vs. 9600K):

Toki tässä pelataan 4K:lla eikä 1080p:llä. Jos ei pelata asetukset tapissa vaan tavoitellaan 4K/120Hz-kokemusta (johon 3090 usein hankitaan), niin silloin vaaditaan myös tehokas CPU. Nuo keskiarvojen keskiarvot ultra-asetuksilla piilottavat satunnaiset nykimiset alleen ja tilanne muuttuu, kun asetuksia pudotetaan paremman refresh raten eteen.



G-sync auttaa satavarmasti ja pehmentää/peittää mahdollisia nykimisiä. Jos kone tuntuu liukkaalle, niin mitäpä sitä päivittämään. Käytettyjä 9900K-prossuja löytynee käytettynä sopuhintaan toreilta myöhemmin tänä vuonna. Onhan tuo jo nyt melkoinen battle station, mutta ikääntynyt i5 useamman tonnin koneessa tekee siitä epätasapainoisen.
On se silti suuntaa-antava benchi. Samoin testistä käy ilmi ettei lisäytimien määrästä ei välttämättä ole merkittävää hyötyä monessakaan pelissä. Kuten aiemmin jo totesinkin, hankintaa kannattaa suhteutaa omien pelien ja resoluutioiden kanssa. Unohtamatta tietty DDR5:n julkaisuaikaa. :)
 
G-sync auttaa satavarmasti ja pehmentää/peittää mahdollisia nykimisiä. Jos kone tuntuu liukkaalle, niin mitäpä sitä päivittämään. Käytettyjä 9900K-prossuja löytynee käytettynä sopuhintaan toreilta myöhemmin tänä vuonna. Onhan tuo jo nyt melkoinen battle station, mutta ikääntynyt i5 useamman tonnin koneessa tekee siitä epätasapainoisen.
Kiitos vastauksista, pitää tosiaan pohtia mitä tämän kanssa tekee. Tällä hetkellä ei tunnu ihan vielä tarpelliselta mutta RDR2 aloittamisen jälkeen voi tietysti olla toinen ääni kellossa. Pitää puntaroida tuota DirectStorarega / gen4 NVMe tarvetta silmällä pitäen. 9900K voisi varmasti kyllä pärjätä vielä vuosia lisää mutta DirectStoragen hyödyt saattavat jäädä vain gen4 NVMe:n iloksi. Toisaalta riippuu myös siitä miten helposti tuohon tulevat ja vanhemmat pelit saavat hyötyä, jos jollain pikku patchilla/ilman patchia vanhojenkin pelien latausajat nopeutuvat DirectStoragella niin siihen kykenevän raudan himo kasvaa huomattavasti.
 
Milläs lämmöllä nää muistit rupee tiputtaa mhz:jä tai mitä nyt tekeekään korjaa? 84c näyttää kun +1200 laitettu ja ajettu heavenia noin 20min. Kortti siis 3080 suprim x
 
On se silti suuntaa-antava benchi. Samoin testistä käy ilmi ettei lisäytimien määrästä ei välttämättä ole merkittävää hyötyä monessakaan pelissä. Kuten aiemmin jo totesinkin, hankintaa kannattaa suhteutaa omien pelien ja resoluutioiden kanssa. Unohtamatta tietty DDR5:n julkaisuaikaa. :)
Kyse siis ei ollut ytimien määrästä vaan säikeiden määrästä (12 on 100% enemmän kuin 6). Säästin joskus itsekin sen satasen ja hankin i5-4670K:n (4c4t) i7-4770K:n sijasta (4c8t). Jälkikäteen tuli iso pettymys ja kadutti, koska tästä aiheutui ylimääräinen päivityskierros pelien alkaessa sakkailemaan high refresh -monitorin kanssa (alle 60 FPS tätä ei huomannut).

DDR5 lienee hyvä valinta joskus 2-3 vuoden päästä. Sitä ennen tarvitaan kuitenkin pari GPU-sukupolvea, jotta päästään edes nykyisillä prossuilla sinne 4K/120-tasolle.
 
Milläs lämmöllä nää muistit rupee tiputtaa mhz:jä tai mitä nyt tekeekään korjaa? 84c näyttää kun +1200 laitettu ja ajettu heavenia noin 20min. Kortti siis 3080 suprim x
No ei se ihan noin yksinkertaista ole. Lämmöt saa varmaan olla +100c ennenku alkaa epävakautta tai throttlausta lämpöjen takia näkymään, mut suorituskyky laskee sen ECC takia pääasiassa sen myötä et on lyöty liikaa kelloja muisteille.

Ei tota saa selville kun testaamalla, ei tässä oikeen mitään kultasta sääntöä ole. Varsinkaan kun nykyään se epävakauskaan ei näy siinä et artifakteja tai kaatumisia alkaa näkymään, vaan huonommassa suorituskyvyssä.
 
No ei se ihan noin yksinkertaista ole. Lämmöt saa varmaan olla +100c ennenku alkaa epävakautta tai throttlausta lämpöjen takia näkymään, mut suorituskyky laskee sen ECC takia pääasiassa sen myötä et on lyöty liikaa kelloja muisteille.

Ei tota saa selville kun testaamalla, ei tässä oikeen mitään kultasta sääntöä ole. Varsinkaan kun nykyään se epävakauskaan ei näy siinä et artifakteja tai kaatumisia alkaa näkymään, vaan huonommassa suorituskyvyssä.
Juu ite huomasin timespy:ssä että pisteet alkaa laskee +1300 mutta +1200 antaa parhaat tulokset. Eli mulla maksimi toi +1200
 
Joo, joku käpy tossa on pakko olla, kun nyt katoin samalla CPU+GPU-combolla noita scoreja, niin sais ykköspaikan tolla tuloksella. Tän hetken paras näyttää 5800X+3080;
18 292 with NVIDIA GeForce RTX 3080(1x) and AMD Ryzen 7 5800X
Graphics Score20 086
CPU Score12 147
eli vajaa 500 pienempi overall, ~750 pienempi graphics ja 146 parempi CPU kuin itellä. Ja nyt kun kävin kattomassa 3dmarkin sivuilta, niin omaan tulokseen tuli huutomerkki ja "TIME MEASURING INACCURATE. RESULTS ...", tiedä sitten mistä moinen. :confused:

2010 max ja avg 1980Mhz kelloilla non oc tuffilla 17 593 Graphics Score, joten jotain tossa pielessä.
 
Viimeksi muokattu:
3080 Suprim x pujoteltu kotelon sisään. En viitsinyt tänään vielä alkaa ihmettelemään afterburnerin kanssa. Meinas mennä hermot jo sen koteloon saamisen kanssa, ku alko olee nestejäähyn säiliö edessä. Vakiona lämpenee aika paljon enemmän kuin edellinen asuksen 1070, mutta käänsin kyllä asetukset peleissä tappiin. Eiköhän ne lämmöt saa kuriin kun tohon löytää blokin joskus päälle.
 
Uutta ajuria pukkaa:

Siellähän näkyykin olevan useita kaatuiluongelmia korjattu. Ei välttämättä aina raudassa ole vika, jos kone kippailee. Osaa nuo ajuritkin alkuvaiheessa aika bugisia olla. Itsehän kärsin sellaisesta ongelmasta, että 3080 kaataa satunnaisesti koneen työpöydällä idle -kelloilla. Toimii kaatumatta vain, jos laittaa GPU power managementin performancelle. Saa nähdä korjaako nämä ajurit...
 
Siellähän näkyykin olevan useita kaatuiluongelmia korjattu. Ei välttämättä aina raudassa ole vika, jos kone kippailee. Osaa nuo ajuritkin alkuvaiheessa aika bugisia olla. Itsehän kärsin sellaisesta ongelmasta, että 3080 kaataa satunnaisesti koneen työpöydällä idle -kelloilla. Toimii kaatumatta vain, jos laittaa GPU power managementin performancelle. Saa nähdä korjaako nämä ajurit...
Mulla tämä sama vika. tai siis mulla kaatuu vain ajurit.
näytöt vetää mustaksi mutta kuva palautuu hetken päästä. Tämä vain työpöydällä jne mutta ei ikinä peleissä ja performance tila "korjaa" vian.
 
Aika korkeat näyttäs olevan muistien lämpötilat hwinfon mukaan. Tekisi mieli laittaa lämpötyynyt muistien takapuolen ja backplaten väliin, mutta menee vissiin takuu, jos noin tekee? Ja auttaako nuo lämpötyynyt yleensä kuinka paljon?
 
Mulla tämä sama vika. tai siis mulla kaatuu vain ajurit.
näytöt vetää mustaksi mutta kuva palautuu hetken päästä. Tämä vain työpöydällä jne mutta ei ikinä peleissä ja performance tila "korjaa" vian.
Ai, tää on yleinenkin vika? Ruvennu itellä tekemään samaa todella harvakseltaan, mutta en oo keksiny vielä et mikä palikka syynä. Ku on betatestaajan roolissa aikalailla kaiken raudan osalta, emon biosit enempivähempi betaa, näyttö (odyssey g9) kunnon betamalli ja korttikin sit vielä näemmä :tdown:

Noh, hyvä tietää et mistä kiikastaa, ei tota kuitenkaan sen verran usein tapahdu et olisin jaksanu ruveta ihmettelemään sen enempää, event vieweristä vaan katellu et ajurit kippaa syystä x.
 
HInnat ja saatavuudet on aika heikkoja tällä hetkellä, mutta itse ostaisin varmaan tämän:
Corsair RM1000x, 80 PLUS Gold -ATX-virtalähde, 1000 W 214,90

Tai jos tuntuu liian kalliilta niin tämä: (tosin watteja ei ole sen enempää kuin nykyisessä)
Corsair 750W RM750x (2018), modulaarinen virtalähde, 80 Plus Gold - 132,90€

Paikallisesta liikkeestä (Datatronic) löytyi myymälästä tuota Corsairin 1000 Wattista ja se on nyt koneessa kiinni. Ennen vakiokelloilla Cyberpunkki kaatui heti, mutta nyt pelailin jonkun aikaa eikä ollut ongelmaa. :) Eli ongelma näillä näkymin ratkennut, toki asiaa saattoi auttaa myös uudet ajurit.

Edit: itse asiassa oma powerini on RM1000i, ei RM1000X.
 
Vaikeaa tää maksimikellojen hakeminen.. Jos laittaa liikaa voltteja niin hakkaa powerlimittiin. Jos liian vähän, niin ei kuitenkaan jaksa boostata vakaasti korkealle. Isoin mitä sain nyt aikaiseksi 430 W powerlimitillä on
Kellot vakaasti 2020 MHz ja muistikellot + 1250 mHz, Time Spy score tasan 19400. Onko tämä ihan ok teidän mielestä? Jos ei, niin mitä kannattaisi tehdä? Myönnän että aloin jo vähän väsymään jännitekäyrän säätelyyn. Jos jollakulla olisi jokin keittokirjaohje, niin voisin ottaa vastaan mielellään.
 
Vaikeaa tää maksimikellojen hakeminen.. Jos laittaa liikaa voltteja niin hakkaa powerlimittiin. Jos liian vähän, niin ei kuitenkaan jaksa boostata vakaasti korkealle. Isoin mitä sain nyt aikaiseksi 430 W powerlimitillä on
Kellot vakaasti 2020 MHz ja muistikellot + 1250 mHz, Time Spy score tasan 19400. Onko tämä ihan ok teidän mielestä? Jos ei, niin mitä kannattaisi tehdä? Myönnän että aloin jo vähän väsymään jännitekäyrän säätelyyn. Jos jollakulla olisi jokin keittokirjaohje, niin voisin ottaa vastaan mielellään.

Jos kortti on 3080 niin 19400 on hyvä tulos :thumbsup:

Siis jos on kyse graphics scoresta.
 
Jos kortti on 3080 niin 19400 on hyvä tulos :thumbsup:

Siis jos on kyse graphics scoresta.
Joo, on nimenomaan siitä kyse. Laitan nyt vielä Time Spy stressitestin pyörimään, mutta tähän mennessä ei ole vielä kaatunut kertaakaan, iterointeja olen tehnyt jo aika monta.
 
Milläs lämmöllä nää muistit rupee tiputtaa mhz:jä tai mitä nyt tekeekään korjaa? 84c näyttää kun +1200 laitettu ja ajettu heavenia noin 20min. Kortti siis 3080 suprim x
Heaven ei taida edes olla kauhean raskas benchmark. Luulisin ainakin, että muistit huitelevat raskaassa pelikäytössä 90c-100c. Oletko testannut vielä millään muulla kuormalla?
Täytyy itsekkin testailla vielä miten omat muistit lämpeävät kun lyö cp77 tulille.
Edit. Oma käsitys on, että yleensä muistit ovat vakaat siinä noin +600MHz paikkeilla. Itsellä +600 ylöspäin alkaa pisteet tippumaan 3dmarkissa joten olen tyytynyt +500 kellotuksiin muistien osalta.
 
Viimeksi muokattu:
Tähän tulokseen kelpaa lopettaa urakka. Koko huone on jo ihan lämmin ja vaimo kyselee huolestuneen näköisenä että kauanko oikein aiot tehdä tätä.
Sain siis boostaamaan 2040 mHz-kelloille melko vakiona, muistit edelleen +1250 mHz
Huom, Time spy score on custom, koska prossutesti ei sisältynyt.

Edit: selvästi menohaluja kortilla löytyy, jos laittaisi vielä 450 w biosin niin pääsisikö jo lähelle 20k?
 

Liitteet

  • IMG_20210126_200020.jpg
    IMG_20210126_200020.jpg
    6,8 MB · Luettu: 103
Viimeksi muokattu:
Tähän tulokseen kelpaa lopettaa urakka. Koko huone on jo ihan lämmin ja vaimo kyselee huolestuneen näköisenä että kauanko oikein aiot tehdä tätä.
Sain siis boostaamaan 2040 mHz-kelloille melko vakiona, muistit edelleen +1250 mHz
Huom, Time spy score on custom, koska prossutesti ei sisältynyt.

Edit: selvästi menohaluja kortilla löytyy, jos laittaisi vielä 450 w biosin niin pääsisikö jo lähelle 20k?
Oletko kokeillut pienemmillä muistikelloilla? Varmaan aika harvassa on vakaat +1000 kellot ja tosiaan kun epävakaat muistit eivät näy artifakteina vaan lyö muistinkorjauksen päälle jolloin suorituskyky vain laskee.
 
Tähän tulokseen kelpaa lopettaa urakka. Koko huone on jo ihan lämmin ja vaimo kyselee huolestuneen näköisenä että kauanko oikein aiot tehdä tätä.
Sain siis boostaamaan 2040 mHz-kelloille melko vakiona, muistit edelleen +1250 mHz
Huom, Time spy score on custom, koska prossutesti ei sisältynyt.

Edit: selvästi menohaluja kortilla löytyy, jos laittaisi vielä 450 w biosin niin pääsisikö jo lähelle 20k?
Jos sulla suprim x niin 450w bios ainakin omassani laski pisteitä muutamalla satasella
 
Oletko kokeillut pienemmillä muistikelloilla? Varmaan aika harvassa on vakaat +1000 kellot ja tosiaan kun epävakaat muistit eivät näy artifakteina vaan lyö muistinkorjauksen päälle jolloin suorituskyky vain laskee.
Oon, mutta ihan järjestetään tuli pienempiä tuloksia pienemmillä muistikelloilla. 1300 oli taas huonompi kuin 1250.
 
Oletko kokeillut pienemmillä muistikelloilla? Varmaan aika harvassa on vakaat +1000 kellot ja tosiaan kun epävakaat muistit eivät näy artifakteina vaan lyö muistinkorjauksen päälle jolloin suorituskyky vain laskee.

Ei kyllä mun kokemuksen ja näkemyksen ole +1000 mitenkään poikkeuksellista, pikemminkin se normi on niillä paikkein. Paitsi ehkä 3090:eillä, koska niissä on jo alkujaan korkeammat muistikellot ja lisäksi lämmöt saattaa olla korkeammat kun on piirit stackkeina.
 
X570 Tomahawk, 5800X ja 3600/C18 muistit. Vain XMP laitettu päälle tuossa vedossa.

Jotain ihmeellistä on näissä markkipisteissä, oma yhteistulos jää n.2000 pistettä vastaavalla raudalla ja kelloilla varustetusta kärkituloksesta. Graphics scoressa eroa reilu 2000 vaikka samat kellot.
i7-8700K prossuna
 
Jotain ihmeellistä on näissä markkipisteissä, oma yhteistulos jää n.2000 pistettä vastaavalla raudalla ja kelloilla varustetusta kärkituloksesta. Graphics scoressa eroa reilu 2000 vaikka samat kellot.
i7-8700K prossuna
Voisiko vain johtua siitä että sulla näyttis hakkaa enemmän power limittiä vastaan?
 
Jotain ihmeellistä on näissä markkipisteissä, oma yhteistulos jää n.2000 pistettä vastaavalla raudalla ja kelloilla varustetusta kärkituloksesta. Graphics scoressa eroa reilu 2000 vaikka samat kellot.
i7-8700K prossuna
On kyllä juu. Mulla ihan perus 3200mhz cl16 muistit ja 2025mhz menee suunnilleen timespy muistit +1200 ja pistee 19400 reilu GP. Prossuna i5 10600k 5ghz.
 
Tästä ollut ehkä jo puhetta, mutta ei nyt haulla osunut silmään: toimiiko muiden TUFnuissa tuo ZeroFan? Omassa tuulettimet ei mene alle 53% edes Afterburner / GPU Tweakista käskemällä vaikka idlelämmöt 40 C ja alle. Joillakin ilmeisesti korjaantunut BIOS-päivityksellä, omassa taitaa olla valmiina uusin (94.02.26.48.43) kun paketti sanoo "Your graphic card no need to update VBIOS!".

Itse itselleni vastaten, näköjään päivittämällä ajurit Clean installina korjaantui tämä ja nyt tuulettimet pysähtyy idle-lämmöissä.
 
3080 Suprim x pujoteltu kotelon sisään. En viitsinyt tänään vielä alkaa ihmettelemään afterburnerin kanssa. Meinas mennä hermot jo sen koteloon saamisen kanssa, ku alko olee nestejäähyn säiliö edessä. Vakiona lämpenee aika paljon enemmän kuin edellinen asuksen 1070, mutta käänsin kyllä asetukset peleissä tappiin. Eiköhän ne lämmöt saa kuriin kun tohon löytää blokin joskus päälle.
Mitä lämpöjä on pelatessa?. Se tuki on oikeastaan ihan pakollinen, painava on kortti :D.
 
Onko pelin ( CoD cold war) päivitys rikkonut Nvidia reflexin, vaiko uudet ajurit kun ei enää rajaa fps muutaman alle virkistystaajuuden?

3090 ja näyttö 4k @160hz, ennen rajasi 153 fps mutta nyt ei edes Nvidian paneelista laitettu Vsync rajoita fps:ää. Ainut millä saa kuriin niin pelin sisäinen fps limit.

Positiivinen ongelma kun kaikki asetukset täysillä ( paitsi RTX ) ja DLSS Qualityllä niin fps karkaa 4k: llakin kentästä riippuen reilusti yli 160. Ei rajoita 8700K ainakaan CoDissa 3090 menoa.
 
HWiNFO lisänny tämmösen hienouden:
"Added monitoring of GDDR6X Memory Junction Temperature on NVIDIA RTX 30-series. "
A note regarding the new GDDR6X Memory Junction Temperature:
Just like in case of Navi, this is not the external (case) temperature, but internal junction temperature measured inside the silicon.
So don't be scared to see higher values than other common temperatures, it's expected. Also the limits are set respectively higher (throttling starts around 110 C).
EDIT: Adding that the value reported should be the current maximum temperature among all memory chips.
 
Voisiko vain johtua siitä että sulla näyttis hakkaa enemmän power limittiä vastaan?
Mitäänhän en karkkimakkien sielunelämästä tiedä, mutta äkkiseltään kuvittelisin, että silloin myös avg Mhz ois matalampi? Itse kuitenkin sain matalammalla avg:lla korkeamman tuloksen kuin @siffonen . :hmm:
 
Mitäänhän en karkkimakkien sielunelämästä tiedä, mutta äkkiseltään kuvittelisin, että silloin myös avg Mhz ois matalampi? Itse kuitenkin sain matalammalla avg:lla korkeamman tuloksen kuin @siffonen . :hmm:
Omalla alivoltitetulla kortilla timespyssa on muutama kohta missä power limitti hakkaa vastaan urakalla, ajallisesti se ei kestä kauaa mutta pisteissä sen uskoisin voivan kuitenkin näkyä. Ja toinen tosiaan on se, että itse saan huomattavasti enemmän pisteitä kun muistien kellot on +500MHz vs +1000MHz, sekä itsellä vaikuttaa sekin paljon pisteisiin onko tuulettimet automaatilla vai manuaalisesti asetettuna vaikka 80%.
 
Mitäs muilla näyttää hwinfo/gpu-z alimmaksi 8-pin input voltageksi pelatessa/markkiajossa? muutkin +12v minimit kiinnostaa sillä omassa näyttää droppaavan alle 12v jopa 11.5v asti muutama jännite. Powerina 850w Evga supernova p2
17500 graphics score 1996Mhz average kelloilla ja muistit +500, 109% max tdp ja lämmöt max 36
 

Statistiikka

Viestiketjuista
259 243
Viestejä
4 501 555
Jäsenet
74 373
Uusin jäsen
elspa

Hinta.fi

Back
Ylös Bottom