NVIDIA GeForce RTX 3080 / 3080 Ti / 3090 -ketju (GA102)

  • Keskustelun aloittaja Keskustelun aloittaja Kaotik
  • Aloitettu Aloitettu
Itseäni ihmetyttää tuo 100 watin kulutus jos kone on tekstin mukaan noin idlenä. Kuulostaa aika suurelta kulutukselta tähän nähden.
Aivan tasan samaa rupesin kommentoimaan.
2x näyttö kiinni ja chrome auki:
1699952911692.png


EVGA:n lämpöjä en toki osaa kommentoida, mutta onhan ne asukseen verrattuna (tai no ehyeen kuivamattomaan asukseen) hirmuisia.
 
Itellä samanlaisessa käytössä 4090 vetää alle 20W. :D
@Azaloom Eihän sulla ole Nvidian Control Panelista laitettu "Manage 3D settings -> Power management mode -> Prefer maximum performance"? Se tuppaa tekemään tommosta ja estää GPU:n idlailun..
 
Tässä on 2min Karvamarkka-ajo, plus minuutti lämpöjen luonnollista laskua sen jälkeen. Mulla on Aquasuite, mikä skaalaa kotelotuuletuksen rasituksen mukaan. Lukee HWiNFO:lta mm. gepun lämpötilan. Itse gepun tuuletinohjaukseen en ole koskenut, eli toimii vakiokäyrällä. Vähänkin kun selainta käyttää, niin kotelotuuletus nousee perustasolta sinne 15-25% tienoille. Normaalisti ei muilla gepuilla ole ottanut ylimääräisiä kierroksia juurikaan työpöytäkäytössä, etenkään talviaikaan.

Video on 4k@30fps. Google saattaa hetken käsitellä sitä:

Täytyy lisäksi mainita, että tuossa hieman vajaa kk sitten alkoi outo työpöydän jumittuminen n. 20 sekunniksi aina, kun jompi kumpi kahdesta monitorista tunnistuu uudelleenliitetyksi tai poistetuksi. Lyhyesti kokeilin, että kun GeForce Experiencen sammuttaa taustalta, niin ongelma katoaa. Koitin DDU:lla pyyhkiä kaikki NVidian ajurit ja asentaa uusiks, mutta ei vaikutusta.
 
Jokin siellä nyt pitää kulutusta yllä, evga 3090ti yhdellä näytöllä idlenä chrome auki syö 14w.
 
Tehtävienhallinnasta oikealla klikkaamalla otsikkoriviä voi pistää GPU käyttöasteen mukaan taulukkoon.
Näemmä itselläkin Nvidian joku prosessi oli syömässä resursseja, tippui pois kun käynnisti GeForce Experiencen ja siellä olikin GFE päivitys odottamassa.
GFE ongelma nyt toki ei varmaan tässä tapauksessa auta, jos DDU:lla kerta uudelleenasennus tehty, mutta ehkä siellä on joku muu prosessi käyttämässä resursseja?

1699955362355.png
 
Jaa. Veikkaanpa muuten, että johtuu mun korkeista virkistystaajuuksista. Mulla on nimittäin 3440x1440 ja 4k näytöt vierekkäin, molemmat 120Hz-virkistystaajuudella. Muistan silloin alkuun, kun jollain mopogepulla muutamia vuosia sitten laitoin 120Hz-virkistystaajuuden Windowsissa päälle 2. näytölle, niin johan alkoi gepu hönkimään koko ajan. Tässä välissä on käynyt sellaisia laatunäyttiksiä koneessa kuten Suprim X-sarjan 3080 ja 3090, joilla vastaavaa ongelmaa ei huippu jäähdytyksen vuoksi ole ilmennyt, joten päässyt unohtumaan asia.

Tuossa on parin minuutin istuskelu työpöydällä ja virrankulutuksen seurailu. Suljen tuossa taustalta kaikki ylimääräiset ohjelmat, mutta gepun jatkaa tasaisesti 87-88 watin hörppäämistä. Viereinen Corsun iCue näyttää koko kokoonpanon virrankulutusta. Suoritin on 13900k ja lankku Asus ROG Maximus Z690 Extreme.

Näköjään Google käsittelee edelleen aiempaakin videota, joten tässäkin mennee tovi.

Ensin mainittu selittänee sen, että kun softasuljen näytöt, niin kone kyllä hiljenee taustalla nopeasti kokonaan.
 
Itellä 4K ja 1440p monitorit 120Hz:llä ja molemmat päällä vajaa 25W GPU:n kulutus, eli kyllä siellä jotain muuta taitaa olla pielessä.. Tarkistitko sen Nvidia CP:n?
 
Itellä 4K ja 1440p monitorit 120Hz:llä ja molemmat päällä vajaa 25W GPU:n kulutus, eli kyllä siellä jotain muuta taitaa olla pielessä.. Tarkistitko sen Nvidia CP:n?

NVidia Control Panelin? Mitä sieltä tarkkaan ottaen? Näyttää pikaisella tarkastuksella normaalilta.
 
NVidia Control Panelin? Mitä sieltä tarkkaan ottaen? Näyttää pikaisella tarkastuksella normaalilta.
Itellä samanlaisessa käytössä 4090 vetää alle 20W. :D
@Azaloom Eihän sulla ole Nvidian Control Panelista laitettu "Manage 3D settings -> Power management mode -> Prefer maximum performance"? Se tuppaa tekemään tommosta ja estää GPU:n idlailun..

Edit. Tosin juuri testasin, niin ainakaan tällä 4090:lla ei kulutus noussut kuin ~2W kun laitto performancet päälle, mutta edellisellä 3080:lla jäi huitelemaan muistaakseni juuri tuonne 100W hujakoille idlenä. En sitten tiedä onko ero kortissa, vai ovatko jollain softapäivityksellä tuosta bugista eroon päässeet, mutta nopeahan tuo on testata.
 
Itellä samanlaisessa käytössä 4090 vetää alle 20W. :D
@Azaloom Eihän sulla ole Nvidian Control Panelista laitettu "Manage 3D settings -> Power management mode -> Prefer maximum performance"? Se tuppaa tekemään tommosta ja estää GPU:n idlailun..

En ollut tuosta tiennytkään, mutta näyttää olevan Virransäästötila: Normaali. 2. vaihtoehto on Suosii parasta suorituskykyä.

Ettei Start11 Windowsin lisäpalikalla ois jotain tekemistä...? Puukottaa Windowsin työpöytänäkymän perinteiseksi. Käyttänyt nimittäin noita Start-äppejä jo ainakin W8:sta lähtien.
 
Viimeksi muokattu:
@Azaloom

Entäs Windowsin oma virranhallinta, mikä asetus siellä on päällä?

Reddit - Dive into anything

En muista tuohon nykykokoonpanossani koskeneeni, eli taitaa olla ihan oletuksena oleva vakio Paras suoritusteho -profiili käytössä:
powerikonfis.jpg


Oiskos tuosta suositeltavaa muuttaa jotain? En nyt ihan tarkalleen tiedä, mihin tuo Redditin " changing the Power management mode option from Prefer maximum performance to "Optimal power" " viittaa, kun jää vähän epämääräiseksi.
 
En muista tuohon nykykokoonpanossani koskeneeni, eli taitaa olla ihan oletuksena oleva vakio Paras suoritusteho -profiili käytössä:
powerikonfis.jpg


Oiskos tuosta suositeltavaa muuttaa jotain? En nyt ihan tarkalleen tiedä, mihin tuo Redditin " changing the Power management mode option from Prefer maximum performance to "Optimal power" " viittaa, kun jää vähän epämääräiseksi.
Kokeile laittaa balanced (tasapainoinen?) profiili sieltä ylhäältä?

Edit. Sulla on myös prossu aina 100% kelloilla ton mukaan..
 
Tässä on 2min Karvamarkka-ajo, plus minuutti lämpöjen luonnollista laskua sen jälkeen. Mulla on Aquasuite, mikä skaalaa kotelotuuletuksen rasituksen mukaan. Lukee HWiNFO:lta mm. gepun lämpötilan. Itse gepun tuuletinohjaukseen en ole koskenut, eli toimii vakiokäyrällä. Vähänkin kun selainta käyttää, niin kotelotuuletus nousee perustasolta sinne 15-25% tienoille. Normaalisti ei muilla gepuilla ole ottanut ylimääräisiä kierroksia juurikaan työpöytäkäytössä, etenkään talviaikaan.

Video on 4k@30fps. Google saattaa hetken käsitellä sitä:

Täytyy lisäksi mainita, että tuossa hieman vajaa kk sitten alkoi outo työpöydän jumittuminen n. 20 sekunniksi aina, kun jompi kumpi kahdesta monitorista tunnistuu uudelleenliitetyksi tai poistetuksi. Lyhyesti kokeilin, että kun GeForce Experiencen sammuttaa taustalta, niin ongelma katoaa. Koitin DDU:lla pyyhkiä kaikki NVidian ajurit ja asentaa uusiks, mutta ei vaikutusta.

Nyt molemmat videot yllä on katsottavissa. Ja nyt kun oli ruokatauko ja monitorit softasammutettuna, ja katson HWiNFOn gepun virrankulutusarvoja, niin minimi(historia)arvo on laskenut 10,5 wattiin. Eli näyttösignaalien katkaisu on se avainjuttu tässä tapauksessa.
 
Jaa. Veikkaanpa muuten, että johtuu mun korkeista virkistystaajuuksista. Mulla on nimittäin 3440x1440 ja 4k näytöt vierekkäin, molemmat 120Hz-virkistystaajuudella. Muistan silloin alkuun, kun jollain mopogepulla muutamia vuosia sitten laitoin 120Hz-virkistystaajuuden Windowsissa päälle 2. näytölle, niin johan alkoi gepu hönkimään koko ajan. Tässä välissä on käynyt sellaisia laatunäyttiksiä koneessa kuten Suprim X-sarjan 3080 ja 3090, joilla vastaavaa ongelmaa ei huippu jäähdytyksen vuoksi ole ilmennyt, joten päässyt unohtumaan asia.

Tuossa on parin minuutin istuskelu työpöydällä ja virrankulutuksen seurailu. Suljen tuossa taustalta kaikki ylimääräiset ohjelmat, mutta gepun jatkaa tasaisesti 87-88 watin hörppäämistä. Viereinen Corsun iCue näyttää koko kokoonpanon virrankulutusta. Suoritin on 13900k ja lankku Asus ROG Maximus Z690 Extreme.

Näköjään Google käsittelee edelleen aiempaakin videota, joten tässäkin mennee tovi.

Ensin mainittu selittänee sen, että kun softasuljen näytöt, niin kone kyllä hiljenee taustalla nopeasti kokonaan.

Käynnistin vikasietotilaan ja tein DDU:lla puhdistuksen. Sen jälkeen gepun virrankulutus työpöydällä istuessa oli ~32W. Mutta, 2. näytön virkistystaajuus olikin vaihtunut 120->60Hz:iin. Kun vaihdoin sen takaisin, niin heti alkoi se 20s jäätyminen näyttökonfiguraatiota muuttaessa ja virrankulutus pomppasi takaisin ~90W. Eli liittyy tuohon virkistystaajuuteen. Pitää huomenna vielä yrittää Sampan telsun resetointia. Ei kyllä huvittais tippaakaan. Tuskin varmaan mitään tekemistä asian kanssa, mutta mainittakoot, että 2. näyttö kytketty 10m optisella HDMI2.1-kaapelilla 4k@120Hz mahdollistamiseksi.
 
Kappas vaan, mulla oli näköjään sama hieman samankaltainen ongelma, idlessä 3080:n GPU-tehonkulutus oli yli 100W ja idle GPU-kellot jumissa @1905MHz. Laitoin Nvidia Control Panelista Power management moden takaisin normaaliksi ja boottasin koneen. Nyt idle kellot sekä GPU:n että VRAM:in osalta näyttäisivät toimivan ok. Tehonkulutus ~35W idlessä.
 
Viimeksi muokattu:
Kappas vaan, mulla oli näköjään ilmeisesti sama ongelma, idlessä 3080:n GPU-tehonkulutus oli yli 100W ja idle GPU-kellot jumissa @1905 MHz. Laitoin Nvidia Control Panelista Power management moden takaisin normaaliksi ja boottasin koneen. Nyt idle kellot sekä GPU:n että VRAM:in osalta näyttäisivät toimivan ok. Tehonkulutus ~35W idlessä.

Itsellä ei NVidian ohjauspaneelin virransäästöasetuksella näytä olevan asian kanssa mitään tekemistä. Mutta tosiaan heti kun asetan 2. monitorina toimivalle Sampan QLEDille 4k@60Hz->120Hz virkistystaajuuden, niin pomppaa pysyvästi 100 wattiin. Hetken päästä näyttää asettuvan aiempaan, noin 87 wattiin. Pitänee tänään vielä katsoa, josko tuolla telkan resetoinnilla olisi mitään vaikutusta. Ensisijaisen 1440p120Hz-näytön korkea virkistystaajuus ei aiheuta korkeaa virrankulutusta.
 
Jep. Nyt on resetoitu telkka, ilmeisen turhaan. Ei vaikutusta virrankulutukseen, eikä siihen työpöydän jumittumisongelmaan.
 
Itsellä ei NVidian ohjauspaneelin virransäästöasetuksella näytä olevan asian kanssa mitään tekemistä. Mutta tosiaan heti kun asetan 2. monitorina toimivalle Sampan QLEDille 4k@60Hz->120Hz virkistystaajuuden, niin pomppaa pysyvästi 100 wattiin. Hetken päästä näyttää asettuvan aiempaan, noin 87 wattiin. Pitänee tänään vielä katsoa, josko tuolla telkan resetoinnilla olisi mitään vaikutusta. Ensisijaisen 1440p120Hz-näytön korkea virkistystaajuus ei aiheuta korkeaa virrankulutusta.
Ongelmana lienee juurikin nuo eri resoluutiot korkeammilla virkistystaajuuksilla. Jos pystyt, niin kokeilee laittaa tuo telkkarikin 1440p ja 120Hz, niin putoaako virrankulutus.

Tämä virrankulutus useammalla näytöllä on ollut jo pitkään ongelma...
 
Näköjään myös Nvidian ShadowPlay:n Instant Replay -ominaisuus piti kelloja ylhäällä noin 800/5000 tuntumassa (pelikellot 1900/10000).
Ottamalla tuon pois tipahti oikeille idle-kelloille, eli noin 200/400.
 
Nyt on alkanut Asus TUF 3090 OC lämpenemään vähän liikaakin. Vielä muutama kuukausi sitten n. 60 sekunnin Heaven benchmarkin ajamisen jälkeen Hot Spot oli n. 80c.

Tänään saman 60 sekunnin Heavenin jälkeen Hot Spot on n. 100c. Annoin pyöriä ihan rauhassa vähän pidempään ja lämmöt nousi noin 105c asti.

Memory lämmöthän tässä on aina olleet korkeat, mutta nyt vasta alkanut tuo Hot Spot temppuilemaan.

Olen käsittääkseni kortin toinen omistaja ja edellinen omistaja ei omien sanojensa mukaan ollut avannut/räpeltänyt korttia. Telialta ostettu ja takuuta olisi jäljellä. Kannattaako viedä Telialle vai lähettää johonkin Asuksen huoltoon? Kortti on kuitenkin mallia 01/2022 joten hieman oudolta tuntuu nämä lämmöt.

Meni Telian takuuseen, 2329€ takasin päin.
 
Osaako joku sanoa optista HDMI 2.1 -piuhaa, joka varmasti toimisi 3000-sarjan kanssa? Hommasin 3080:n ja aiemmin olin hankkinut tällaisen piuhan, kun pakko olla vähintään tuo 7.5 m tässä huoneessa, mutta ei tästä tunnu tulevan mitään. Kone pillastuu täysin kun laittaa tuon edes kiinni telkkariin, tai kun piuha on kiinni ja käynnistää telkkarin. Koneen ruutu (näyttö displayportilla) jäätyy ehkä puoleksi minuutiksi, jonka jälkeen menee mustaksi ja kun ottaa HDMI:n irti tai sulkee telkkarin, niin menee vielä muutama minuutti ennen kuin kuva palautuu näyttöön. Laitoin nyt piuhan kiinni telkkarin HDMI 2.0 -porttiin ja toimii ihan normaalisti sen mitä tuosta 2.0:sta irti saa, eli 1440p 120 Hz HDR VRR. Vanhalla 2070:lla tuo sama signaali toimi HDMI 2.1 -portistakin, mutta tämä 3080 tuntuu menevän siitä ihan sekaisin.

Epäilyttää siis, että onko tuo piuha kuitenkin paska, tosin googlella löytyi myös paljon epämääräisiä ongelmia, joita ihmisillä on ollut 3000-sarjan ja HDMI 2.1:n kanssa. Pitäisi kai ensin testata lyhyellä tavallisella piuhalla, mutta pitäisi sekin ensin hommata ja sitten ruveta näitä romuja siirtelemään.
 
Itellä on 20m KabelDirektin kaapeli ja hyvin on toiminu 3080Ti ja LG CX:n kanssa.
Näyttää tosin olevan kaikki pituudet loppu...

EDIT. Näytä olevan joku toinen versio kun sku on 1317b ja tuolla on toinen "samallainen" jota on varastossa jonka sku on 1317. Sitä en tiedä mitä eroa noilla kahdella on.
 
Viimeksi muokattu:
Osaako joku sanoa optista HDMI 2.1 -piuhaa, joka varmasti toimisi 3000-sarjan kanssa? Hommasin 3080:n ja aiemmin olin hankkinut tällaisen piuhan, kun pakko olla vähintään tuo 7.5 m tässä huoneessa, mutta ei tästä tunnu tulevan mitään. Kone pillastuu täysin kun laittaa tuon edes kiinni telkkariin, tai kun piuha on kiinni ja käynnistää telkkarin. Koneen ruutu (näyttö displayportilla) jäätyy ehkä puoleksi minuutiksi, jonka jälkeen menee mustaksi ja kun ottaa HDMI:n irti tai sulkee telkkarin, niin menee vielä muutama minuutti ennen kuin kuva palautuu näyttöön. Laitoin nyt piuhan kiinni telkkarin HDMI 2.0 -porttiin ja toimii ihan normaalisti sen mitä tuosta 2.0:sta irti saa, eli 1440p 120 Hz HDR VRR. Vanhalla 2070:lla tuo sama signaali toimi HDMI 2.1 -portistakin, mutta tämä 3080 tuntuu menevän siitä ihan sekaisin.

Epäilyttää siis, että onko tuo piuha kuitenkin paska, tosin googlella löytyi myös paljon epämääräisiä ongelmia, joita ihmisillä on ollut 3000-sarjan ja HDMI 2.1:n kanssa. Pitäisi kai ensin testata lyhyellä tavallisella piuhalla, mutta pitäisi sekin ensin hommata ja sitten ruveta näitä romuja siirtelemään.


Ei suoraa vastausta sinun kysymykseen, mutta minulla oli Haman 10m HDMI 2.0 piuha ja tuolla ei tahtonut kuvan saaminen onnistua telkkariin RTX 3080Ti:llä. Ihan jatkuvasti valitti, että ei signaalia ja ihan tuurista oli kiinni lähtikö toimimaan vai ei.
Lyhemmällä kaapelilla ei ollut ongelmia, joten @Lixgou kommentinkin perusteella todennäköisesti syyt on huonossa kaapelissa varsinkin silloin kun mennään yli 5m vaikka ei tuossa "pitäisi" mitään signal lossia olla.
 
Itellä on 20m KabelDirektin kaapeli ja hyvin on toiminu 3080Ti ja LG CX:n kanssa.
Kai se on tätä sitten kokeiltava, thanks.

Ei suoraa vastausta sinun kysymykseen, mutta minulla oli Haman 10m HDMI 2.0 piuha ja tuolla ei tahtonut kuvan saaminen onnistua telkkariin RTX 3080Ti:llä. Ihan jatkuvasti valitti, että ei signaalia ja ihan tuurista oli kiinni lähtikö toimimaan vai ei.
Lyhemmällä kaapelilla ei ollut ongelmia, joten @Lixgou kommentinkin perusteella todennäköisesti syyt on huonossa kaapelissa varsinkin silloin kun mennään yli 5m vaikka ei tuossa "pitäisi" mitään signal lossia olla.
Joo, HDMI 2.1 ei taida missään nimessä toimia yli viittä metriä pelkällä kuparilla, mutta kyllä noiden hybridikaapelien pitäisi.
 
Nyt meni vähän sormi suuhun. Reilut kolme vuotta sitten hankittu 3080 on aikoinaan alivoltitettu MSI Afterburnerilla. Systeemi on ollut koko tämän ajan stabiili, mutta nyt on esiintynyt epävakautta Avatar-pelissä. Pidemmässä pelisessiossa grafiikkaan saattaa tulla semmoinen häiriö, että grafiikka ikään kuin hajoaa, ja näkymään kääntämällä rikkoutunut kohta leviää ja täyttää koko ruudun. Valikossa käynti korjaa ongelman.

Olen ajatellut, että tämä saattaisi olla coreen liittyvän alivoltituksen aiheuttamaa. Ongelmat alkoivat, kun päivitin prossun ja emon, ja samassa yhteydessä näyttö vaihtui 60Hz ->120Hz. GPU joutunee kovemmille kuin aiemmin, tosin on tässä ennenkin ajettu pelejä, jotka ei pääse 60fps:ään, jolloin kuormitus on ollut jatkuvasti 100%. Tietenkin voi olla, että uusi peli osaa kormuuttaa enemmän tuota GPU:ta.

Ongelma saattaa tietysti liittyä myös muisteihin, niissä on vähän ylikelloa. Ajattelin kuitenkin, että voisin hieman tuunata alivoltitusta, mutta tässäpä tulikin ongelma, johon kaipaisin apua. GPU on alivoltitettu siten, että toimintapiste on asetettu 1905MHz @ 925mV. Olen nyt yrittänyt muuttaa curve-asetusta siten, että 1905MHz piste olisi kaksi askelta myöhemmin, eli jännittellä 937mV. Ongelma on tämä:

Säädän curvea siten, että pudotan
- 925mV pistettä kahdella askelella 1905MHz --> 1875MHz,
- ja seuraavaa pistettä 931mV yhdellä asekeleella 1095MHz --> 1890MHz.
Olen tyytyväinen curveen, mutta kun painan Apply, curven pisteet hyppäävät minne sattuu. Mikä logiikka tuossa ohjelmassa on? Miksi nuo asetukset vaihtuu kun painaa Apply?

Tulokset vaihtelee kovasti sen mukaan miten noita pisteitä veivaa, ja olen onnistunutkin pääsemään lähelle tavoitetta, mutta kai tuossa joku logiikka on, miten nuo hyppii? Lisäksi, jos pistän GPU:lle kuormaa, ne pisteet hyppii eri tavalla. Jos luo profiilin siten, että GPU:lla on kuormaa, painan Apply ja olen tyytyväinen tulokseen ja talletan profiilin, jos sitten lataan saman profiilin GPU:n ollessa idlessä ja painan Apply, curven pisteet hyppii taas ihan mihin sattuu?

1704825860676.png


Ja vielä, mikä on toi ohut yhtenäinen viiva, sekin hyppii miten sattuu, mitä se tarkoittaa?
Auttakee, mikä tuossa on järki, ja miten tuon ohjelman saa tottelemaan?
 

Liitteet

  • 1704825758239.png
    1704825758239.png
    63,9 KB · Luettu: 10
15MHz askeleissahan nuo menee, mutta eipä siinä aina tosiaan tunnu logiikkaa olevan mihin pykälään ne asettuu, pitää vain veivata riittävästi oletukset <-> säätö väliä tai säädön jälkeen asetella yksittäisiä pisteitä paremmin, jos curvesta haluaa hieman esteettisemmän.

Mutta mitä tuohon "black void" bugiin tulee, niin vastaavaan aikanaan törmäsin Overwatchissa ja tuolloin tulin lopputulokseen, että se ei tykännyt GPU:n muistikellotuksista yhtään. Kannattanee varmaan siis Avatarille kokeilla tehdä vaikka oma profiili Afterburneriin, jossa ei ole muistikelloihin koskettu ja kokeilla.

Tämän kaltainen bugi siis ilmeisesti tuossakin kyseessä, napattu ensimmäinen mikä tuli youtubessa vastaan

 
Eli kun teen tällaisen muutoksen:
1704828795023.png


Ja painan Apply, niin käyrä muuttuu samalla tällaiseksi:
1704828845700.png


Käyrä siis muuttuu useammasta kohtaa, miksi ihmeessä? Muuttunut curve ei kelpaa, koska siinä maksimikellot on pielessä. Jos jaksa nveivata aikani maalaamalla (Shift) osa käyrästä, saan paremman lopputuloksen, mutta ei tuossa tunnu olevan oikein järkeä. Mutta kai siinä jokin logiikka kuites on.

Grafiikkabugi hieman muistuttaa muodostumisellaan tuota videota, mutta se ei ole pelkkää mustaa, vaan siihen jää jokin satunnainen pala, joka toistaa itseään. Mutta voisin kokeilla tosiaan pudottaa kelloja, sillä jos kyseessä ei olekaan GPU, niin turhaan nostaisin voltteja.
 
Joo toi AB-käyrän hyppiminen on aika omituista välillä. Tätä Escaliburin videota olen mainostellut, koska on suomeksi:
(kohdassa 10:57 alkaa curven säätö)

Itse olen asettanut GPU-kellot hieman yläkanttiin tavoitekelloista käyrää säätäessä (heittelee silti ylöspäin, käyrä sinänsä pysyy yleensä kuitenkin muodossaan) ja sitten .bat tiedostossa / task schedulerissa nvidia-smi -lgc 210,1950 aina bootissa. 1950MHz siis maksimikellot.
 
Viimeksi muokattu:
Yksi näppärä ja mahdollisesti paremman tuloksen antava tapa säätä curvea on shift pohjassa valita alue mihinkä haluaa jännitteen sekä kellojen jäävän ja vetää tuon alueen alas. Tämän jälkeen painaa hyväksyntää.

Kas näin:


afteburner.png

afteburner2.png
 
Tuossa escaliburin videossa näkyy todella hienosti miten tuo ohjelma sekoilee noiden asetusten kanssa :rofl2:
Kurvin saa suoraan myös maalaamalla loppuosan ja painamalla Shift+Enter+Enter. Mutta silti ne pisteet saattaa hyppiä kun painaa Applyä. Pitää vaan jaksaa hieroa noita uudestaan ja uudestaan, niin lopulta onnistuu. Oon tässä illan testaillut, ja vaikuttais vähän siltä, että tuo muutos, minkä halusin tehdä, on jostain syystä vielä erittäin ronkeli saada onnistumaan. Sillä olen testailla varsin nostaa hieman kelloja (nälkä kasvaa syödessä), niin yleensä asetus onnistuu parilla/kolmella yrittämällä.

Tuo nvidia-smi olisi varmaan vielä yksi tapa hieroa kelloja kohilleen, nyt ne tosiaan välillä boostaa hieman asetusta ylemmäs, mutta näyttäisi, että ainoastaan yhden tiksun (15MHz). Mitä nyt olen tässä vähän testaillut, niin lappu näyttäisi olevan jokseenkin vakaa vielä 1950@925mV (lopullinen vakaus selviäisi vasta monen päivän pelihommissa), joten luulen, että tuo alkuperäinen 1905@925mV ei ehkä tosiaan ole nuiden Avatarin grafiikkahäiriöiden takana. Pudotan vähän muisteja ja sitten kovaa pelaamista.
 
Kannattaa tiputtaa shift pohjassa ensin koko käppyrä kokonaan alle tavoitekellotaajuuden ja sen jälkeen nostaa haluttu V/f piste ylimmäksi ja painaa apply niin ei hypi, pompi tai sekoile.

msiab.gif
 
Usein huomaa, että ylikellotuksista puhuttaessa annetaan suurempia lukuja, kuten 2150 MHz, vaikka todellinen toimintataajuus saattaa olla vain 2080 MHz.
Jos kiinnostaa se gpun oikea (effective clock) taajuus, eikä vain joku random numero, suosittelen tätä metodia:

 
Näytönohjaimen kellottaminen on yllättävän hauskaa hommaa. Oikeastaan vain siksi, että näyttäis, että epästabiilisuus saa pelin vain nurin, ei tähän kyllä olisi intoa jos joka kerta saisi katsoa BSOD:tä, tai joutus tekemään hard bootin, puhumattakaan CMOS-clearauksesta. Mutta nyt pelit vain kippaa, pieni säätö ja uusi yritys, ihan harrastuksesta menee.

Toistaiseksi havainto on, että kolme vuotta sitten nopeasti haarukoidut asetukset näyttäis olevan melko hyvät. En tosiaan ole vielä kattavasti testannut, mutta piti varsin huvikseni värkätä kuva, jotta itsekin pysyy kärryillä missä mennään:
1705084249602.png
Asetus on siis ollut sen kolme vuotta tuo punainen ympyrä. Yritin ensin vähän hakea, että saisiko lisää potkua, jos hieman nostaisi jännitettä. Testaus on edelleen kesken, joten muuta ei tässä vaiheessa voi sanoa, kuin että 50mV nostolla saa korkeintaan kolme tiksua, eli 45MHz lisää kelloa, tuskin sitäkään. Mutta testaillessa ja pelaillessa huomasin, että raskaissa peleissä, jotka todella kormuttaa GPU:ta (Avatar), GPU:ssa tahtoo tulla power limit vastaan, ja ylemmille kelloille ei oikein päästä. Joten aloin miettimään, että entäs jo pyrkisikin alivoltittamaan lisää, minkä ansiosta kellotaajuus sitten pysyisi paremmin maksimissa, vaikka se maksimi olisikin hieman matalampi. Erityisesti avatarissa huomasin, että GPU välillä käy 1905:ssä, mutta enemmän aikaa se on tiksun tai kaksi alempana, vaikka GPU:ta on jo alivoltitettu.

Joten tuli semmoinen ajatus, että tuo 1905 saattaisi olla hyvä sweet-spot, ja lähdin lähestymään asiaa "pohjalta", eli saisinko tuon 1905 toimimaan pienemmällä jännitteellä, mikä parantaisi tilannetta silloin, kun sitä eniten tarvitaan, eli niissä raskaissa peleissä, siten että kellotaajuus pysyisi tuossa maksimissa. Tämäkin haarukointi on kesken, ja haastetta aiheuttaa se, että näyttis boostailee itse asetetun arvon päälle, pitää ehkä ottaa tuo nvidia-smi käyttöön jotta tämä haarukointi etenee.

Usein huomaa, että ylikellotuksista puhuttaessa annetaan suurempia lukuja, kuten 2150 MHz, vaikka todellinen toimintataajuus saattaa olla vain 2080 MHz.
Jos kiinnostaa se gpun oikea (effective clock) taajuus, eikä vain joku random numero, suosittelen tätä metodia:

Ja jotta asia ei olisi liian helppoa, niin tällainenkin asia pitää siis huomioida :rofl2: Nappasin tuon efective kellon MSI AB:n overlayhyn, pitää seurailla miten se muuttuu. Siinä mielessä tämä koko puuha on vähän turhaa hommaa, kun nyt jo näkee, että tässä on maksimissaan odotettavissa ehkä 30MHz parannus kelloihin, joka ei hirveästi fps:ään auta*. Mutta tässä konepäivityksen yhteydessä näköjään nousi halu tiristää kaikki irti mitä tuosta lapusta vain on tiristettävissä, kun 40x0-hankita nyt toistaiseksi jäi pöydälle.

*) laskemalla 45MHz/ 1905MHz x 45fps = 1fps, eli onnistunut kellotus voisi maksimissaan vaikuttaa peliin siten, että pelin pyöriessä 45fps, se pyörisikin 46fps :shy:
 
Mulla kaatuilee pelit satunnaisesti ja kerkesin jo tekemään RMA hakemuksen myyjäliikkeeseen. Nyt tarkemmin testailessa huomasin, että FurMark taustalla (GPU FAN 100%) niin Afterburner kuin Asuksen GPU Tweak näyttää kelloja paljon vähemmän kuin täällä ketjussa. Näyttääkö nämä arvot OK:lta? Näytönohjaimena TUF 3090 OC Gaming. Jos heitän power limit täysille ja temp limit täysille niin ei tapahdu missään muutosta, ei lämmöissä tai kelloissa. Kokeilin myös pitää yhden ohjelman kerralla päällä.
 
Mulla kaatuilee pelit satunnaisesti ja kerkesin jo tekemään RMA hakemuksen myyjäliikkeeseen. Nyt tarkemmin testailessa huomasin, että FurMark taustalla (GPU FAN 100%) niin Afterburner kuin Asuksen GPU Tweak näyttää kelloja paljon vähemmän kuin täällä ketjussa. Näyttääkö nämä arvot OK:lta? Näytönohjaimena TUF 3090 OC Gaming. Jos heitän power limit täysille ja temp limit täysille niin ei tapahdu missään muutosta, ei lämmöissä tai kelloissa. Kokeilin myös pitää yhden ohjelman kerralla päällä.
Tuossa sulla kortti throtlaa kelloja ja virrankulutusta alaspäin lämpöjen takia jotta hotspot lämmöt pysyisi alle 105c. Korjaantuu tahnojen vaihdolla tai sitten takuusta uusi kortti tilalle.
 
Tuossa sulla kortti throtlaa kelloja ja virrankulutusta alaspäin lämpöjen takia jotta hotspot lämmöt pysyisi alle 105c. Korjaantuu tahnojen vaihdolla tai sitten takuusta uusi kortti tilalle.
Throttlaako tuo nyt kellot puolella oikeasta vai miten tuota luetaan? Valmistajan sivuilla luvataan yli 1700MHz "Engine Clock". Mietin vaan, onko tohon joku kaava, kuten ainakin vuosia sitten DDR muistitaajuus piti kertoa kahdella, jotta sai oikean luvun.

Jos tuo pudotus on tosiaan noin suuri niin saattaa selittää pelien kaatumisen.
 
Muistaakseni furmarkissa kello droppaa huomattavasti. Kokeile mitä näyttää Valley/Heaven/3Dmarko, niissä pysyy itellä aika paljon tapissa kellot (alivoltitettu)
 
Muistaakseni furmarkissa kello droppaa huomattavasti. Kokeile mitä näyttää Valley/Heaven/3Dmarko, niissä pysyy itellä aika paljon tapissa kellot (alivoltitettu)
Siltä näyttäisi, hyvä tietää. 3Dmark 1575MHz, Valley 1650MHz, Heaven 1700MHz. Kävin äsken pelaamassa Apex Legends niin pyöri siinä 1650MHz hujakoilla. Hot Spot pyöri siinä 105 asteen korvilla (108 max). Täytynee jatkaa testailuja kun ei tainnut se juurisyy löytyä vielä.
 
Miten corelämmöt (en saa tuota linkkiä/kuvaa auki)?
Vähän matalilta kuulostaa kellot, tosin tuossa 3090:ssä on tieten enemmän rautaa käytössä.
 
Miten corelämmöt (en saa tuota linkkiä/kuvaa auki)?
Vähän matalilta kuulostaa kellot, tosin tuossa 3090:ssä on tieten enemmän rautaa käytössä.
Aika pitkälti pelistä ja sovelluksesta riippumatta:
GPU Temperature 81-83C
Memory Junction 93-95C
Hot Spot ~105C
 
Siltä näyttäisi, hyvä tietää. 3Dmark 1575MHz, Valley 1650MHz, Heaven 1700MHz. Kävin äsken pelaamassa Apex Legends niin pyöri siinä 1650MHz hujakoilla. Hot Spot pyöri siinä 105 asteen korvilla (108 max). Täytynee jatkaa testailuja kun ei tainnut se juurisyy löytyä vielä.
Kyllähän tuo 105C hotspot lämpö kertoisi, että siellä on corella tahnat huonosti / "dry spot", eli takuullisen kortin voinee huollattaa myyjän tai valmistajan kautta tai sitten vain itse vaihtaa tahnat.

Vastaavaa löytyy paljonkin googlaamalla "3090 hotspot 105c", kuten:
ok I did a repaste, fixed the problem, hotspot down to 75-80c. There was a bald spot on the GPU from the factory, GPU is like 10c lower too since I used a better paste, Therman Grizzly Kryonut.
 
jos on takuuta ja tosiaan huitelee 105c hotspotille niin eiku takuuseen, rahat pois :) tai sitten ite vaihtaan, itse olen vaihtotyön tehnyt ja olihan ero kun kunnon tahnat ja tyynyt laittoi.

tää oli hyvä apu kun teki noita tahnan vaihtoja näin aloittelijana.



 
Viimeksi muokattu:
Eilen RTX 3090 päätti ilmeisesti simahtaa. Korttiin ei syty enää led valot eikä tuulettimet pyöri käynnistyessä, ei tule myöskään kuvaa näytölle. Testattu myös toisella kokoonpanolla ja sama vika.

Takuuta kortissa on, kuitissa 2500€ niin tarjoavatko suoraan RTX 4090 takuusta tilalle?
 
Eilen RTX 3090 päätti ilmeisesti simahtaa. Korttiin ei syty enää led valot eikä tuulettimet pyöri käynnistyessä, ei tule myöskään kuvaa näytölle. Testattu myös toisella kokoonpanolla ja sama vika.

Takuuta kortissa on, kuitissa 2500€ niin tarjoavatko suoraan RTX 4090 takuusta tilalle?
Eikö se selviä kysymällä myyjältä?
 
Lähinnä mietin mitä muille on tarjottu. Kun missään muussa kortissa ei ole muistia 24gb niin onko heillä perusteita tarjota halvempaa. Näiden kanssa on joskus meinaan joutunut vääntämään ettei tuu kusetetuksi.
Toisessa ketjussa oli arvioitu korvaajaksi 4070 Ti (ehkä Super voisi olla sitten kunhan tulee myyntiin?), mutta voihan siinä neuvotella rahojen palautuksesta. Lahjakorttia ei käsittääkseni tarvitse hyväksyä kaupan purun yhteydessä.
 
Huh, miten tuo nuin kallis on ollut :woot:
Varmaankin kannattaa vääntää tiukasti, kun noin paljon kortista maksettu. En oikein voi ymmärtää miten 4070Ti voisi olla korvaava.
 
Huh, miten tuo nuin kallis on ollut :woot:
Varmaankin kannattaa vääntää tiukasti, kun noin paljon kortista maksettu. En oikein voi ymmärtää miten 4070Ti voisi olla korvaava.
Pahimpaan korona+kryptoboomi aikaan ostettu. Itse maksoin 3080 Ti:stä 1800€.
 

Statistiikka

Viestiketjuista
259 034
Viestejä
4 503 765
Jäsenet
74 314
Uusin jäsen
bohku

Hinta.fi

Back
Ylös Bottom