NVIDIA GeForce RTX 3080 / 3080 Ti / 3090 -ketju (GA102)

  • Keskustelun aloittaja Keskustelun aloittaja Kaotik
  • Aloitettu Aloitettu
Suosiolla jättäisin nuo kaikkein halvimmat ostamatta, laaduissa on eroja, itse suosin ennemmin merkkituotteita kuin mitälie bulk kamaa.
Mahdollisesti nimettömät tyynyt eivät kestä läheskään yhtä kauan kuin tunnentun valmistajan vaihtoehdot. Muistaakseni osa noista oli käyttökelvottomia jo kuukausien sisällä. Toki käyttökohteetkin vaikuttavat asiaan, mutta kuitenkin.
 
Viimeksi muokattu:
Mulle jäi melko kasa noita Arcticin tyynyjä kun vähän otin varman päälle. Niitä voisi saada edukkaasti tuosta. Paksuudet 0,5/1/1,5mm. Niistä saanee stackaamalla sopivat paksuudet kuten itse tein.
 
Suosiolla jättäisin nuo kaikkein halvimmat ostamatta, laaduissa on eroja, itse suosin ennemmin merkkituotteita kuin mitälie bulk kamaa.
Tähän kyllä yhdyn täysin! Suoraan ostaa laatu merkkiä, Arctic, Thermal Grizzly yms mitä näitä nyt on.
Toki joutuu sitten alkaa maksamaan aika paljon mitä korkeammalle nämä menevät: W / (m*K)
 
Ei yhtään mitään järkeä riskeerata kallista näyttistä sillä että koittaa säästää pari euroa ostamalla jotain random kiina tyynyjä. Suosiolla vaan laadukasta merkki kamaa.
 
Ja voi veetulla päähän. Painoin lankun CLR_CMOS pinnien painikkeesta, niin nyt ei kone inahdakaan. Tein siis sen kone pois päältä. Ei enää käynnisty.

edit: Vähän sormeilin noita etupaneelin liitinpinnien viereisiä liittimiä - pari SATA- ja USB-liitintä -, mihin luultavasti tuli hipaistua kun kytkin CLR_CMOS-napin, niin lähti toimimaan. Mutta ei edelleenkään resizable BAR -tukea emon asetusten resetoinnin jälkeen. Palautin tosin ennen resetointia USB-tikulle tallentamastani BIOS-asetustiedostosta BIOS:n asetukset. Alla kuvat siitä, miten asetukset eroaa default-asetuksista. Noissa ei liene mitään huomiota herättävää.

20221025_120702.jpg


20221025_120803.jpg

Eli seuraavaksi olisi jäljellä gepun BIOS:n manuaalinen päivitys päälle samaan uusimpaan versioon, mikä siinä on jo.

Ei se GPU:sta voi olla kiinni.

1666826834979.png


Jos en väärin muista niin sulla sanoo että emossa ei ole ominaisuus päällä.
 
Ei se GPU:sta voi olla kiinni.

1666826834979.png


Jos en väärin muista niin sulla sanoo että emossa ei ole ominaisuus päällä.

Tässä uudelleen tuo GPU-Z näkymäni. En itse tiedä asiasta sen enempää kumpaa tuo "resizable BAR enabled in BIOS" tarkoitaa, emoa vain gepua.

1666863847100.png

Joka tapauksessa resizable BAR valinta on BIOS:ssa enabled ja CSM disabled. Toistan, lankku on Asus TUF GAMING Z590-Plus WiFi uusimmalla 1601 BIOS:lla. Että mihinpäin tässä nyt sitten pitäisi olla yhteydessä?
 
Tässä uudelleen tuo GPU-Z näkymäni. En itse tiedä asiasta sen enempää kumpaa tuo "resizable BAR enabled in BIOS" tarkoitaa, emoa vain gepua.

1666863847100.png

Joka tapauksessa resizable BAR valinta on BIOS:ssa enabled ja CSM disabled. Toistan, lankku on Asus TUF GAMING Z590-Plus WiFi uusimmalla 1601 BIOS:lla. Että mihinpäin tässä nyt sitten pitäisi olla yhteydessä?
Laita kuva siitä tuffin bioksen advanced välilehdestä?
 
Tässä uudelleen tuo GPU-Z näkymäni. En itse tiedä asiasta sen enempää kumpaa tuo "resizable BAR enabled in BIOS" tarkoitaa, emoa vain gepua.

1666863847100.png

Joka tapauksessa resizable BAR valinta on BIOS:ssa enabled ja CSM disabled. Toistan, lankku on Asus TUF GAMING Z590-Plus WiFi uusimmalla 1601 BIOS:lla. Että mihinpäin tässä nyt sitten pitäisi olla yhteydessä?
Kröhöm. Itsellä oli joskus muistaakseni asuksen emossa bugi tuossa ominaisuudessa. Mitäpä jos koitat laittaa rebarin emon biosista disabled, sitten bootti ja uudelleen enabled? Itsellä lähti näin toimimaan
 
Laita kuva siitä tuffin bioksen advanced välilehdestä?

Tässä video (kuvattu superwide fullHD:llä - Google saattaa hetken käsitellä sitä):

Kröhöm. Itsellä oli joskus muistaakseni asuksen emossa bugi tuossa ominaisuudessa. Mitäpä jos koitat laittaa rebarin emon biosista disabled, sitten bootti ja uudelleen enabled? Itsellä lähti näin toimimaan

Pitääpä nyt kokeilla tätäkin. Tosin, resizable BAR oli disabled kun lähdin asiaa selvittelemään muutama pvä sitten (kuten myös CSM) kun tukea ei ollut. Väänsin sen siis päälle-asentoon Win 11 Pro -asennuksen jälkeen, minkä tein noin 1-2 vkoa sitten, jos nyt jotain tekemistä asian kanssa. OS:ää en kyllä lähde uudelleenasentamaan tuon vuoksi :D.

edit: Ei mitään vaikutusta. Tässä rB disabloituna mobon BIOS:ssa (kuten myös CSM) (myös NVidia Control Panel näyttää edelleen rB disabled):
rBAR disabled in mobo BIOS.jpg
 
Viimeksi muokattu:
Tässä video (kuvattu superwide fullHD:llä - Google saattaa hetken käsitellä sitä):



Pitääpä nyt kokeilla tätäkin. Tosin, resizable BAR oli disabled kun lähdin asiaa selvittelemään muutama pvä sitten (kuten myös CSM) kun tukea ei ollut. Väänsin sen siis päälle-asentoon Win 11 Pro -asennuksen jälkeen, minkä tein noin 1-2 vkoa sitten, jos nyt jotain tekemistä asian kanssa. OS:ää en kyllä lähde uudelleenasentamaan tuon vuoksi :D.
Vedän nyt ihan spekulaatiolla kun en ole tosissaan siirtynyt win 11 käyttäjäksi.

Mikä se oli se windows 11 turvaominaisuus? Se asentui itseasiassa nyt defaulttina virtuaalikonemoodiin? Windows 11's performance-stealing security feature is now on by default
Jos tuo core isolation ja virtualization on käytössä, niin tarviiko PCI-väylä virtualization supporttia eli tuon SR-IOV bitin päälle?
 
Tässä video (kuvattu superwide fullHD:llä - Google saattaa hetken käsitellä sitä):



Pitääpä nyt kokeilla tätäkin. Tosin, resizable BAR oli disabled kun lähdin asiaa selvittelemään muutama pvä sitten (kuten myös CSM) kun tukea ei ollut. Väänsin sen siis päälle-asentoon Win 11 Pro -asennuksen jälkeen, minkä tein noin 1-2 vkoa sitten, jos nyt jotain tekemistä asian kanssa. OS:ää en kyllä lähde uudelleenasentamaan tuon vuoksi :D.

edit: Ei mitään vaikutusta. Tässä rB disabloituna mobon BIOS:ssa (kuten myös CSM) (myös NVidia Control Panel näyttää edelleen rB disabled):
rBAR disabled in mobo BIOS.jpg
Ok. Onhan se 4g decoding myös päällä biosissa?


Edit. Lauantai kuvakaappauksessa näyttikin olevan. Sille voisi kyllä kokeilla vielä samaa kikkaa. Muuta en keksi..
 
Kävin laittamassa rB:n takas päälle. Above 4G Decoding on myös päällä, kuten videossa näkyy.

Ok. Onhan se 4g decoding myös päällä biosissa?


Edit. Lauantai kuvakaappauksessa näyttikin olevan. Sille voisi kyllä kokeilla vielä samaa kikkaa. Muuta en keksi..

Eli 4G decoding pois päältä ja rB päällä?

edit: 4G decodingin kun ottaa pois päältä, niin koko rB-valinta katoaa BIOS:ssa: Ei vaikutusta rB-tukeen Winukassa.

Pitäisköhän tosta nyt sitten tehdä tiketti Asuksen tukeen?
 
Viimeksi muokattu:
Vedän nyt ihan spekulaatiolla kun en ole tosissaan siirtynyt win 11 käyttäjäksi.

Mikä se oli se windows 11 turvaominaisuus? Se asentui itseasiassa nyt defaulttina virtuaalikonemoodiin? Windows 11's performance-stealing security feature is now on by default
Jos tuo core isolation ja virtualization on käytössä, niin tarviiko PCI-väylä virtualization supporttia eli tuon SR-IOV bitin päälle?

Jaa. Kai tuotakin voisi nyt sitten kokeilla. Taisin tosin aiemmin selvittää, että tuota SR-IOV tukea tarvitaan vain harvinaisissa erityistapauksissa joidenkin spessu-laitteiden tms. kanssa.

edit: Ei vaikutusta. On se perkele. :rofl:
 
Viimeksi muokattu:
Kävin laittamassa rB:n takas päälle. Above 4G Decoding on myös päällä, kuten videossa näkyy.



Eli 4G decoding pois päältä ja rB päällä?

edit: 4G decodingin kun ottaa pois päältä, niin koko rB-valinta katoaa BIOS:ssa: Ei vaikutusta rB-tukeen Winukassa.

Pitäisköhän tosta nyt sitten tehdä tiketti Asuksen tukeen?

Kyllä toi mielestäni on asuksen ongelma. Selvästi emosta se RB ei mene päälle jonka GPU-Z myös kertoo.
 
Varmaan Asuksen softa on vaan buginen. Sieltä yrittäisin itsekin etsiä ratkaisua, mutta eipä minulla tule mitään mieleen mitä enään koittaa.

Varmaan koittaisin vielä biossin nollausta (Joka on jo tehty) ja tälläkertaa jättäisin sen talletetun profiilin lataamatta ja nakuttelisin muutokset käsin.

Jos ei sittenkään niin asuksen tukeen yhteyttä, tai jos emossa on bios flashback niin koittasin vielä flashbackin kanssa uusin bios sisään.
 
Tippuuko gen5 pcie x16 --> x8 jos laitan ylimpään m.2 slottiin samsungin 980 pro?

Jos näin on niin paljonko häviän tässä?
Ymmärtääkseni primääri m.2 kannattaa laittaa cpu eikä chipset puolelle (3 alinta)

Gpu msi 3080 12g, cpu 12600k, emo ROG STRIX Z690-A GAMING WIFI D4
 
Jarruttaako i7 7700k 3080 kulkua paljonkin? Ilmeisesti tuo jonkin verran on pullonkaulana mutta kuinka paljon, osaako joku sanoa? Ja ihan on vaan pelaamis käytössä kone. Miettinyt, että pitäisikö tarttua nyt tarjoukseen ja ostaa ehkä amd 5600 tai 5600x.
 
Jarruttaako i7 7700k 3080 kulkua paljonkin? Ilmeisesti tuo jonkin verran on pullonkaulana mutta kuinka paljon, osaako joku sanoa? Ja ihan on vaan pelaamis käytössä kone. Miettinyt, että pitäisikö tarttua nyt tarjoukseen ja ostaa ehkä amd 5600 tai 5600x.
Rajoittaa. Itellä on 10700K ja sekin rajoittaa menoa joissain peleissä.
 
Jarruttaako i7 7700k 3080 kulkua paljonkin? Ilmeisesti tuo jonkin verran on pullonkaulana mutta kuinka paljon, osaako joku sanoa? Ja ihan on vaan pelaamis käytössä kone. Miettinyt, että pitäisikö tarttua nyt tarjoukseen ja ostaa ehkä amd 5600 tai 5600x.

Kunpa olisit maininnut millä resolla ja virkistystaajuudella pelaat. Jos näyttö pystyy vain 60 hertzin virkistystaajuuteen, niin voi olla ettei prossun vaihtamista edes huomaa. Tietysti poikkeuksiakin on, kuten 1080p-reso ja monitorin virkistystaajuus 120Hz tai yli. Tuolloin eron todella huomaa.

Tuubissa on paljon videoita, joissa mukana i7-7700k ja 3080.
 
Kunpa olisit maininnut millä resolla ja virkistystaajuudella pelaat. Jos näyttö pystyy vain 60 hertzin virkistystaajuuteen, niin voi olla ettei prossun vaihtamista edes huomaa. Tietysti poikkeuksiakin on, kuten 1080p-reso ja monitorin virkistystaajuus 120Hz tai yli. Tuolloin eron todella huomaa.

Tuubissa on paljon videoita, joissa mukana i7-7700k ja 3080.
No tuo tietysti unohtui. Löytyy 2 näyttöä, toinen 1440p ja toinen 2160p, molemmat 144Hz.
 
Jarruttaako i7 7700k 3080 kulkua paljonkin? Ilmeisesti tuo jonkin verran on pullonkaulana mutta kuinka paljon, osaako joku sanoa? Ja ihan on vaan pelaamis käytössä kone. Miettinyt, että pitäisikö tarttua nyt tarjoukseen ja ostaa ehkä amd 5600 tai 5600x.
Pivittää sitten jos näyttää että jossain pelissä tulee raja vastaan? Mulla on vielä ikivanha i7-6700 ja sen kaverina 3090. Monitori on 1440p ultrawide. Se on kuitenkin vain 100Hz natiivi, ja ainakaan vielä ei ole tullut rajaa vastaan. Kuormittavin peli mulla taitaa olla Control ja se ainakin pyörii tasaisesti sen 100fps asetukset maksimissa.
 
Jarruttaako i7 7700k 3080 kulkua paljonkin? Ilmeisesti tuo jonkin verran on pullonkaulana mutta kuinka paljon, osaako joku sanoa? Ja ihan on vaan pelaamis käytössä kone. Miettinyt, että pitäisikö tarttua nyt tarjoukseen ja ostaa ehkä amd 5600 tai 5600x.

kokemusta 9600k rajoitti kyllä ihan kiitettävästi menoa 1440p resolla. Riippuu tietysti pelistä.
 
Itsellä 8700K + 3080Ti ja 1080p:nä pelaan niin onhan se pullonkaula mutta ei tee yhtään mieli alkaa kasaamaan uutta konetta ja asentelemaan. Kaikki pelit pyörii kuitenkin yli 100fps.
 
Oli kyllä taas melkoinen ajojahti löytää syy miksi juuri kasattu vesijäähdytetty Ryzen 5800 + RTX 3090 Strix kone stutteroi aivan perkeleesti. Kokeilin aivan kaikki kikat ja mikään ei auttanut, lopuksi kävin kokeilemassa pistää rebar tuen kiinni emolevyltä niin ongelma korjaantui välittömästi. Asiaa ei auttanut se että ilmeisesti uusin Windows päivitys oli aiheuttanut vastaavaa ongelmaa. Myös VR pelien puolella ollut Nvidialla jotain perseilyä afterburner/hwinfo käytön kanssa.
Mitään vastaavaa ongelmaa ei ole ollut 6800XT/6900XT setin kanssa mitä tuli käytettyä yli vuoden, tuntuu että Nvidialla on nykyään enemmän ajuriongelmia...

EDIT: Komento takaisin. Nyt stutterointi tuli taas takaisin... pitää katsoa että voiko olla että VR lasit jotenkin sekoittavat kortin ja saa aikaan tuon stutteroinnin.
 
Viimeksi muokattu:
Oli kyllä taas melkoinen ajojahti löytää syy miksi juuri kasattu vesijäähdytetty Ryzen 5800 + RTX 3090 Strix kone stutteroi aivan perkeleesti. Kokeilin aivan kaikki kikat ja mikään ei auttanut, lopuksi kävin kokeilemassa pistää rebar tuen kiinni emolevyltä niin ongelma korjaantui välittömästi. Asiaa ei auttanut se että ilmeisesti uusin Windows päivitys oli aiheuttanut vastaavaa ongelmaa. Myös VR pelien puolella ollut Nvidialla jotain perseilyä afterburner/hwinfo käytön kanssa.
Mitään vastaavaa ongelmaa ei ole ollut 6800XT/6900XT setin kanssa mitä tuli käytettyä yli vuoden, tuntuu että Nvidialla on nykyään enemmän ajuriongelmia...

EDIT: Komento takaisin. Nyt stutterointi tuli taas takaisin... pitää katsoa että voiko olla että VR lasit jotenkin sekoittavat kortin ja saa aikaan tuon stutteroinnin.
Eihän ole käytössä uusimmat ajurit? Ne on tuonut ongelmia moniin peleihin. Ainakin MW2 ja Halo Infinite todettu pelikelvottomaks niillä.
 
Eihän ole käytössä uusimmat ajurit? Ne on tuonut ongelmia moniin peleihin. Ainakin MW2 ja Halo Infinite todettu pelikelvottomaks niillä.
*huoh*
niinpä tietysti, juuri kun asentelee konetta käyttökuntoon niin Nvidia örveltää pihalle rikkinäiset ajurit ja tuputtaa niitä ainoana vaihtoehtona kotisivuillaan ellet eksy tarkoituksella kaivelemaan vanhoja ajureita.
 
Mitään havaintoa kellään miksi RTX 3090 vie idlenä virtaa noin 100-110w vaikka on vain työpöydällä? Kuten tälläkin hetkellä, 108w power draw näyttää vaikka on vain chrome auki koneella. Kaikki kikat mitä google on tarjonnut on jo käytetty, mutta ongelma pysyy. Kuitenkin käsittääkseni pitäisi alle 100w kulutukseen mennä jos ei mitään kuormaa gpu:lle ole. HDR näyttö löytyy ja tietenkin on HDR päällä - mutta ei kai HDR sitä lukemaa noin kovasti nosta?
 
Mitään havaintoa kellään miksi RTX 3090 vie idlenä virtaa noin 100-110w vaikka on vain työpöydällä? Kuten tälläkin hetkellä, 108w power draw näyttää vaikka on vain chrome auki koneella. Kaikki kikat mitä google on tarjonnut on jo käytetty, mutta ongelma pysyy. Kuitenkin käsittääkseni pitäisi alle 100w kulutukseen mennä jos ei mitään kuormaa gpu:lle ole. HDR näyttö löytyy ja tietenkin on HDR päällä - mutta ei kai HDR sitä lukemaa noin kovasti nosta?

Jos joku kiinanpoika mainaa sillä sun kortilla?
 
Mitään havaintoa kellään miksi RTX 3090 vie idlenä virtaa noin 100-110w vaikka on vain työpöydällä? Kuten tälläkin hetkellä, 108w power draw näyttää vaikka on vain chrome auki koneella. Kaikki kikat mitä google on tarjonnut on jo käytetty, mutta ongelma pysyy. Kuitenkin käsittääkseni pitäisi alle 100w kulutukseen mennä jos ei mitään kuormaa gpu:lle ole. HDR näyttö löytyy ja tietenkin on HDR päällä - mutta ei kai HDR sitä lukemaa noin kovasti nosta?
Ekaksi tulee mieleen että onko siellä Chromessa joku "Hardware Acceleration" päällä ja Chrome pyörittää jotain GPU:lla? Pieneneekö kulutus jos Chrome on kiinni?
 
Mitään havaintoa kellään miksi RTX 3090 vie idlenä virtaa noin 100-110w vaikka on vain työpöydällä? Kuten tälläkin hetkellä, 108w power draw näyttää vaikka on vain chrome auki koneella. Kaikki kikat mitä google on tarjonnut on jo käytetty, mutta ongelma pysyy. Kuitenkin käsittääkseni pitäisi alle 100w kulutukseen mennä jos ei mitään kuormaa gpu:lle ole. HDR näyttö löytyy ja tietenkin on HDR päällä - mutta ei kai HDR sitä lukemaa noin kovasti nosta?
tippuuko kellot idlessä vai jääkö roikuskelemaan 1000+ mhz?
 
Mitään havaintoa kellään miksi RTX 3090 vie idlenä virtaa noin 100-110w vaikka on vain työpöydällä? Kuten tälläkin hetkellä, 108w power draw näyttää vaikka on vain chrome auki koneella. Kaikki kikat mitä google on tarjonnut on jo käytetty, mutta ongelma pysyy. Kuitenkin käsittääkseni pitäisi alle 100w kulutukseen mennä jos ei mitään kuormaa gpu:lle ole. HDR näyttö löytyy ja tietenkin on HDR päällä - mutta ei kai HDR sitä lukemaa noin kovasti nosta?

Onko idle-kellot ylhäällä myös? Itse havahduin omassa 3080ti:ssä samaan ja kulutus (110w -> 25w) ja kellot laski, kun laittoi Nvidia-ohjauspaneelista suorituskyvyn normaalille.

Jostain syystä ainakin korkean virkistystaajuuden näytöissä Nvidian korteilla on yleensäkin taipumus pitää kellot ylhäällä idlenäkin kun on "suosi parasta suorituskykyä" valittuna. Tätä samaa esiintyi myös 1080ti:n kanssa. En ymmärrä miksei saada korjattua.
 
Kellot on kunnossa, sanoo että 210mhz pyörii kortti idlenä ja jos jotain pelejä laittaa niin nousee normisti sinne lähemmäs paria tonnia. Ei näytä mitään kulutusta missään softassa. Ainut mikä on outoa on että memory clock sanoo 9752mhz koko ajan, niinkuin olisi jäänyt jumiin? Tuon Nvidian power management jutun olen jo testannut, ei vaikutusta asiaan.
 
Mitäs tekisitte tilanteessa jossa 3080 Suprim X:ssä on yksi (1) ledi vioittunut niin ettei näytä valosaastetta kuin punaisena? Saisin varmasti uuden kun laittaisin takuuseen (MSI:llä on avokätinen kolmen vuoden takuu), mutta toisaalta minulla on käsissäni melko hyvin kulkeva yksilö, pelkästään kotelo auki kellitellessä minulla oli jossain vaiheessa muistaakseni Suomen top 10-luokkaa kellotustulos, toki aikana jolloin niitä kortteja ei vielä helposti ollut muutenkaan :geek: (sen jälkeen kiinnostus lopahti koska ei aika enää riittänyt).
Voisikohan jossain ensi vuoden puolella olla käsissä tilanne, jolloin rtx 3080 kortteja ei olisi enää varastossa jolloin ehkä saisin jotain 4000-sarjaa tilalle?:whistling:
Turhaa toiveikkuutta?
 
Kellot on kunnossa, sanoo että 210mhz pyörii kortti idlenä ja jos jotain pelejä laittaa niin nousee normisti sinne lähemmäs paria tonnia. Ei näytä mitään kulutusta missään softassa. Ainut mikä on outoa on että memory clock sanoo 9752mhz koko ajan, niinkuin olisi jäänyt jumiin? Tuon Nvidian power management jutun olen jo testannut, ei vaikutusta asiaan.
Ne on jostain syystä jumissa. Muistuu kans mieleen sellanenkin homma et jos on useampaa näyttöä kiinni ja kaikissa korkea reso/virkistystaajuus niin sillonkin on virrankulutus jo työpöydällä aika korkea. Ite saan sen nousemaan aika korkealle jos lisään tähän 3840x1600@160hz + 1440p@120hz yhdistelmän kylkeen vielä ton 4k@120hz telkkarin lisäks. Toki siinä nyt ei sinällänsä mikään ihmekkään et alkaa menee virtaa.

Nyt mulla seilailee 35-95w välimaastossa oma kulutus 3080 kortilla. Ei nyt sinänsä huoleta ku on mulla tässä selaimia yms kans auki. Mut jos sulla se on kokoajan naulattuna siihen sataseen niin tota kokeile vetää DDU:lla ajurit sileeks safe modessa ja asenna uusiks.
Mitäs tekisitte tilanteessa jossa 3080 Suprim X:ssä on yksi (1) ledi vioittunut niin ettei näytä valosaastetta kuin punaisena? Saisin varmasti uuden kun laittaisin takuuseen (MSI:llä on avokätinen kolmen vuoden takuu), mutta toisaalta minulla on käsissäni melko hyvin kulkeva yksilö, pelkästään kotelo auki kellitellessä minulla oli jossain vaiheessa muistaakseni Suomen top 10-luokkaa kellotustulos, toki aikana jolloin niitä kortteja ei vielä helposti ollut muutenkaan :geek: (sen jälkeen kiinnostus lopahti koska ei aika enää riittänyt).
Voisikohan jossain ensi vuoden puolella olla käsissä tilanne, jolloin rtx 3080 kortteja ei olisi enää varastossa jolloin ehkä saisin jotain 4000-sarjaa tilalle?:whistling:
Turhaa toiveikkuutta?
Erittäin vaikee uskoo et yhden ledin takia niin avokätisiä olisivat et antaisivat mitään 40-sarjaa tilalle. Vaikkei niitä 3080 kortteja oliskaan varastossa niin eiköhän ne siinä vaiheessa tarjoais vaan pientä rahallista hyvitystä, ei ne takuupuolellakaan tyhmiä oo et kyllä ne hiffaa tollaset kalasteluyritykset aika helpostikkin kun ketä nyt oikeasti yks vitun ledi kiinnostaa?

Etenkin jos kortti hyväkulkunen malli niin venailisin ainakin sinne takuun loppumetreille ja sit ehkä lähtisin kyselemään, jos edes kehtaisin lähteä ledin takia takuuseen laittamaan.
 
Ne on jostain syystä jumissa. Muistuu kans mieleen sellanenkin homma et jos on useampaa näyttöä kiinni ja kaikissa korkea reso/virkistystaajuus niin sillonkin on virrankulutus jo työpöydällä aika korkea. Ite saan sen nousemaan aika korkealle jos lisään tähän 3840x1600@160hz + 1440p@120hz yhdistelmän kylkeen vielä ton 4k@120hz telkkarin lisäks. Toki siinä nyt ei sinällänsä mikään ihmekkään et alkaa menee virtaa.

Nyt mulla seilailee 35-95w välimaastossa oma kulutus 3080 kortilla. Ei nyt sinänsä huoleta ku on mulla tässä selaimia yms kans auki. Mut jos sulla se on kokoajan naulattuna siihen sataseen niin tota kokeile vetää DDU:lla ajurit sileeks safe modessa ja asenna uusiks.

Erittäin vaikee uskoo et yhden ledin takia niin avokätisiä olisivat et antaisivat mitään 40-sarjaa tilalle. Vaikkei niitä 3080 kortteja oliskaan varastossa niin eiköhän ne siinä vaiheessa tarjoais vaan pientä rahallista hyvitystä, ei ne takuupuolellakaan tyhmiä oo et kyllä ne hiffaa tollaset kalasteluyritykset aika helpostikkin kun ketä nyt oikeasti yks vitun ledi kiinnostaa?

Etenkin jos kortti hyväkulkunen malli niin venailisin ainakin sinne takuun loppumetreille ja sit ehkä lähtisin kyselemään, jos edes kehtaisin lähteä ledin takia takuuseen laittamaan.
Redditistä katsoin, niin kuulemma monet olivat saaneet kokonaisia kortteja vaihdossa.
PS. Katsoin TimeSpyn listaa, enää en ollut edes top satasessa. Mutta tulos olikin tehty ennen kuin tuli se eräs kuuluisa ajuripäivitys joka paransi kaikkien TS-scoreja parilla sadalla :asif:
 
Ne on jostain syystä jumissa. Muistuu kans mieleen sellanenkin homma et jos on useampaa näyttöä kiinni ja kaikissa korkea reso/virkistystaajuus niin sillonkin on virrankulutus jo työpöydällä aika korkea. Ite saan sen nousemaan aika korkealle jos lisään tähän 3840x1600@160hz + 1440p@120hz yhdistelmän kylkeen vielä ton 4k@120hz telkkarin lisäks. Toki siinä nyt ei sinällänsä mikään ihmekkään et alkaa menee virtaa.

Nyt mulla seilailee 35-95w välimaastossa oma kulutus 3080 kortilla. Ei nyt sinänsä huoleta ku on mulla tässä selaimia yms kans auki. Mut jos sulla se on kokoajan naulattuna siihen sataseen niin tota kokeile vetää DDU:lla ajurit sileeks safe modessa ja asenna uusiks.

Ei auta vaikka DDU:lla poistaa ja asentaa ajurit uusiksi. Ennen kun asentaa ajurit niin näyttää normaaleja lukemia eri softilla, mutta heti kun asentaa Geforcen ajurit niin näyttis aktivoituu ja 100-110w idle kulutus. Aion testata nyt jotain ajureita tyyliin helmikuulta 2022 ja katsoa oliskohan niissä vähän järkeä. Tähän mennessä on kokeiltu viimeiset 4 ajuria mitä Nvidialta on ilmestynyt, kaikissa sama ongelma.
 
Ei auta vaikka DDU:lla poistaa ja asentaa ajurit uusiksi. Ennen kun asentaa ajurit niin näyttää normaaleja lukemia eri softilla, mutta heti kun asentaa Geforcen ajurit niin näyttis aktivoituu ja 100-110w idle kulutus. Aion testata nyt jotain ajureita tyyliin helmikuulta 2022 ja katsoa oliskohan niissä vähän järkeä. Tähän mennessä on kokeiltu viimeiset 4 ajuria mitä Nvidialta on ilmestynyt, kaikissa sama ongelma.
Discordissa hardware acceleration päällä? Näkyykö task managerissa mitään mikä sitä näyttistä käyttää, luulis siellä jotain olevan päällä kuitenkin.
 
Discordissa hardware acceleration päällä? Näkyykö task managerissa mitään mikä sitä näyttistä käyttää, luulis siellä jotain olevan päällä kuitenkin.

Discord ei ole asennettuna tähän koneeseen. Task managerin mukaan dwm.exe eli Desktop Window Manager käyttää hieman gpu, satunnaisia piikkejä 10% asti. Kuitenkin muissa softissa tuo näkyy että gpu utilization on 1-2% max joten ei korreloi mun mielestä, koska tuo noin 108w kulutus on ja pysyy aina.
 
Olisiko tämä tehnyt paluun? [BUG Report] Idle Power Draw is ASTRONOMICAL with RTX 3090

Aika monella tuntui äkkiä lukemalla olevan samaa ja nvidian edustajakin kävi jossain vaiheessa sanomassa että ajuribugi.
Käväise vilkaisemassa josko ratkaisua olisi.
Eli vika on ilmeisesti ajureissa ja johtuu tästä

"Anyway, the issue is known. There is a bug in the Nvidia driver that forces the Memory frequency to be stuck at it’s maximum frequency at all times when you use more than one monitor at above 60Hz. "

Pitää itsekin tutkia kun pääsee taas joskus koneelle
 
Onko idle-kellot ylhäällä myös? Itse havahduin omassa 3080ti:ssä samaan ja kulutus (110w -> 25w) ja kellot laski, kun laittoi Nvidia-ohjauspaneelista suorituskyvyn normaalille.

Jostain syystä ainakin korkean virkistystaajuuden näytöissä Nvidian korteilla on yleensäkin taipumus pitää kellot ylhäällä idlenäkin kun on "suosi parasta suorituskykyä" valittuna. Tätä samaa esiintyi myös 1080ti:n kanssa. En ymmärrä miksei saada korjattua.
Kiitos tämä auttoi minulla (rtx 3080) uusimpien ajureiden 526.47 kanssa. Kone piti buutata jotta huomasi muutoksen.
 
Joo täälläkin hyppäs 3090 Ti idle kulutus 100W pintaan kun ajo nuo uusimmat ajurit sisään.
Edit:
Ja tosiaan näyttäs olevan muisteista kiinni. Muistit hyppii ihan idlessä tuonne 10500MHz ja samalla kulutus pomppaa 30W -> 100W. Reboot tuntuu auttavan vain väliaikaisesti.
 
Joo täälläkin hyppäs 3090 Ti idle kulutus 100W pintaan kun ajo nuo uusimmat ajurit sisään.
Edit:
Ja tosiaan näyttäs olevan muisteista kiinni. Muistit hyppii ihan idlessä tuonne 10500MHz ja samalla kulutus pomppaa 30W -> 100W. Reboot tuntuu auttavan vain väliaikaisesti.
Ajurin noteissa:

When both NVIDIA Low Latency Mode is set to Ultra in the NVIDIA Control Panel and NVIDIA Reflex is set to “Boost + Enabled” in a game, the graphics card will not return to idle clock speeds after exiting the game until the PC is rebooted. [3846389]

Mulla oli 4090:llä myös korkea idle kulutus pelin sulkemisen jälkeen. Toi low latency mode ultralta offille ja koneen buutti niin ei ole enää toistunut tämä ongelma.
 
Kappas 100W näyttäisi itselläkin desktopilla syövän 3080 Ti :woot:
Pelkkä näyttis?

Justiin viikonloppuna testasin energiamittarilla pistorasiasta koko setupin kulutusta ilman näyttöä eli telkkaria.

Firefoxilla nettiselauskäytössä kulutus vaihteli 70-110w välillä.

R3700x
3080ti tuf
 
Pelkkä näyttis?

Justiin viikonloppuna testasin energiamittarilla pistorasiasta koko setupin kulutusta ilman näyttöä eli telkkaria.

Firefoxilla nettiselauskäytössä kulutus vaihteli 70-110w välillä.

R3700x
3080ti tuf
Ainakin HWinfon mukaan. Mitään energiamittaria en omista.
 

Statistiikka

Viestiketjuista
259 104
Viestejä
4 502 140
Jäsenet
74 329
Uusin jäsen
Bopperhopper

Hinta.fi

Back
Ylös Bottom