NVIDIA GeForce RTX 3080 / 3080 Ti / 3090 -ketju (GA102)

  • Keskustelun aloittaja Keskustelun aloittaja Kaotik
  • Aloitettu Aloitettu
Simulaattori todennäkösesti ainoa.

Eipä tunnu olevan hirveesti merkitystä.

Screenshot_20200925_174909_com.android.chrome.png

 
Koneen sammuminen yleensä viittaa PSU:n liian alhaisiin tehoihin, mutta voihan kyseessä olla rauta tai ohjelmistovika.
Äkkiseltään luulisi tuon 860W platinum powerin riittävän.

Oletko varmistanut vakauden stockkina peleissä vai lähditkö samoin tein ylikellottamaan?
Stockkinahan tuo nimeomaa kaatuu tuossa oc scannerissa. Gpu-z seurailin niin 11.8v - 12.0v tulee virtaa pcie kaapeleista virtaa. Pitää varmaan kokeilla vielä ajaa windows uusiksi. Biossinkin tossa päivittelin kun oli jo yli vuoden vanha. No jos tuo kaatuilee windows uudelleen asennuksen jälkeenkin nii sitten epäilen kyllä rautavikaa jossain.
 
Voisko joku kortin saaneista jakaa kokemuksia vakio TUF/OC tai muilla 3080 korteilla alivoltittamisesta? Itse nyt ajellut 0,837V ja 1800-1815mhz. Pelailua tunteja ja tuntui vakaalta.
Näillä ainakin kortin kulutus tippui pelatessa noin 240w vaikka vakionakin hakkaa 330w. Suorituskyvyssä ei kyllä huomannut ainakaan nopealla testillä juurikaan mitään eroa. Kellotetttunakaan ei edes markeissa juuri mitään eroa. Mennään sitten näillä
Tässä tiivistettynä mun alivoltitus/ylikellotus kokemukset Time Spy tuloksineen Gigabyte Eaglen kanssa:

tspyscores.png


900 mV ja reilu 1900 MHz vaikuttais olevan aika sweet spot tälle kortille. 1830Mhz/806mV tippuu lämmöt jo kivasti ja suorituskyky ei paljoakaan.
 
No juuri näin. Ihan turhaan tehtiin taas tikusta asiaa, koska nykyiset rojut tuskin puolta vuotta pitempään kopassani seisoo.
Mun koko pointti on siinä, että 3090 teho on teholisäys on niin pieni, että järkevämpi olis samaan rahaan ostaa se 3080+vaikka 10900k ja emo. Miks tuhlaa 1600€ näytönohjaimeen, jos loppukone 5v vanha.
 
Mun koko pointti on siinä, että 3090 teho on teholisäys on niin pieni, että järkevämpi olis samaan rahaan ostaa se 3080+vaikka 10900k ja emo. Miks tuhlaa 1600€ näytönohjaimeen, jos loppukone 5v vanha.

Koska varsinkin tällä hetkellä ei ole _mitään_ järkeä ostaa 10900K-pohjalle rakennettua settiä, koska Zen 3 puskee jo parin viikon päästä ja Intelit tulee alkuvuodesta(?) ulos. Kaiken lisäksi jos nyt tilaat 3080, niin saat sen ehkä ensi juhannuksena.
 
Ja nämä "piikit" on sitten ihan fine? Virtalähde vaan vaihtoon, ei muita kysymyksiä?

Kyllä ne on ihan fine. Romut vaan toimii niin että piikkejä tulee, sille ei mahda minkään.

No juuri näin. Ihan turhaan tehtiin taas tikusta asiaa, koska nykyiset rojut tuskin puolta vuotta pitempään kopassani seisoo.

Meinasit jotta DDR5 tulee 6kk päästä?

Zen 3 on kohta tulossa ja DDR4, Inteliltä tulossa uutuuksia sitten hiukan myöhemmin, edelleen DDR4 ja PCI-e 3.0. Tuolle alustalle on sitten myöhemmin käsittääkseni tulossa kiviä jotka tukevat PCI-e 4. joten eiköhän se Intel tuolla uudella alustalla sen vuoden ainakin mene. Tiukkaa voi tehdä DDR5 alusta vuonna 2021.
 
Tiukkaa voi tehdä DDR5 alusta vuonna 2021.

Voi olla, muuta pitää toivoa. On sitä DDR5:sta jo niin pitkään kehitetty, että luulisi olevan lähitulevaisuuden juttu. Jos ei vielä ensi vuonna, niin pitänee rakentaa sitten toisenlainen setti. :)

Joka tapauksessa linkkaamani videon perusteella ei ole mitään pakollista syytä lähteä päivittämään prossua parin fps:n takia juurikin nyt heti. :)
 
Todellisuudessa vain 10 ihmistä laittanut arpoja menemään eri käyttäjillä. Ihan selvä juttu jos tätä ketjua lukee.

Nvidiahan itsekin ennen 3090:n myyntiä mainosti, että näitä on nyt niin vähän että näitä todella kannattaa trokata. Mutta kaikki noi silti myydään samantien. Se on yhdentekevää ostaako joku suoraan valmistajalta tai trokaajalta, tuotantomäärät ja end-user kysyntä on silti ihan sama. Trokaajat korkeintaan VÄHENTÄÄ kysyntää. Mutta ei niitä niin tarpeeksi ole että se oikeasti vaikuttaa.
 
Voi olla, muuta pitää toivoa. On sitä DDR5:sta jo niin pitkään kehitetty, että luulisi olevan lähitulevaisuuden juttu. Jos ei vielä ensi vuonna, niin pitänee rakentaa sitten toisenlainen setti. :)

Joka tapauksessa linkkaamani videon perusteella ei ole mitään pakollista syytä lähteä päivittämään prossua parin fps:n takia juurikin nyt heti. :)
pari fps, juuh okei.
 
152d98009e3fb7ed70ce18870759fcaa.jpg


Ultrawidellä nopee Horizon ZD rundi. 1920MHz näyttäis vakiona olevan oman kortin maksimit abouttiarallaa. 346w oli board power draw ja perfcappina vilkku PWR ja VREL vuorotellen tai samanaikasesti, eli ei vaan vakauden vuoksi kehtaa boostailla korkeammalle. Joku 20min pelailin myös eikä kaatumista näkynyt kummassakaan RDR2 tai tässä. Toki lyhyitä settejä, mutta kuitenkin.

Seuraavaks sit B9S kiinni kortti ja ihmettelemään sitä.

E: Ainiin ja asetukset tietty tapissa, customia näyttää siks koska otin Motion Blurin tietysti pois.
 
152d98009e3fb7ed70ce18870759fcaa.jpg


Ultrawidellä nopee Horizon ZD rundi. 1920MHz näyttäis vakiona olevan oman kortin maksimit abouttiarallaa. 346w oli board power draw ja perfcappina vilkku PWR ja VREL vuorotellen tai samanaikasesti, eli ei vaan vakauden vuoksi kehtaa boostailla korkeammalle. Joku 20min pelailin myös eikä kaatumista näkynyt kummassakaan RDR2 tai tässä. Toki lyhyitä settejä, mutta kuitenkin.

Seuraavaks sit B9S kiinni kortti ja ihmettelemään sitä.

E: Ainiin ja asetukset tietty tapissa, customia näyttää siks koska otin Motion Blurin tietysti pois.

On siinä kyllä jäätävä ero entiseen RTX 2080:n (kuva spoilereissa)! Samalla resolla ja ultimate qualityllä (v-sync off) sain 61 fps:

1601050541791.png
Onnittelut ilmeisen hyvästä yksilöstä, ja laittelehan lisää pelikokemuksia myös jatkossa. Näitä on kiva ihmetellä. :kippis:
 
On tää kyllä melkoinen julkaisu. POScap-gate, näyttis vaatii 1300w virtalähteen, suurin osa korteista varattu boteille, pelit kaatuilee jne. Saattaa olla viisasta odotella mitä sieltä AMD:ltä tulee.
 
On tää kyllä melkoinen julkaisu. POScap-gate, näyttis vaatii 1300w virtalähteen, suurin osa korteista varattu boteille, pelit kaatuilee jne. Saattaa olla viisasta odotella mitä sieltä AMD:ltä tulee.
liioittelet---1000w riittää mutta on kyllä jos pitää huippumallin pcb skimpata niin ettei die pääse näyttämään mihin pystyy...
looking at EVGA for the win?
 
evga pois ostolistalta jos ei korjaa ftw poscap---kuitenkin olevinaan 1malli?????
xc ultra näkyy olevan sama kuin msi x trio?

Kyllähän se vähän näyttää siltä, että NVIDIA pimitti noita ajureita yms. viimeiseen asti ettei nuo custom korttien valmistajat kerennyt kaikkia lastentauteja testailemaan. Voi hyvinkin olla että jokainen AIB valmistaja päivittelee noita komponentteja laadukkaammiksi, jos nuo ongelmat noihin lopulta paikallistuu. Asus näyttää laittaneen ainakin noissa revikoihin lähetetyissä korteissa suoraan ns. parasta rajalle. Saa sitten nähdä tuleeko myyntiversioihin kanssa vai yritettiinkö myydä STRIX osilla TUF:ia. Nyt kun tästä on noussut melkoinen paskapilvi internettiin niin paha enää mennä laittamaan halvempia komponentteja kaikessa hiljaisuudessa. Siltä osin ainakin TUF:in varanneet on ihan hyvissä asemissa.
 
Katsoitko tuota videota? Ultrawidellä keskimäärin n. 3 fps ero parhaipaan prossuun (7700k vs 10700k).
Keskimääräinen fps ei paljon lämmitä, kun 1 % low ottaa rajuja dippejä. Siinä muuttuu pelikokemus paljon huonommaksi, vaikka avg fps olisikin sama.
 
Mun koko pointti on siinä, että 3090 teho on teholisäys on niin pieni, että järkevämpi olis samaan rahaan ostaa se 3080+vaikka 10900k ja emo. Miks tuhlaa 1600€ näytönohjaimeen, jos loppukone 5v vanha.

8700k vs. 10900k saa yhden tai kaks framea edelleen lisää, kuten 2080Tilläkin. Eli ei mitään syytä vaihdella prossua vieläkään kovin tiheään. Mutta se seuraava intelin malli saattaa jo tuoda uuttakin tullessaan niin alusta päivitellään sitte vasta.

Mutta parempi loppuroskakin laittaa kohdilleen jos 3090 hommaa niin ei tarvi sitte niin paljoa karsia asetuksia että saa sen 4K@144fps irti. Ajatella että jotkut koittaa tuota samaa 3080 o_O :lol: o_O :geek: o_O :lol: o_O :lol: o_O
(vitsi)
 
Keskimääräinen fps ei paljon lämmitä, kun 1 % low ottaa rajuja dippejä. Siinä muuttuu pelikokemus paljon huonommaksi, vaikka avg fps olisikin sama.

Jos oma 7700k muodostuu todella pullonkaulaksi 3090:lle, niin sitten lähtee emo ja prossu vaihtoon. Simple as that. Tällä hetkellä ei kuitenkaan ole vielä kiire päivittämään. :)
 
En nyt nopealla haulla löytänyt kunnon vastausta siihen, että uskaltaako näitä 3x8 kaapelin vaativia kortteja ajaa kahdella kaapelilla(joista toinen 2x8) vaikka 750w laadukkaalla powerilla? Vai pitääkö ostaa poweri, josta löytyy kolme erillistä kaapelia.
 
En nyt nopealla haulla löytänyt kunnon vastausta siihen, että uskaltaako näitä 3x8 kaapelin vaativia kortteja ajaa kahdella kaapelilla(joista toinen 2x8) vaikka 750w laadukkaalla powerilla? Vai pitääkö ostaa poweri, josta löytyy kolme erillistä kaapelia.

Uutta poweria vaan missä kolme erillistä kaapelia. :)
 
En nyt nopealla haulla löytänyt kunnon vastausta siihen, että uskaltaako näitä 3x8 kaapelin vaativia kortteja ajaa kahdella kaapelilla(joista toinen 2x8) vaikka 750w laadukkaalla powerilla? Vai pitääkö ostaa poweri, josta löytyy kolme erillistä kaapelia.
Evga Jacob ainakin sanonut, että on ookoo jos käyttää kahta kaapelia, joista toinen sellainen haaroitettu. Toki erilliset aina parempia.
 
On siinä kyllä jäätävä ero entiseen RTX 2080:n (kuva spoilereissa)! Samalla resolla ja ultimate qualityllä (v-sync off) sain 61 fps:
Onnittelut ilmeisen hyvästä yksilöstä, ja laittelehan lisää pelikokemuksia myös jatkossa. Näitä on kiva ihmetellä. :kippis:
Loppuilta menee varmaan ihan ton uuden Mafian parissa. Tuli tolla OLEDillakin ajeltua Horizonia ja Shadow of the Tomb Raideria ihan testimielessä. 4k 120hz HDR kera todellakin toimii miten pitää ton LG B9S kanssa ainakin.

Vinkki niille jotka tulevaisuudessa vetelee kortit kiinni noihin OLEDeihin, muistakaa ottaa se G-Sync pois päältä, muuten ei tuu lasta eikä paskaa koko touhusta. Toki jos korjattu jo siihen mennessä niin hyvä, mutta LG toisaalta puhu ainakin viikoista.
 
Ole hyvä ja perustele.

Varmastikin toimii myös kahdella kaapelilla, mutta itse ainakin ottaisin lähes tonnin ja yli maksavissa näyttiksissä "varman päälle", ja vetäisin omat kaapelit. Tuo kaksi kaapelia on ilmeisesti kuitenkin ihan suositusten mukainen?
 
1601057887368.png


Jotain huomioita TUF 3090. Kortti käy mukavan viileänä ja hiljaisena. Ei kuulu mitään sirkutuksia. Lämpöä kyllä puskee tosissaan ulos. Kortin kohdalta ei meinaa montaa sekunttia kotelon seinässä pystyä pitämään kättä. Controllissa tuntui puskevan kovalla prosentilla fps ulos 2080 ti verrattuna. Battlefield V ei ollut järisyttävää tehon nousua. En tiedä rajoittaako tuo 8700k menoa siinä

Uusi hieno Geforce Experience automaattinen kellotus ominaisuus veti mustan ruudun.
 
Viimeksi muokattu:
On tää kyllä melkoinen julkaisu. POScap-gate, näyttis vaatii 1300w virtalähteen, suurin osa korteista varattu boteille, pelit kaatuilee jne. Saattaa olla viisasta odotella mitä sieltä AMD:ltä tulee.

En tiedä mitä omassa Gigabyte RTX 3080 Gaming OC on, mutta toistaiseksi ei ole yhtään kaatumista.

Virtalähteenä vajaa 10v vanha SilverStone Strider Gold 750W.

Edelleen netissä on ne ongelmat, sanotaanko että yhtä ongelmatapausta on ainakin 40 toimivaa
 
Keskimääräinen fps ei paljon lämmitä, kun 1 % low ottaa rajuja dippejä. Siinä muuttuu pelikokemus paljon huonommaksi, vaikka avg fps olisikin sama.
Kannattaa muistaa että vaikka 1% low on 50 fps (eli 20 ms) ja muuten on 200 fps (eli 5ms) niin se tarkoittaa että todellisuudessa fps tippuu keskimäärin 200 fps --> 194 fps. Siksi frametime käyrä kertoisi enemmän eli tuleeko hitaat framet ryppäinä vai tasaisesti.
Itse olen huomannut että lähes rajaton powerlimit ja kellotus sekä näytölle sopiva fps rajoitin pelissä minimoi nuo hitaammat ruudut. Mutta en omista 3000 sarjaa.
 
En tiedä mitä omassa Gigabyte RTX 3080 Gaming OC on, mutta toistaiseksi ei ole yhtään kaatumista.

Virtalähteenä vajaa 10v vanha SilverStone Strider Gold 750W.

Edelleen netissä on ne ongelmat, sanotaanko että yhtä ongelmatapausta on ainakin 40 toimivaa
Niin ja sulla on vissiin viikon kerinny jo kortti olemaan? Miten sulla boostailee yms?
 

Tuntuu kyllä causteja taas muodostuvan joka asiasta. Igor voi olla oikeassa tai sitten jotain siltä välitä.
Nopeasti kun googlettelee niin POSCAPIt on ainakin paaaaljon kalliimpia kuin MLCC konkat, ja vaikka noita MLCC konkkia menee 10x rykelmissä niin niiden hinnat pyörii senttiluokassa. Eikai nyt melkeen tonnin korttien valmistajien tarttisi konkissa pihistellä vaan kyllä siinä on varmasti muitakin syitä taustalla.
2R5TPE470MF Panasonic Electronic Components | Capacitors | DigiKey
Panasonicin mukaan noi nyt mitään ihan surkeita edes olisi vaan monia etuja eri sovelluksissa, muutakin kuin pelkkää lämmönkestoa https://eu.industrial.panasonic.com...es/pan_18072_whitepaper_mlccvspolymer_web.pdf
 
Mitäs eroa noilla MLCC ja Poscat konkilla on? Kesto? Lämpö?

Techpowerupin kommenteissa oli yksi vakuuttavan oloinen kuittaus:

"
So, as an Electronics Engineer and PCB Designer I feel I have to react here.
The point that Igor makes about improper power design causing instability is a very plausible one. Especially with first production runs where it indeed could be the case that they did not have the time/equipment/driver etc to do proper design verification.


However, concluding from this that a POSCAP = bad and MLCC = good is waaay to harsh and a conclusion you cannot make.


Both POSCAPS (or any other 'solid polymer caps' and MLCC's have there own characteristics and use cases.


Some (not all) are ('+' = pos, '-' = neg):
MLCC:
+ cheap
+ small
+ high voltage rating in small package
+ high current rating
+ high temperature rating
+ high capacitance in small package
+ good at high frequencies
- prone to cracking
- prone to piezo effect
- bad temperature characteristics
- DC bias (capacitance changes a lot under different voltages)


POSCAP:
- more expensive
- bigger
- lower voltage rating
+ high current rating
+ high temperature rating
- less good at high frequencies
+ mechanically very strong (no MLCC cracking)
+ not prone to piezo effect
+ very stable over temperature
+ no DC bias (capacitance very stable at different voltages)


As you can see, both have there strengths and weaknesses and one is not particularly better or worse then the other. It all depends.
In this case, most of these 3080 and 3090 boards may use the same GPU (with its requirements) but they also have very different power circuits driving the chips on the cards.
Each power solution has its own characteristics and behavior and thus its own requirements in terms of capacitors used.
Thus, you cannot simply say: I want the card with only MLCC's because that is a good design.
It is far more likely they just could/would not have enough time and/or resources to properly verify their designs and thus where not able to do proper adjustments to their initial component choices.
This will very likely work itself out in time. For now, just buy the card that you like and if it fails, simply claim warranty. Let them fix the problem and down draw to many conclusions based on incomplete information and (educated) guess work. "
 
Tässä tiivistettynä mun alivoltitus/ylikellotus kokemukset Time Spy tuloksineen Gigabyte Eaglen kanssa:

tspyscores.png


900 mV ja reilu 1900 MHz vaikuttais olevan aika sweet spot tälle kortille. 1830Mhz/806mV tippuu lämmöt jo kivasti ja suorituskyky ei paljoakaan.

Jotain tällästä "sweetspot" hommaa hainkin mutta en mistään löytänyt. Tarvii ajella muutamat testit niin informoin tänne. Tuf normi itsellä kyseessä
 
Juurikin noin miten hese_e tuossa kirjoitti. Nyt vedetään kyllä mutkia suoriksi ja causteja joka asiasta.
Käyttiksen suodatinkonkathan on kytketty aina käyttiksestä maihin joten nopeasti tuosta katsoen MLCC rivin keskirivi ei välttämättä edes olisi kytketty mihinkään (tod.näk on siellä alla läpiviennit, mutta tästäkin saisi kaustin). 8/10 MLCC konkasta on juotettu POSCAP:in padeihin suoraan. MSI kuvasta näkyy vielä paremmin miten MLCC on juotettu suoraan POSCAPin pädeihin ja näyttäis et siellä on käsin räpätty kortti lähtenyt kiireessä jollekin.

Ainoa mitä keksisin, mikä nyt selkeästi voisi MLCC suodatuksessa olla parempaa kuin POSCAP on se, että saisi erikokosia konkkia käytettyä suodattamaan eri taajuuksia. Eli siis 10nF, 30nF, 100nF, 330nF jne kun taas POSCAP on vain yksi suodatustaajuus..
 

Liitteet

  • Untitled.png
    Untitled.png
    854,3 KB · Luettu: 34
Ite huomannut et toi oma 6700k alkaa piiputtaa peleissä jo 1080 ti kanssa. Saa nähdä kuin pöpelikköön menee kun tulee 3080 rinnalle. Varmaan seuraavan genin prossuista sitten päivitystä, ellei joku pistä omaa 3900x hyvään hintaan ni nappaan sellasen
 
Ite huomannut et toi oma 6700k alkaa piiputtaa peleissä jo 1080 ti kanssa. Saa nähdä kuin pöpelikköön menee kun tulee 3080 rinnalle. Varmaan seuraavan genin prossuista sitten päivitystä, ellei joku pistä omaa 3900x hyvään hintaan ni nappaan sellasen
6700k on piiputtanut jo pitkään. Aikanaan kun heitin 8700k tilalle niin ero oli kuin yö ja päivä. %percentile low:ssa järkyttävä ero.
 
Lievää offtopic, mutta tässä on nyt lähipiirissä kolmella tyypillä(myös itsellä) alkanut tuollainen kaatuilu työpöydälle eri korteilla 2vk aikana(980ti, 2080ti) jos kellotaajuudet nousee "liian korkealle". Itse miettinyt syylliseksi nvidian ajureita ja jotain windowsin päivitystä, ei olis eka kerta. Pelit/benchit siis paukauttaa työpöydälle vaan yhtäkkiä kesken rasituksen, korjautuu kun alikellottaa näytönohjainta(core).

Tossahan siis ainakin ennen kävi niin, että ruutu välähtää mustaksi vähäksi aikaa, nvidian ajurit nollautuu, windows valittaa näyttiksestä jotain ja hommat jatkuu(jos siis ns. liikaa kelloa). Nyt tuota ei enää tapahdu vaan ohjelmat vaan kaatuu työpöydälle suoraan.
 

Statistiikka

Viestiketjuista
258 156
Viestejä
4 485 424
Jäsenet
74 176
Uusin jäsen
Nahkapaska

Hinta.fi

Back
Ylös Bottom