NVIDIA GeForce RTX 3080 / 3080 Ti / 3090 -ketju (GA102)

  • Keskustelun aloittaja Keskustelun aloittaja Kaotik
  • Aloitettu Aloitettu
Tuo lukema kertoo vain konkan kapasitanssin. Eli sen miten paljon kondensaattori pystyy varastoimaan energiaa.
Pienemmällä kapasitanssilla varustetut kondensaattorit on halvempia ja mm. siksi niitä käytetään jos ei nähdä tarpeelliseksi isompia laittaa...

Esim. noissa keraamisissa SMD kondensaattoreissaa (MLCC) 47µF on huomattavasti kalliimpi per µF kuin pienemmät. (Itse en noiden hintoja ole seurannut, mutta Buildzoid noiden hinnoista kertoi videossaan...)
10x47µF MLCC ryppäällä saadaan sama kapasitanssi kuin 1x470µF SP-CAP kondensaattorilla, mutta impedanssi ja ESR on paremmat kuin SP-CAP kondensaattorilla.

Nvidian FE:ssä ja Asuksen korteissa nuo on todennäköisesti juurikin 47µF MLCC kondensaattoreita.
Paljonko vielä maksaa enemmä latoo 60 konkkaa vs 6 konkkaa.
 
Paljonko vielä maksaa enemmä latoo 60 konkkaa vs 6 konkkaa.

Tuskin niin paljon enemmän edes aikana, että sillä on oikeastaan väliä. Sitä käytetään mikä parhaaks nähdään. MLCC omat hyvät jutut ja SP-CAP omat hyvät jutut. Voit myös ajatella että se on 60 kohtaa mistä se kortti voi mennä paskaks versus 6 kestävää kohtaa.

Loputon suo vertailla noita. Ehkä parempi vaan kattoo sitä, että toimiiko kortti vai ei.
 
Mielenkiintoista, tuostahan se voisi osittain johtua? Tässä MSI trion perus kaava, näyttäisi menevän karvan yli 2ghz, mitenköhän tuo sopeutuu kun tälläkin oon käyny siinä 2115mhz ilman kaatumatta
Pamahtiko yli 2,1GHz ihan vakiona, vai pitikö AB:sta antaa pikkasen Corelle plussaa?

@pagus Sullahan oli kanssa 3080 Gaming OC? Jos viitit tsekata onko sullakin saman näkönen voltagekäyrä Afterburnerissa, jos vielä kehtaat päälle tsekata biosversion jos näyttää erilaiselta. Ihan vaan mielenkiinnon vuoks onko tässä välissä tapahtunu jotain, sullehhan lähti heti ekasta erästä, kun taas ite sain tokasta. :think:
 
Pamahtiko yli 2,1GHz ihan vakiona, vai pitikö AB:sta antaa pikkasen Corelle plussaa?

@pagus Sullahan oli kanssa 3080 Gaming OC? Jos viitit tsekata onko sullakin saman näkönen voltagekäyrä Afterburnerissa, jos vielä kehtaat päälle tsekata biosversion jos näyttää erilaiselta. Ihan vaan mielenkiinnon vuoks onko tässä välissä tapahtunu jotain, sullehhan lähti heti ekasta erästä, kun taas ite sain tokasta. :think:
+100 oli core clockkia ja 102% power limit ja 75% core voltage, en tiiä miten vaikuttaa mutta ei ollut vakaa kun oli core voltage 100% :tup: toikin lopulta sit kaatu myöhemmin kun pamahti randomisti 2150mhz
E: Vakiona menee suunillee siihen 2050mhz ihan max
 
+100 oli core clockkia ja 102% power limit ja 75% core voltage, en tiiä miten vaikuttaa mutta ei ollut vakaa kun oli core voltage 100% :tup: toikin lopulta sit kaatu myöhemmin kun pamahti randomisti 2150mhz
No sithän toi käyrä sunkin kohdalla vaikuttaa ihan uskottavalta. Ihan mielenkiintonen keissi, ei mulla tosiaan kun jotain 1965-1980Mhz oo maksimissaan boostaillu, ja käyrästä katottuna siel on ollu jotain käryä et 2GHz ja siitä eteenpäin alkaa ongelmat.

Joku Afterburnerilla enemmänkin leikkiny vois valaista sit seuraavasta. Mullahan on tosiaan se 370w TDP vakiona tässä kortissa, mutta GPU-Z mukaan max 340w nurkilla on aina ollu power draw. TDP siis jotain öööh, 92% max? Vajaa se kuitenkin on, mutta kysymys enemmänkin on se et rajottaako toi voltage curve sitten noita kulkuhaluja? GPU-Z kertoo mitä lystää aina perfcapiks, millon PWR ja millon sit VREL. VREL kyllä pikasella googletuksella kertois et se on just se mikä kanittaa, eli sillä jännitteellä ei oo suunniteltu boostaavan korkeammalle niin jää siihen sit :think:

Noh, oli miten oli, mutta käyrästä päätellen Gigabytellä on haisteltu jotain sen suhteen ettei lapun kannata antaa boostailla 2GHz omin päin. Selittää kanssa sitä et miks Gigabytestä puhutaan vakaana nykyhetkellä, mikäli kaikki kortit on varustettu samanlaisella voltage curvella. Paha mennä sinne epästabiilille kellotaajuudelle vakiona, jos ollaan erikseen määritelty et sinne ei boostata.
 
No sithän toi käyrä sunkin kohdalla vaikuttaa ihan uskottavalta. Ihan mielenkiintonen keissi, ei mulla tosiaan kun jotain 1965-1980Mhz oo maksimissaan boostaillu, ja käyrästä katottuna siel on ollu jotain käryä et 2GHz ja siitä eteenpäin alkaa ongelmat.

Joku Afterburnerilla enemmänkin leikkiny vois valaista sit seuraavasta. Mullahan on tosiaan se 370w TDP vakiona tässä kortissa, mutta GPU-Z mukaan max 340w nurkilla on aina ollu power draw. TDP siis jotain öööh, 92% max? Vajaa se kuitenkin on, mutta kysymys enemmänkin on se et rajottaako toi voltage curve sitten noita kulkuhaluja? GPU-Z kertoo mitä lystää aina perfcapiks, millon PWR ja millon sit VREL. VREL kyllä pikasella googletuksella kertois et se on just se mikä kanittaa, eli sillä jännitteellä ei oo suunniteltu boostaavan korkeammalle niin jää siihen sit :think:

Noh, oli miten oli, mutta käyrästä päätellen Gigabytellä on haisteltu jotain sen suhteen ettei lapun kannata antaa boostailla 2GHz omin päin. Selittää kanssa sitä et miks Gigabytestä puhutaan vakaana nykyhetkellä, mikäli kaikki kortit on varustettu samanlaisella voltage curvella. Paha mennä sinne epästabiilille kellotaajuudelle vakiona, jos ollaan erikseen määritelty et sinne ei boostata.
Kumpi kortin BIOS sulla on käytössä, kun ilmeisesti OC:lla on tuo 370W limit ja Silent sitten 345W:

Näytönohjaimesta löytyy kytkin, josta voi valita käyttöön OC- tai Silent-tilan. Vakiona käytössä on OC-tila, jolloin grafiikkapiiri toimi 3D-rasituksessa 66-asteisena. Quiet-tilassa näytönohjain oli desibelin hiljaisempi, mutta lämpötila nousi kuudella asteella 72 asteeseen.
Lisäksi näytönohjaimen Power Limit -tehonkulutusrajoitus laski 370 watista 345 wattiin ja Boost-kellotaajuus 1800 MHz:stä 1770 MHz:iin, mutta suorituskyky ei käytännössä laskenut oikeastaan lainkaan.

 
Mä en vaa tiedä mikä ihme on kun gpu usage jää laahaa alle 100% kun pelailee nykysellä 1080p 240hz näytöllä. Ekana päivänä toimi hyvin. Warzonessakin vertailin jonku youtube videota samoilla asetuksilla suht samoilla osilla nii tasasen 250 - 270 fps tällä hepulla jja mulla 220fps parhaimmilla ja droppaa välillä 140 fps tienoille. Isommalla resolla sitten käyttää kunnolla näyttistä mutta jonku ny tuntuu hannaavan jossain.
 
Kumpi kortin BIOS sulla on käytössä, kun ilmeisesti OC:lla on tuo 370W limit ja Silent sitten 345W:

Näytönohjaimesta löytyy kytkin, josta voi valita käyttöön OC- tai Silent-tilan. Vakiona käytössä on OC-tila, jolloin grafiikkapiiri toimi 3D-rasituksessa 66-asteisena. Quiet-tilassa näytönohjain oli desibelin hiljaisempi, mutta lämpötila nousi kuudella asteella 72 asteeseen.
Lisäksi näytönohjaimen Power Limit -tehonkulutusrajoitus laski 370 watista 345 wattiin ja Boost-kellotaajuus 1800 MHz:stä 1770 MHz:iin, mutta suorituskyky ei käytännössä laskenut oikeastaan lainkaan.

OC, silenttia en oo kokeillutkaan. Eihän se muutenkaan raportois 340w virrankäyttöä n. 92-94% kokonais TDP:stä jos se TDP olis 345w. Itekkin kyllä aluks arvelin samaa syyks, mutta kytkin on ainakin OC puolella. Ois ainakin toi powerdraw sopinu muottiin.
 
Itsekin tässä Trioa lämmittelen ja kovasti haluais lisää virtaa... Pwr cappia huutelee. Vain volttia ja powerlimittia nostettu + fan curve.
 

Liitteet

  • Capture.JPG
    Capture.JPG
    297,6 KB · Luettu: 197
Mä en vaa tiedä mikä ihme on kun gpu usage jää laahaa alle 100% kun pelailee nykysellä 1080p 240hz näytöllä. Ekana päivänä toimi hyvin. Warzonessakin vertailin jonku youtube videota samoilla asetuksilla suht samoilla osilla nii tasasen 250 - 270 fps tällä hepulla jja mulla 220fps parhaimmilla ja droppaa välillä 140 fps tienoille. Isommalla resolla sitten käyttää kunnolla näyttistä mutta jonku ny tuntuu hannaavan jossain.
Prossu ilmeisesti jää pullonkaulaksi tuolla resoluutiolla, jos kerta näytönohjain jää selkeästi alle 100%. Mitä se prosessorin käyttöaste sanoo tuossa tilanteessa? Jos 100%, niin asia on sillä selvä.

OC, silenttia en oo kokeillutkaan. Eihän se muutenkaan raportois 340w virrankäyttöä n. 92-94% kokonais TDP:stä jos se TDP olis 345w. Itekkin kyllä aluks arvelin samaa syyks, mutta kytkin on ainakin OC puolella. Ois ainakin toi powerdraw sopinu muottiin.
Ehkä tuota nyt jollain Furmarkilla voisi vielä testata, että mihin asti se kulutus nousee. Ehkä vain testaamasi kuorma ei ole vaatinut täysin tuota 370W tai hakkaa esim. jännitelimittiin.

Itsekin tässä Trioa lämmittelen ja kovasti haluais lisää virtaa... Pwr cappia huutelee. Vain volttia ja powerlimittia nostettu + fan curve.
Powerlimittiä "saa lisää" kellottamalla curven avulla, eli samat tai isommat kellot, mutta jännitteen säätää tuota 1,025V pienemmälle.
 
Pieni 50 MHz kellotus ja kortti (Gigabyte RTX 3090 Gaming OC) ei ole enää vakaa. Ihan tappiin on kellotettu tämä jo tehtaalla. Menee ilmeisesti kyllä yli 2000 MHz, mutta ei paljon.
 
Prossu ilmeisesti jää pullonkaulaksi tuolla resoluutiolla, jos kerta näytönohjain jää selkeästi alle 100%. Mitä se prosessorin käyttöaste sanoo tuossa tilanteessa? Jos 100%, niin asia on sillä selvä.
Sigun kokoonpano eli 9900k mennään joka kellotettu 5.0Ggz. siinäpä se on kun prossun käyttöaste ei huitele lähellekää 100%. Jossain 60 - 70% about ja ei mikään yksittäinen ydin käy myöskään täysillä. Mun vanhalla 2080s oli tasasempi fps. Ekana päivänä kun kortti oli kiinni toimi paremmin. Sama ilmiö on myös havaittavissa Forza Horizon 4
 
Sigun kokoonpano eli 9900k mennään joka kellotettu 5.0Ggz. siinäpä se on kun prossun käyttöaste ei huitele lähellekää 100%. Jossain 60 - 70% about ja ei mikään yksittäinen ydin käy myöskään täysillä. Mun vanhalla 2080s oli tasasempi fps. Ekana päivänä kun kortti oli kiinni toimi paremmin. Sama ilmiö on myös havaittavissa Forza Horizon 4
Onko kortille kelloja laitettu? Nämä uudet 6X muistit kun alkavat jarruttamaan menoa ennen kuin kaatavat pelin / alkavat näyttämään artifakteja (edit: 500-750MHz kellotus muisteille pitäisi olla turvallisissa rajoissa):
 
Nvidialla tuntuu menevän joka kerta tämä päin helvettiä. 2080 julkasussa oli muistit, tässä julkaisussa konkat. :cigar:

Ei ollu muisteissa mitään ongelmia. Kortin suunnittelussa kylläkin joka aiheutti sitten sen että piirilevy kun taipuili niin muistipiirit alkoi irtoilla joka sitten aiheutti Space Invaders efektin.
Eli lopetetaanko nyt se muistivalmistajan parjaaminen, Microniahan tästä on sormella osoteltu. Niitä space invaders kortteja oli myös samsungin muisteilla.
Joten aino jota kannattaa asian tiimoilta osoitella sormella on nvidia joka tunaroi piirilevyn suunnittelun.
RTX Titania on esim. maailmalla jossa on liimaa vedetty muistipiirien ja piirilevyn liitoksiin lisävahvistukseksi. Igors Lab sivustolta voi lukea aiheesta lisää, siellä myös kuvia liimailuista.
 
"Mies meni lääkäriin valitti, että käteen sattuu kun sen nostaa ylös. Tähän lääkäri vastasi: no älä sitten nosta ylös jos kerta sattuu."

Ei tuo kellojen laskeminen korjaa sitä ongelman ydintä millään tapaa. Tässä nyt saman hintahaarukan eri mallien omistajat eriarvoistuu aikalailla.

edit: viilattu vähän muotoilua.
"Mies meni lääkäriin valitti, miten käteen sattuu kun kurkoittaa kädellään viimeistä paria senttiä. Tähän lääkäri vastasi: no älä sitten kuroita sitä viimeistä paria senttiä."
 
Onko kortille kelloja laitettu? Nämä uudet 6X muistit kun alkavat jarruttamaan menoa ennen kuin kaatavat pelin / alkavat näyttämään artifakteja (edit: 500-750MHz kellotus muisteille pitäisi olla turvallisissa rajoissa):
Ainoastaan powerlimit nostettu tappiin. Ei ole muuta tehty kortille.
 
e66f7ca520e9323e92dc52a4a26f22a3.png


Kuvassa AB poimittu vakio voltage curve. Onko tää kuinka tarkka? Kuvan mukaan tää kortti olis rajattu karvan alle 2GHz ihan sama minkälainen tilanne :think:
3080 FE vakiocurve näyttää tältä:

defaultcurve.PNG


Maksimi tossa käyrällä on 2085 MHz.

Battlefield V:tä just pelailin joka on kevyt ja täysin CPU-pullonkaulassa ja siinä 2GHz tuntumassa pyöri kellot, maksimipiikki näyttää olleen 2055 MHz . Eipä ole pelit vakiokäyrällä kaatuilleet.
 
Mielenkiintoista, tuostahan se voisi osittain johtua? Tässä MSI trion perus kaava, näyttäisi menevän karvan yli 2ghz, mitenköhän tuo sopeutuu kun tälläkin oon käyny siinä 2115mhz ilman kaatumatta
Eaglen stock-käyrä näyttää aika samalta.

vf.png
 
Taisi käydä siis meikäläisellä melkoinen lotto kun 3080 arvonnasta päätin ostaa Asuksen TUF Gaming version? Mikäli noita kaatumisuutisia ymmärsin oikein
 
Ainoastaan powerlimit nostettu tappiin. Ei ole muuta tehty kortille.
Eipä tuohon sitten muuta osaa oikein neuvoksi antaa kuin DDU:lla ajureiden puhdistus ja uudelleen asennus. Windows päivitetty tuoreimpaan 2004 versioon?

3080 FE vakiocurve näyttää tältä:

defaultcurve.PNG


Maksimi tossa käyrällä on 2085 MHz.

Battlefield V:tä just pelailin joka on kevyt ja täysin CPU-pullonkaulassa ja siinä 2GHz tuntumassa pyöri kellot, maksimipiikki näyttää olleen 2055 MHz . Eipä ole pelit vakiokäyrällä kaatuilleet.
Hurjat on kyllä voltit tuossa viimeisessä stepissä, jos jotain 1,143V ja 2085MHz. Ei muuta kuin alivoltittamaan :tup:
 
Eipä tuohon sitten muuta osaa oikein neuvoksi antaa kuin DDU:lla ajureiden puhdistus ja uudelleen asennus. Windows päivitetty tuoreimpaan 2004 versioon?


Hurjat on kyllä voltit tuossa viimeisessä stepissä, jos jotain 1,143V ja 2085MHz. Ei muuta kuin alivoltittamaan :tup:
Tänää asentelin windows uudestaa eikä auttanu ja ddu kans toisee kertaa ajurit
 
Hurjat on kyllä voltit tuossa viimeisessä stepissä, jos jotain 1,143V ja 2085MHz. Ei muuta kuin alivoltittamaan :tup:
eihän noi koskaan tuonne vikaan steppiin mene nvidian korteilla? Että onkos nyt jotkut maksimit jotai 1,05V vaimitälie ennen ollut, vaikka kortti näyttää käyrää yli. Voi korjata toki jos olen väärässä.
 
Ei ollu muisteissa mitään ongelmia. Kortin suunnittelussa kylläkin joka aiheutti sitten sen että piirilevy kun taipuili niin muistipiirit alkoi irtoilla joka sitten aiheutti Space Invaders efektin.
Eli lopetetaanko nyt se muistivalmistajan parjaaminen, Microniahan tästä on sormella osoteltu. Niitä space invaders kortteja oli myös samsungin muisteilla.
Joten aino jota kannattaa asian tiimoilta osoitella sormella on nvidia joka tunaroi piirilevyn suunnittelun.
RTX Titania on esim. maailmalla jossa on liimaa vedetty muistipiirien ja piirilevyn liitoksiin lisävahvistukseksi. Igors Lab sivustolta voi lukea aiheesta lisää, siellä myös kuvia liimailuista.
Miks se vaihtu sitten samsungiin?
 
Hurjat on kyllä voltit tuossa viimeisessä stepissä, jos jotain 1,143V ja 2085MHz. Ei muuta kuin alivoltittamaan :tup:
eihän noi koskaan tuonne vikaan steppiin mene nvidian korteilla? Että onkos nyt jotkut maksimit jotai 1,05V vaimitälie ennen ollut, vaikka kortti näyttää käyrää yli. Voi korjata toki jos olen väärässä.
1,081V maksimit mitä oon nähnyt, tosin en kyllä kamalasti ole tarkkaillut. Tähän mennessä testaamissani peleissä ollaan power limitissä jo kauan ennen tommosia jännitteitä. Esim. Q2RTX hörppää sen 320W jollain ~0,85V:lla. :D
 
eihän noi koskaan tuonne vikaan steppiin mene nvidian korteilla? Että onkos nyt jotkut maksimit jotai 1,05V vaimitälie ennen ollut, vaikka kortti näyttää käyrää yli. Voi korjata toki jos olen väärässä.
Käyrä kun kerta on noin vedetty, niin teoriassahan se kortti saa tuon tempun tehdä esim. piikkinä heti peliä käynnistäessä.
Hetki kuitenkin aikaa siitä, kun omat kortit (1080Ti ja 2080S) ovat olleet viimeksi vakiokäyrällä, niin suositukseni onkin, että säätää tuon käyrän vaikkapa 2050MHz ja 1,050V tasolle, jos ei jaksa tarkkaa alivoltitusta tehdä.
 
Käyrä kun kerta on noin vedetty, niin teoriassahan se kortti saa tuon tempun tehdä esim. piikkinä heti peliä käynnistäessä.
Hetki kuitenkin aikaa siitä, kun omat kortit (1080Ti ja 2080S) ovat olleet viimeksi vakiokäyrällä, niin suositukseni onkin, että säätää tuon käyrän vaikkapa 2050MHz ja 1,050V tasolle, jos ei jaksa tarkkaa alivoltitusta tehdä.
Juu siis itelläkin tähtäimessä joku 0,85-0,95V alivoltitus tehdä, kun tuolla alueella vissiin paras teho/suorituskyky suhde :tup:
 
Ei tosiaan tuo 3090 näytä ole Titan korvaaja jos on noita Tensor Coreja tarkoituksella rajoitettu, että koneoppimisen puolella ihmiset ostaisi Quadroa ja Teslaa..


Laskenta ominaisuudet ovat olleet Titan korteissa rajoitettu jo pitkään.
 

Redditin puolella hyvä teksti poscap vs. mlcc asiassa. Itse en mikään insinööri ole mutta meinaa kyllä mennä tunteisiin ku igorin ja jayn videoitten julkamisen jälkeen ei montaa minuuttia mennyt että siellä yhteen ääneen oli päätetty että poscap = paskaa ja mlcc =parasta ikinä, ja tier-listat valmistajista oli jo valmiina. Täälläkin keskusteluissa huudeltu samaa. Kuinkakohan moni näiden juttujen takia perui esim gigabyten tilauksensa ja joutui jonon hännille taas? :)
 
Miks se vaihtu sitten samsungiin?

Ei se mihinkään samsungiin vaihtunut. Micronilla oli nvidian kanssa diili että alkuun kuukauden verran tai jotain kortit tuli ainoastaan micronin piireillä, yksinoikeudella siis. Sen takia se space invaders keissi on ylikorostunut micronin piireillä koska niitä kortteja oli micronin piireillä yksinkertaisesti enemmän. Ja kuten jo aiemmassa viestissä sanoin, niin täysin samaa space invaders ongelmaa esiintyi vielä silloinkin kun myös samsungin piirejä alettiin kortteihin laittaa.


 
Noniin, kortti (FE) on nyt avattu muutaman kerran.

Ajattelin mennä all-in ja kokeilin nestemäistä metallia. Sen tuomien riskien takia suojasin GPU:n ympärillä olevat pikkuiset vastusrivistöt normitahnalla.
Piirilevy oli jo kiristetty paikalleen, kun huomasin yhden johdon jääneen sinne alle. No eikun auki ja metallilitkut tietenkin täysin pielessä.
No uusi yritys, kortti kasaan ja Afterburner+Furmark pyörimään. Jostain syystä kortti hakkasi koko ajan temp limittiä vasten, vaikka mitä olisi tehnyt. Ehkä ne GPU:n viereiset vastukset eivät tykänneet tahnoista ja/tai nestemäinen metalli pääsi sittenkin tekemään hallaa.

Kortti auki taas ja perusteellinen puhdistus metalleista ja kaikesta muustakin. Nyt normitahnalla (tai jotain testivoittajaa se oli muutaman vuoden takaa) kasaan ja pienenpienet määrät myös auttamaan litistyneitä lämpötyynyjä.
Aika tarkkaan samaksi palautui kortti. Ehkä pientä parannusta lämpötiloissa kuormituksen alla. Nyt se on taas power limittiä vasten niinkuin pitääkin. Vanhat muistot verestyivät tässäkin projektissa, kun alkoi muistamaan syy-seuraussuhteita.

Kyllä tämä vesille menee kun blokit ilmestyy., on vaan semmoinen kiuas kyseessä.
 
Näitä kondensaattorimutuiluja on aika itkettävä lukea.

Mlcc stäkit on aivan yhtä kykeneviä kuin muut vastaavat low esr/esl viritelmät. Noin elektroniikkasuunnittelun vinkkelistä tässäkin lienee kyse kauhun tasapainosta ja tuohon hakkurin jännitteen vakauteen vaikuttaa aivan kaikki lähtien itse virtalähteen syöttöimpedanssista ja kulkien hakkuriohjaimen takaisinkytkentäloopin komponenttivalinnoista ja siitä miten se looppi on viritetty + LLC ja kumppanit.

Sokkona yksittäisten komponenttien syyttely on aika hedelmätöntä...
 


Rupes kyllä itteäkin vähän oksettamaan toi kommenttikentän meininki. Lähteny ihan lapasesta koko touhu, varsinkin kun todellisuudessa kukaan ei oikeastaan tiedä mitään. Ja joo, se aiemmin huhuiltu Gigabyten 470 nopat pitää videon perusteella paikkansa molemmissa korteissa. Mitä väliä sillä on? Kukaan ei tiedä.

Taidan lopettaa asian ihmettelemisen tähän. Palataan astialle sit jos tulee virallista lausuntoa, tai kortissa on häikkää. Siihen asti kovaa ajoa.
 
Ei kai Asus sokkona vaihtanut esituotannossa 6xSP-CAP konfiguraatiota 60xMLCC konfiguraatioon?
Jos EVGA:n viikon R&D:n tulos oli vaihtaa 6xSP -> 4xSP + 20xMLCC, jonka vuoksi korttien kauppoihin saaminen myöhästyi, niin ehkä Asus on vain hieman oikonut mutkia ja todennut koko stäkin vaihtamalla toimivan stabiilisti ja pistänyt kauppoihin.
Tässä kohtaa vielä hankala sanoa onko joku tietty konfiguraatio se paras.

Edit: Kuva vielä noista eri konfiguraatioista, jossa esim Nvidian omassa on 20xMLCC, 2x470 SP ja 2x220 SP.
Zotacilla ei ole edes juotospadeja tai tilaa noille MLCC:eille, joten jos tuotantoon tulee muutoksia, niin koko piirilevy varmaan menee uusiksi.
Ei0d2VuU0AA5gBV (1).jpg
 
Eikai nyt melkeen tonnin korttien valmistajien tarttisi konkissa pihistellä vaan kyllä siinä on varmasti muitakin syitä taustalla.
Jos missä tahansa komponentissa pystyy säästämään vaikka aivan minimalistisen summan rahaa, niin se säästetään.
Vahvistimissa esimerkiksi voi kytkennät käydä läpi useampi insinjörtti, jotta varmasti saadaan kaikki "turha" karsittua pois.
Ja tämä näkyy jopa vähän kalliimmillakin valmistajilla. On nimittäin jälkikäteen huomattu, että vaikkapa vastukset on lämmönkestoltaan pistetty aivan alakanttiin.
Ja seurauksena juotokset sulaneet ja piirilevyt palaneet lämmön takia.
Yllättäen seuraavassa revisiossa on parempikestoiset komponentit ja/tai jäähdytyssiilit yms.

Parin komponentin sentin säästö on loppupeleissä iso raha, jos mitä tahansa jauhetaan markkinoille kymmeniä-/satojatuhansia kappaleita. Ja kaikki se sataa valmistajan taskuun...
Pilvilinnoissa on kiva elää, mutta totuus on aika pirun paljon karumpaa ;)
 
Ei kai Asus sokkona vaihtanut esituotannossa 6xSP-CAP konfiguraatiota 60xMLCC konfiguraatioon?
Vaan kukapa tietää onko se ainut muutos. Tai jos asus on todennut että pienin kustannus on palauttaa kortti sellaiseksi kuin se oli suunnittelijan mielestä hyvä eikä pavunlaskijan mielestä hyvä.
 
Välillä muutakin kuin konkkajuttuja:

MSI triolle ei näytä vesiblokkia tulevan?
Pitää vissiin laittaa toinenkin 3080 tilaukseen, et saa vesille. Aika hyvin lämmittää koppaa tämä 3080.
Taisi lopunki kiinnostus 3090 kohtaan lopahtaa tuon 10-15% tehonlisäyksen kanssa..

Alphacoolin MSI Trio -blokki tilattavissa. Myös TUFfille ja Strixille tuli blokit myyntiin.
MSI Trio
TUF
Strix
 
Menee n. sentin yli tuo TUF-blokki, että ei mahdu koteloon :sad: . No refua vaan sit vaikka olisihan tuo tuf kelvannu:rolleyes:
 
Välillä muutakin kuin konkkajuttuja:



Alphacoolin MSI Trio -blokki tilattavissa. Myös TUFfille ja Strixille tuli blokit myyntiin.
MSI Trio
TUF
Strix

Tää olikin hyvä uutinen :thumbsup: Ei mielestäni pahan hintainen tuo kun kerta vielä mukaan tulee backplate. Tuohan on nickelöityä cuparia, no joo, eiköhän se ihan hyvä ole... Tuffin tietoja kattelin.

Sopivuus siis taattu oc ja non oc 3090/3080:selle. Tulis nyt vaan sit jo jompi kumpi näyttis, odottavan aika on tuuuurhan pitkä :D
 
Ei mielestäni pahan hintainen tuo kun kerta vielä mukaan tulee backplate. Tuohan on nickelöityä cuparia, no joo, eiköhän se ihan hyvä ole... Tuffin tietoja kattelin.

Joo nämähän ovat puoli-ilmaisia EKWB:n yli 200e blokki + backplate -hintoihin verrattuna :kahvi: Alphacoolin kamat on ihan laadukkaita, ei pitäisi sen puoleen olla huolta. Vaikka kama tulee Kiinasta, se ei tietääkseni ole alihankittua skeidaa, vaan heillä on oma tehdas. Toki EK:n made in EU -leima houkuttelee, mut hintalappukin on sen mukainen.
 
Itselle on tullut vähän semmoinen fiilis, että ainakin osa 3080 ja 3090 kaatumisista johtuu siitä, että jo valmiiksi kellotettuun koneeseen laitetaan nopeampi näyttis, joka rasittaa enemmän muistia ja prossua, jotka sitten kaatuvat uudella näyttiksellä, vaikka ennen toimivat ongelmitta.

Lisäksi ongelmia voi tulla vanhoista nyykähtävistä powereista.

Onhan nämä nykynäyttikset menneet semmoisiksi, ettei ns kellotusvaraa ole oikein ollenkaan, mutta luulisin suurien valmistajien testaavan tuotteensa sen verran hyvin, ettei mitään isompia mokia pitäisi päästä tehtaalta ulos.

Itse ainakin odottelen rauhassa, että miten konkkagate edistyy. Tottakai osassa näyttiksista on oikeitakin ongelmia, niin on aina ollut.
 
Jos missä tahansa komponentissa pystyy säästämään vaikka aivan minimalistisen summan rahaa, niin se säästetään.
Vahvistimissa esimerkiksi voi kytkennät käydä läpi useampi insinjörtti, jotta varmasti saadaan kaikki "turha" karsittua pois.
Ja tämä näkyy jopa vähän kalliimmillakin valmistajilla. On nimittäin jälkikäteen huomattu, että vaikkapa vastukset on lämmönkestoltaan pistetty aivan alakanttiin.
Ja seurauksena juotokset sulaneet ja piirilevyt palaneet lämmön takia.
Yllättäen seuraavassa revisiossa on parempikestoiset komponentit ja/tai jäähdytyssiilit yms.

Parin komponentin sentin säästö on loppupeleissä iso raha, jos mitä tahansa jauhetaan markkinoille kymmeniä-/satojatuhansia kappaleita. Ja kaikki se sataa valmistajan taskuun...
Pilvilinnoissa on kiva elää, mutta totuus on aika pirun paljon karumpaa ;)

Aika kyyninen näkemys ja varmaan joissain tapauksissa ihan tottakin, mutta uskoisin, että näytönohjainvalmistajat ovat oppineet sen verran matkan varrella, että eivät sorru näihin virheisiin enää. Eiköhän sielllä ole yritetty tehdä pääasiassa vaan toimivaa kamaa aikapaineen alla. Ei pidä aliarvioida noita firmoja, kyllä ne tajuaa huonon julkisuuden ja korttien palautuksista aiheituvien kustannusten koon. Puhumattakaan sitten jos pitää vielä uudelleen suunnitella korttia. Voluumit on toki isoja, mutta niin sitten palautustenkin koko, jos menee persiilleen.

Fiksu firma tekee alkuun vähän yläkanttiin ja karsii vasta seuraavissa erissä testien kautta turhat kamat pois.
 
Viimeksi muokattu:
Eikös näissä kahdessa erimallisessa konkassa juurikin ole se, että toinen on äänekäs matalilla hertseillä ja toinen taas korkeilla. Eli ei niinkään välttämättä säästämisestä kiinni? Ja mitä näihin miksi ei ole testattu niin eikö nvidia toimita aib valmistajille ajurit melko myöhään, että ei välttämättä keretä testaamaan. Ja juurikin nuo taajuudet voi vaikuttaa vähän kuin kajareihinkin (poimii häiriösignaalia ja suhisee, rätisee jne.). Joillain voi olla rgb:tä koko koppa täynnä joka aiheuttaa ääntä ja kaataa järjestelmää kun jollain on täysin valaisematon ja kokoonpano toimii hienosti.

En itse näin maallikkona ymmärrä sähköstä juuri mitään, mutta tässä on jotain omaa ajattelua. Toki saa korjata mikäli oon väärässä. Kokoonpanoja on niin helvetisti erilaisia, ettei kaikilla voi toimia juuri samallalailla eikä varmasti ole täysin kahta samanlaista näyttistäkään.
 
Eikös näissä kahdessa erimallisessa konkassa juurikin ole se, että toinen on äänekäs matalilla hertseillä ja toinen taas korkeilla. Eli ei niinkään välttämättä säästämisestä kiinni?
Tuskin niillä on säästämisestä kyse, poscapit ovat luultavasti parempia kuluttajille jos ne olis vähemmän virtaa kuluttava kortti missä hz pysyy alle 2k.
Nvidian vika että eivät saaneet aikaa QC niitä ja ainoastaan pari tekijää keksi mikä niissä on ongelma ja olivat valmiina julkaisemaan kortit myöhemmin. Ongelmana QC kanssa on että jokainen peli ei crashaa joka tilanteessa, sitten ihmiset miettii että onko se pelin vika vai kortin.
 
Maallikkona mutuilen että mitä enemmän näytönohjain syö sähköä, sitä enemmän sillä on taipumusta kaikenmaailman sivuääniin itkevinä konkkina ja sen sellaisina?

Aikaisempina vuosina ei yli 250W juuri ole tainneet näytönohjaimet kuluttaa, nyt RTX 3000 sarja rikkoo tuon maagisen rajapyykin reilusti yli 300W kulutuksella.

Itse olen yllättynyt että revikoissa ei ole juuri kritisoitu tuota noussutta sähkönkulutusta. Riittää että jäähdytyksen meteli pysyy aisoissa ja on riittävä.
 
Löin Gigabyten 3090 Gaming OC:n tuulettimet täysille ja katsoin buustaako yli 2 GHz. Kyllä mutta vain vaivaiset 10 MHz eli 2010 MHz. Ihan vakaa sillä, mitä nyt kerkesin testailemaan. Eli ei se tasan 2 GHz ole mikään maaginen raja sinänsä, mutta varsinainen raja on sitä lähellä ja riippuu varmaan vähän myös yksilöstä.

Kun kellotin +50 MHz, niin kortti muuttui jo epävakaaksi. Eli kortti on kellotettu ja testattu aivan rajoille tehtaalla, eikä sille kannata käytännössä tehdä mitään säätöjä.

Tuulettimien ääni 100% oli ihan kohtuu miellyttävä, mutta toki kuuluivat kopan läpi.
 
Viimeksi muokattu:

Statistiikka

Viestiketjuista
283 621
Viestejä
4 873 570
Jäsenet
78 682
Uusin jäsen
Cytotoxic_Warhead

Hinta.fi

Back
Ylös Bottom