• Live: io-techin Tekniikkapodcast tänään perjantaina noin klo 15:05 alkaen. Keskustellaan viikon mielenkiintoisimmista tietotekniikka- ja mobiiliaiheista. Suora lähetys YouTubessa. Tule mukaan katselemaan ja keskustelemaan! Linkki lähetykseen >>

NVIDIA GeForce RTX 3080 / 3080 Ti / 3090 -ketju (GA102)

  • Keskustelun aloittaja Keskustelun aloittaja Kaotik
  • Aloitettu Aloitettu
Mitä haet tällä? Jos luen foorumia jossa ihmiset raportoivat korttiensa kaatuilusta, en saa välittää tietoa eteenpäin etten vahingossa paisuta koko ongelmaa? Miten mielestäsi tietoa saa sitten jakaa?
Haen tällä sitä, että 90% näistä raportoivista ei älyä asioista oikeasti yhtään mitään ja välittävät väärää tietoa, joka ei perustu faktoihin. Mutta kai sitä itsekin voisi tästä mennä redditiin huutelemaan "tietoa" että kaikkien kortit kaatuu yms.
 
Jaa että sellainen viesti. En ole täällä vänkäämässä, enkä ole tehnyt tilastollista analyysia saatika väitöskirjaa aiheesta poscap vs mlcc.

Olen vain välittämässä tietoa siitä, mikä yleinen konsensus juuri nyt on. Minun puolestani vaikka saturnuksen renkaiden värähtelyn muutos saa aiheuttaa ne kaatuilut. Pitäisi olla kaikille selvää, että tilanne elää vielä ja itsekin selostan mikä on yleinen konsensus tilanteesta tällä hetkellä.

Älä haasta minua, vaan mene haastamaan redditiin se enemistö mikä asian näin väittää olevan.
Eli välität täällä "tietoa", joka vastaa näkemyksesi mukaan jotain "yleistä konsensusta" redditissä, tietämättä yhtään sen enempää mihin olettamasi yleinen konsensus edes perustuu? Huhujen päälle rakennettujen huhujen välittämistä oman konsensusmutuilun pohjalta faktana...

Mitä haet tällä? Jos luen foorumia jossa ihmiset raportoivat korttiensa kaatuilusta, en saa välittää tietoa eteenpäin etten vahingossa paisuta koko ongelmaa? Miten mielestäsi tietoa saa sitten jakaa?
Ongelma on siinä, että 1) syyt kaatuilulle eivät ole selvät case by case 2) et välitä _tietoa_ eteenpäin, vaan välität omaa näkemystäsi kuvittelemastasi konsensuksesta, jonka perusteita et edes omien sanojesi mukaan tiedä.
 
e66f7ca520e9323e92dc52a4a26f22a3.png


Kuvassa AB poimittu vakio voltage curve. Onko tää kuinka tarkka? Kuvan mukaan tää kortti olis rajattu karvan alle 2GHz ihan sama minkälainen tilanne :think:
 
Haen tällä sitä, että 90% näistä raportoivista ei älyä asioista oikeasti yhtään mitään ja välittävät väärää tietoa, joka ei perustu faktoihin. Mutta kai sitä itsekin voisi tästä mennä redditiin huutelemaan "tietoa" että kaikkien kortit kaatuu yms.
Eli välität täällä "tietoa", joka vastaa näkemyksesi mukaan jotain "yleistä konsensusta" redditissä, tietämättä yhtään sen enempää mihin olettamasi yleinen konsensus edes perustuu? Huhujen päälle rakennettujen huhujen välittämistä oman konsensusmutuilun pohjalta faktana...
Eikö nämä langat ole sitä varten, että keskustellaan ja jaetaan tietoa joka on välillä väärää ja välillä oikeaa? Ajan myötä aivopierut korjaantuvat ja faktat jää henkiin. Olen näitä juttuja jakaessani sanonut "yleisen teorian mukaan" ja kuinka en ymmärrä, mutta näin luin. En osannut arvata astuvani kenenkään varpaille tässä.
Ongelma on siinä, että 1) syyt kaatuilulle eivät ole selvät case by case 2) et välitä _tietoa_ eteenpäin, vaan välität omaa näkemystäsi kuvittelemastasi konsensuksesta, jonka perusteita et edes omien sanojesi mukaan tiedä.
En näe siinä ongelmaa jos foorumikirjoittaja välittää omaa tulkintaansa konseksuksesta varsinkin jos sanoo perään ettei tiedä varmaksi asiaa, mutta näin asia näyttää hänelle olevan. Sittenhän siihen perään muut voivat korjata faktoilla taikka tukea faktoilla - ei suuttua ja hyökätä.


Voin olla toki väärässä miten foorumeille kuuluu kirjottaa. Jatketaan vaikka privassa niin ei mene lanka vänkäilyksi. Mielelläni otan rakentavaa palautetta vastaan.
 
Viimeksi muokattu:
En muista luinko täältä vai redditistä, mutta Gigabyten ero on nykyisen teorian ero siinä, että niiden poscapit ovat 470, kun taas Zotac & co käyttää 330 poscappeja. En edes tiedä mitä nuo luvut tarkoittavat, mutta sen ymmärrän, että käytettyjen poscappien väleillä on eroja riippuen valmistajasta.

Tuo lukema kertoo vain konkan kapasitanssin. Eli sen miten paljon kondensaattori pystyy varastoimaan energiaa.
Pienemmällä kapasitanssilla varustetut kondensaattorit on halvempia ja mm. siksi niitä käytetään jos ei nähdä tarpeelliseksi isompia laittaa...

Esim. noissa keraamisissa SMD kondensaattoreissaa (MLCC) 47µF on huomattavasti kalliimpi per µF kuin pienemmät. (Itse en noiden hintoja ole seurannut, mutta Buildzoid noiden hinnoista kertoi videossaan...)
10x47µF MLCC ryppäällä saadaan sama kapasitanssi kuin 1x470µF SP-CAP kondensaattorilla, mutta impedanssi ja ESR on paremmat kuin SP-CAP kondensaattorilla.

Nvidian FE:ssä ja Asuksen korteissa nuo on todennäköisesti juurikin 47µF MLCC kondensaattoreita.
 
e66f7ca520e9323e92dc52a4a26f22a3.png


Kuvassa AB poimittu vakio voltage curve. Onko tää kuinka tarkka? Kuvan mukaan tää kortti olis rajattu karvan alle 2GHz ihan sama minkälainen tilanne :think:

Mielenkiintoista, tuostahan se voisi osittain johtua? Tässä MSI trion perus kaava, näyttäisi menevän karvan yli 2ghz, mitenköhän tuo sopeutuu kun tälläkin oon käyny siinä 2115mhz ilman kaatumatta
 

Liitteet

  • b1aa20b3aae0047d0aac58fca5d7fa15.png
    b1aa20b3aae0047d0aac58fca5d7fa15.png
    18,9 KB · Luettu: 78
Tuo lukema kertoo vain konkan kapasitanssin. Eli sen miten paljon kondensaattori pystyy varastoimaan energiaa.
Pienemmällä kapasitanssilla varustetut kondensaattorit on halvempia ja mm. siksi niitä käytetään jos ei nähdä tarpeelliseksi isompia laittaa...

Esim. noissa keraamisissa SMD kondensaattoreissaa (MLCC) 47µF on huomattavasti kalliimpi per µF kuin pienemmät. (Itse en noiden hintoja ole seurannut, mutta Buildzoid noiden hinnoista kertoi videossaan...)
10x47µF MLCC ryppäällä saadaan sama kapasitanssi kuin 1x470µF SP-CAP kondensaattorilla, mutta impedanssi ja ESR on paremmat kuin SP-CAP kondensaattorilla.

Nvidian FE:ssä ja Asuksen korteissa nuo on todennäköisesti juurikin 47µF MLCC kondensaattoreita.
Paljonko vielä maksaa enemmä latoo 60 konkkaa vs 6 konkkaa.
 
Paljonko vielä maksaa enemmä latoo 60 konkkaa vs 6 konkkaa.

Tuskin niin paljon enemmän edes aikana, että sillä on oikeastaan väliä. Sitä käytetään mikä parhaaks nähdään. MLCC omat hyvät jutut ja SP-CAP omat hyvät jutut. Voit myös ajatella että se on 60 kohtaa mistä se kortti voi mennä paskaks versus 6 kestävää kohtaa.

Loputon suo vertailla noita. Ehkä parempi vaan kattoo sitä, että toimiiko kortti vai ei.
 
Mielenkiintoista, tuostahan se voisi osittain johtua? Tässä MSI trion perus kaava, näyttäisi menevän karvan yli 2ghz, mitenköhän tuo sopeutuu kun tälläkin oon käyny siinä 2115mhz ilman kaatumatta
Pamahtiko yli 2,1GHz ihan vakiona, vai pitikö AB:sta antaa pikkasen Corelle plussaa?

@pagus Sullahan oli kanssa 3080 Gaming OC? Jos viitit tsekata onko sullakin saman näkönen voltagekäyrä Afterburnerissa, jos vielä kehtaat päälle tsekata biosversion jos näyttää erilaiselta. Ihan vaan mielenkiinnon vuoks onko tässä välissä tapahtunu jotain, sullehhan lähti heti ekasta erästä, kun taas ite sain tokasta. :think:
 
Pamahtiko yli 2,1GHz ihan vakiona, vai pitikö AB:sta antaa pikkasen Corelle plussaa?

@pagus Sullahan oli kanssa 3080 Gaming OC? Jos viitit tsekata onko sullakin saman näkönen voltagekäyrä Afterburnerissa, jos vielä kehtaat päälle tsekata biosversion jos näyttää erilaiselta. Ihan vaan mielenkiinnon vuoks onko tässä välissä tapahtunu jotain, sullehhan lähti heti ekasta erästä, kun taas ite sain tokasta. :think:
+100 oli core clockkia ja 102% power limit ja 75% core voltage, en tiiä miten vaikuttaa mutta ei ollut vakaa kun oli core voltage 100% :tup: toikin lopulta sit kaatu myöhemmin kun pamahti randomisti 2150mhz
E: Vakiona menee suunillee siihen 2050mhz ihan max
 
+100 oli core clockkia ja 102% power limit ja 75% core voltage, en tiiä miten vaikuttaa mutta ei ollut vakaa kun oli core voltage 100% :tup: toikin lopulta sit kaatu myöhemmin kun pamahti randomisti 2150mhz
No sithän toi käyrä sunkin kohdalla vaikuttaa ihan uskottavalta. Ihan mielenkiintonen keissi, ei mulla tosiaan kun jotain 1965-1980Mhz oo maksimissaan boostaillu, ja käyrästä katottuna siel on ollu jotain käryä et 2GHz ja siitä eteenpäin alkaa ongelmat.

Joku Afterburnerilla enemmänkin leikkiny vois valaista sit seuraavasta. Mullahan on tosiaan se 370w TDP vakiona tässä kortissa, mutta GPU-Z mukaan max 340w nurkilla on aina ollu power draw. TDP siis jotain öööh, 92% max? Vajaa se kuitenkin on, mutta kysymys enemmänkin on se et rajottaako toi voltage curve sitten noita kulkuhaluja? GPU-Z kertoo mitä lystää aina perfcapiks, millon PWR ja millon sit VREL. VREL kyllä pikasella googletuksella kertois et se on just se mikä kanittaa, eli sillä jännitteellä ei oo suunniteltu boostaavan korkeammalle niin jää siihen sit :think:

Noh, oli miten oli, mutta käyrästä päätellen Gigabytellä on haisteltu jotain sen suhteen ettei lapun kannata antaa boostailla 2GHz omin päin. Selittää kanssa sitä et miks Gigabytestä puhutaan vakaana nykyhetkellä, mikäli kaikki kortit on varustettu samanlaisella voltage curvella. Paha mennä sinne epästabiilille kellotaajuudelle vakiona, jos ollaan erikseen määritelty et sinne ei boostata.
 
No sithän toi käyrä sunkin kohdalla vaikuttaa ihan uskottavalta. Ihan mielenkiintonen keissi, ei mulla tosiaan kun jotain 1965-1980Mhz oo maksimissaan boostaillu, ja käyrästä katottuna siel on ollu jotain käryä et 2GHz ja siitä eteenpäin alkaa ongelmat.

Joku Afterburnerilla enemmänkin leikkiny vois valaista sit seuraavasta. Mullahan on tosiaan se 370w TDP vakiona tässä kortissa, mutta GPU-Z mukaan max 340w nurkilla on aina ollu power draw. TDP siis jotain öööh, 92% max? Vajaa se kuitenkin on, mutta kysymys enemmänkin on se et rajottaako toi voltage curve sitten noita kulkuhaluja? GPU-Z kertoo mitä lystää aina perfcapiks, millon PWR ja millon sit VREL. VREL kyllä pikasella googletuksella kertois et se on just se mikä kanittaa, eli sillä jännitteellä ei oo suunniteltu boostaavan korkeammalle niin jää siihen sit :think:

Noh, oli miten oli, mutta käyrästä päätellen Gigabytellä on haisteltu jotain sen suhteen ettei lapun kannata antaa boostailla 2GHz omin päin. Selittää kanssa sitä et miks Gigabytestä puhutaan vakaana nykyhetkellä, mikäli kaikki kortit on varustettu samanlaisella voltage curvella. Paha mennä sinne epästabiilille kellotaajuudelle vakiona, jos ollaan erikseen määritelty et sinne ei boostata.
Kumpi kortin BIOS sulla on käytössä, kun ilmeisesti OC:lla on tuo 370W limit ja Silent sitten 345W:

Näytönohjaimesta löytyy kytkin, josta voi valita käyttöön OC- tai Silent-tilan. Vakiona käytössä on OC-tila, jolloin grafiikkapiiri toimi 3D-rasituksessa 66-asteisena. Quiet-tilassa näytönohjain oli desibelin hiljaisempi, mutta lämpötila nousi kuudella asteella 72 asteeseen.
Lisäksi näytönohjaimen Power Limit -tehonkulutusrajoitus laski 370 watista 345 wattiin ja Boost-kellotaajuus 1800 MHz:stä 1770 MHz:iin, mutta suorituskyky ei käytännössä laskenut oikeastaan lainkaan.

 
Mä en vaa tiedä mikä ihme on kun gpu usage jää laahaa alle 100% kun pelailee nykysellä 1080p 240hz näytöllä. Ekana päivänä toimi hyvin. Warzonessakin vertailin jonku youtube videota samoilla asetuksilla suht samoilla osilla nii tasasen 250 - 270 fps tällä hepulla jja mulla 220fps parhaimmilla ja droppaa välillä 140 fps tienoille. Isommalla resolla sitten käyttää kunnolla näyttistä mutta jonku ny tuntuu hannaavan jossain.
 
Kumpi kortin BIOS sulla on käytössä, kun ilmeisesti OC:lla on tuo 370W limit ja Silent sitten 345W:

Näytönohjaimesta löytyy kytkin, josta voi valita käyttöön OC- tai Silent-tilan. Vakiona käytössä on OC-tila, jolloin grafiikkapiiri toimi 3D-rasituksessa 66-asteisena. Quiet-tilassa näytönohjain oli desibelin hiljaisempi, mutta lämpötila nousi kuudella asteella 72 asteeseen.
Lisäksi näytönohjaimen Power Limit -tehonkulutusrajoitus laski 370 watista 345 wattiin ja Boost-kellotaajuus 1800 MHz:stä 1770 MHz:iin, mutta suorituskyky ei käytännössä laskenut oikeastaan lainkaan.

OC, silenttia en oo kokeillutkaan. Eihän se muutenkaan raportois 340w virrankäyttöä n. 92-94% kokonais TDP:stä jos se TDP olis 345w. Itekkin kyllä aluks arvelin samaa syyks, mutta kytkin on ainakin OC puolella. Ois ainakin toi powerdraw sopinu muottiin.
 
Itsekin tässä Trioa lämmittelen ja kovasti haluais lisää virtaa... Pwr cappia huutelee. Vain volttia ja powerlimittia nostettu + fan curve.
 

Liitteet

  • Capture.JPG
    Capture.JPG
    297,6 KB · Luettu: 196
Mä en vaa tiedä mikä ihme on kun gpu usage jää laahaa alle 100% kun pelailee nykysellä 1080p 240hz näytöllä. Ekana päivänä toimi hyvin. Warzonessakin vertailin jonku youtube videota samoilla asetuksilla suht samoilla osilla nii tasasen 250 - 270 fps tällä hepulla jja mulla 220fps parhaimmilla ja droppaa välillä 140 fps tienoille. Isommalla resolla sitten käyttää kunnolla näyttistä mutta jonku ny tuntuu hannaavan jossain.
Prossu ilmeisesti jää pullonkaulaksi tuolla resoluutiolla, jos kerta näytönohjain jää selkeästi alle 100%. Mitä se prosessorin käyttöaste sanoo tuossa tilanteessa? Jos 100%, niin asia on sillä selvä.

OC, silenttia en oo kokeillutkaan. Eihän se muutenkaan raportois 340w virrankäyttöä n. 92-94% kokonais TDP:stä jos se TDP olis 345w. Itekkin kyllä aluks arvelin samaa syyks, mutta kytkin on ainakin OC puolella. Ois ainakin toi powerdraw sopinu muottiin.
Ehkä tuota nyt jollain Furmarkilla voisi vielä testata, että mihin asti se kulutus nousee. Ehkä vain testaamasi kuorma ei ole vaatinut täysin tuota 370W tai hakkaa esim. jännitelimittiin.

Itsekin tässä Trioa lämmittelen ja kovasti haluais lisää virtaa... Pwr cappia huutelee. Vain volttia ja powerlimittia nostettu + fan curve.
Powerlimittiä "saa lisää" kellottamalla curven avulla, eli samat tai isommat kellot, mutta jännitteen säätää tuota 1,025V pienemmälle.
 
Pieni 50 MHz kellotus ja kortti (Gigabyte RTX 3090 Gaming OC) ei ole enää vakaa. Ihan tappiin on kellotettu tämä jo tehtaalla. Menee ilmeisesti kyllä yli 2000 MHz, mutta ei paljon.
 
Prossu ilmeisesti jää pullonkaulaksi tuolla resoluutiolla, jos kerta näytönohjain jää selkeästi alle 100%. Mitä se prosessorin käyttöaste sanoo tuossa tilanteessa? Jos 100%, niin asia on sillä selvä.
Sigun kokoonpano eli 9900k mennään joka kellotettu 5.0Ggz. siinäpä se on kun prossun käyttöaste ei huitele lähellekää 100%. Jossain 60 - 70% about ja ei mikään yksittäinen ydin käy myöskään täysillä. Mun vanhalla 2080s oli tasasempi fps. Ekana päivänä kun kortti oli kiinni toimi paremmin. Sama ilmiö on myös havaittavissa Forza Horizon 4
 
Sigun kokoonpano eli 9900k mennään joka kellotettu 5.0Ggz. siinäpä se on kun prossun käyttöaste ei huitele lähellekää 100%. Jossain 60 - 70% about ja ei mikään yksittäinen ydin käy myöskään täysillä. Mun vanhalla 2080s oli tasasempi fps. Ekana päivänä kun kortti oli kiinni toimi paremmin. Sama ilmiö on myös havaittavissa Forza Horizon 4
Onko kortille kelloja laitettu? Nämä uudet 6X muistit kun alkavat jarruttamaan menoa ennen kuin kaatavat pelin / alkavat näyttämään artifakteja (edit: 500-750MHz kellotus muisteille pitäisi olla turvallisissa rajoissa):
 
Nvidialla tuntuu menevän joka kerta tämä päin helvettiä. 2080 julkasussa oli muistit, tässä julkaisussa konkat. :cigar:

Ei ollu muisteissa mitään ongelmia. Kortin suunnittelussa kylläkin joka aiheutti sitten sen että piirilevy kun taipuili niin muistipiirit alkoi irtoilla joka sitten aiheutti Space Invaders efektin.
Eli lopetetaanko nyt se muistivalmistajan parjaaminen, Microniahan tästä on sormella osoteltu. Niitä space invaders kortteja oli myös samsungin muisteilla.
Joten aino jota kannattaa asian tiimoilta osoitella sormella on nvidia joka tunaroi piirilevyn suunnittelun.
RTX Titania on esim. maailmalla jossa on liimaa vedetty muistipiirien ja piirilevyn liitoksiin lisävahvistukseksi. Igors Lab sivustolta voi lukea aiheesta lisää, siellä myös kuvia liimailuista.
 
"Mies meni lääkäriin valitti, että käteen sattuu kun sen nostaa ylös. Tähän lääkäri vastasi: no älä sitten nosta ylös jos kerta sattuu."

Ei tuo kellojen laskeminen korjaa sitä ongelman ydintä millään tapaa. Tässä nyt saman hintahaarukan eri mallien omistajat eriarvoistuu aikalailla.

edit: viilattu vähän muotoilua.
"Mies meni lääkäriin valitti, miten käteen sattuu kun kurkoittaa kädellään viimeistä paria senttiä. Tähän lääkäri vastasi: no älä sitten kuroita sitä viimeistä paria senttiä."
 
Onko kortille kelloja laitettu? Nämä uudet 6X muistit kun alkavat jarruttamaan menoa ennen kuin kaatavat pelin / alkavat näyttämään artifakteja (edit: 500-750MHz kellotus muisteille pitäisi olla turvallisissa rajoissa):
Ainoastaan powerlimit nostettu tappiin. Ei ole muuta tehty kortille.
 
e66f7ca520e9323e92dc52a4a26f22a3.png


Kuvassa AB poimittu vakio voltage curve. Onko tää kuinka tarkka? Kuvan mukaan tää kortti olis rajattu karvan alle 2GHz ihan sama minkälainen tilanne :think:
3080 FE vakiocurve näyttää tältä:

defaultcurve.PNG


Maksimi tossa käyrällä on 2085 MHz.

Battlefield V:tä just pelailin joka on kevyt ja täysin CPU-pullonkaulassa ja siinä 2GHz tuntumassa pyöri kellot, maksimipiikki näyttää olleen 2055 MHz . Eipä ole pelit vakiokäyrällä kaatuilleet.
 
Mielenkiintoista, tuostahan se voisi osittain johtua? Tässä MSI trion perus kaava, näyttäisi menevän karvan yli 2ghz, mitenköhän tuo sopeutuu kun tälläkin oon käyny siinä 2115mhz ilman kaatumatta
Eaglen stock-käyrä näyttää aika samalta.

vf.png
 
Taisi käydä siis meikäläisellä melkoinen lotto kun 3080 arvonnasta päätin ostaa Asuksen TUF Gaming version? Mikäli noita kaatumisuutisia ymmärsin oikein
 
Ainoastaan powerlimit nostettu tappiin. Ei ole muuta tehty kortille.
Eipä tuohon sitten muuta osaa oikein neuvoksi antaa kuin DDU:lla ajureiden puhdistus ja uudelleen asennus. Windows päivitetty tuoreimpaan 2004 versioon?

3080 FE vakiocurve näyttää tältä:

defaultcurve.PNG


Maksimi tossa käyrällä on 2085 MHz.

Battlefield V:tä just pelailin joka on kevyt ja täysin CPU-pullonkaulassa ja siinä 2GHz tuntumassa pyöri kellot, maksimipiikki näyttää olleen 2055 MHz . Eipä ole pelit vakiokäyrällä kaatuilleet.
Hurjat on kyllä voltit tuossa viimeisessä stepissä, jos jotain 1,143V ja 2085MHz. Ei muuta kuin alivoltittamaan :tup:
 
Eipä tuohon sitten muuta osaa oikein neuvoksi antaa kuin DDU:lla ajureiden puhdistus ja uudelleen asennus. Windows päivitetty tuoreimpaan 2004 versioon?


Hurjat on kyllä voltit tuossa viimeisessä stepissä, jos jotain 1,143V ja 2085MHz. Ei muuta kuin alivoltittamaan :tup:
Tänää asentelin windows uudestaa eikä auttanu ja ddu kans toisee kertaa ajurit
 
Hurjat on kyllä voltit tuossa viimeisessä stepissä, jos jotain 1,143V ja 2085MHz. Ei muuta kuin alivoltittamaan :tup:
eihän noi koskaan tuonne vikaan steppiin mene nvidian korteilla? Että onkos nyt jotkut maksimit jotai 1,05V vaimitälie ennen ollut, vaikka kortti näyttää käyrää yli. Voi korjata toki jos olen väärässä.
 
Ei ollu muisteissa mitään ongelmia. Kortin suunnittelussa kylläkin joka aiheutti sitten sen että piirilevy kun taipuili niin muistipiirit alkoi irtoilla joka sitten aiheutti Space Invaders efektin.
Eli lopetetaanko nyt se muistivalmistajan parjaaminen, Microniahan tästä on sormella osoteltu. Niitä space invaders kortteja oli myös samsungin muisteilla.
Joten aino jota kannattaa asian tiimoilta osoitella sormella on nvidia joka tunaroi piirilevyn suunnittelun.
RTX Titania on esim. maailmalla jossa on liimaa vedetty muistipiirien ja piirilevyn liitoksiin lisävahvistukseksi. Igors Lab sivustolta voi lukea aiheesta lisää, siellä myös kuvia liimailuista.
Miks se vaihtu sitten samsungiin?
 
Hurjat on kyllä voltit tuossa viimeisessä stepissä, jos jotain 1,143V ja 2085MHz. Ei muuta kuin alivoltittamaan :tup:
eihän noi koskaan tuonne vikaan steppiin mene nvidian korteilla? Että onkos nyt jotkut maksimit jotai 1,05V vaimitälie ennen ollut, vaikka kortti näyttää käyrää yli. Voi korjata toki jos olen väärässä.
1,081V maksimit mitä oon nähnyt, tosin en kyllä kamalasti ole tarkkaillut. Tähän mennessä testaamissani peleissä ollaan power limitissä jo kauan ennen tommosia jännitteitä. Esim. Q2RTX hörppää sen 320W jollain ~0,85V:lla. :D
 
eihän noi koskaan tuonne vikaan steppiin mene nvidian korteilla? Että onkos nyt jotkut maksimit jotai 1,05V vaimitälie ennen ollut, vaikka kortti näyttää käyrää yli. Voi korjata toki jos olen väärässä.
Käyrä kun kerta on noin vedetty, niin teoriassahan se kortti saa tuon tempun tehdä esim. piikkinä heti peliä käynnistäessä.
Hetki kuitenkin aikaa siitä, kun omat kortit (1080Ti ja 2080S) ovat olleet viimeksi vakiokäyrällä, niin suositukseni onkin, että säätää tuon käyrän vaikkapa 2050MHz ja 1,050V tasolle, jos ei jaksa tarkkaa alivoltitusta tehdä.
 
Käyrä kun kerta on noin vedetty, niin teoriassahan se kortti saa tuon tempun tehdä esim. piikkinä heti peliä käynnistäessä.
Hetki kuitenkin aikaa siitä, kun omat kortit (1080Ti ja 2080S) ovat olleet viimeksi vakiokäyrällä, niin suositukseni onkin, että säätää tuon käyrän vaikkapa 2050MHz ja 1,050V tasolle, jos ei jaksa tarkkaa alivoltitusta tehdä.
Juu siis itelläkin tähtäimessä joku 0,85-0,95V alivoltitus tehdä, kun tuolla alueella vissiin paras teho/suorituskyky suhde :tup:
 
Ei tosiaan tuo 3090 näytä ole Titan korvaaja jos on noita Tensor Coreja tarkoituksella rajoitettu, että koneoppimisen puolella ihmiset ostaisi Quadroa ja Teslaa..


Laskenta ominaisuudet ovat olleet Titan korteissa rajoitettu jo pitkään.
 

Redditin puolella hyvä teksti poscap vs. mlcc asiassa. Itse en mikään insinööri ole mutta meinaa kyllä mennä tunteisiin ku igorin ja jayn videoitten julkamisen jälkeen ei montaa minuuttia mennyt että siellä yhteen ääneen oli päätetty että poscap = paskaa ja mlcc =parasta ikinä, ja tier-listat valmistajista oli jo valmiina. Täälläkin keskusteluissa huudeltu samaa. Kuinkakohan moni näiden juttujen takia perui esim gigabyten tilauksensa ja joutui jonon hännille taas? :)
 
Miks se vaihtu sitten samsungiin?

Ei se mihinkään samsungiin vaihtunut. Micronilla oli nvidian kanssa diili että alkuun kuukauden verran tai jotain kortit tuli ainoastaan micronin piireillä, yksinoikeudella siis. Sen takia se space invaders keissi on ylikorostunut micronin piireillä koska niitä kortteja oli micronin piireillä yksinkertaisesti enemmän. Ja kuten jo aiemmassa viestissä sanoin, niin täysin samaa space invaders ongelmaa esiintyi vielä silloinkin kun myös samsungin piirejä alettiin kortteihin laittaa.


 
Noniin, kortti (FE) on nyt avattu muutaman kerran.

Ajattelin mennä all-in ja kokeilin nestemäistä metallia. Sen tuomien riskien takia suojasin GPU:n ympärillä olevat pikkuiset vastusrivistöt normitahnalla.
Piirilevy oli jo kiristetty paikalleen, kun huomasin yhden johdon jääneen sinne alle. No eikun auki ja metallilitkut tietenkin täysin pielessä.
No uusi yritys, kortti kasaan ja Afterburner+Furmark pyörimään. Jostain syystä kortti hakkasi koko ajan temp limittiä vasten, vaikka mitä olisi tehnyt. Ehkä ne GPU:n viereiset vastukset eivät tykänneet tahnoista ja/tai nestemäinen metalli pääsi sittenkin tekemään hallaa.

Kortti auki taas ja perusteellinen puhdistus metalleista ja kaikesta muustakin. Nyt normitahnalla (tai jotain testivoittajaa se oli muutaman vuoden takaa) kasaan ja pienenpienet määrät myös auttamaan litistyneitä lämpötyynyjä.
Aika tarkkaan samaksi palautui kortti. Ehkä pientä parannusta lämpötiloissa kuormituksen alla. Nyt se on taas power limittiä vasten niinkuin pitääkin. Vanhat muistot verestyivät tässäkin projektissa, kun alkoi muistamaan syy-seuraussuhteita.

Kyllä tämä vesille menee kun blokit ilmestyy., on vaan semmoinen kiuas kyseessä.
 
Näitä kondensaattorimutuiluja on aika itkettävä lukea.

Mlcc stäkit on aivan yhtä kykeneviä kuin muut vastaavat low esr/esl viritelmät. Noin elektroniikkasuunnittelun vinkkelistä tässäkin lienee kyse kauhun tasapainosta ja tuohon hakkurin jännitteen vakauteen vaikuttaa aivan kaikki lähtien itse virtalähteen syöttöimpedanssista ja kulkien hakkuriohjaimen takaisinkytkentäloopin komponenttivalinnoista ja siitä miten se looppi on viritetty + LLC ja kumppanit.

Sokkona yksittäisten komponenttien syyttely on aika hedelmätöntä...
 


Rupes kyllä itteäkin vähän oksettamaan toi kommenttikentän meininki. Lähteny ihan lapasesta koko touhu, varsinkin kun todellisuudessa kukaan ei oikeastaan tiedä mitään. Ja joo, se aiemmin huhuiltu Gigabyten 470 nopat pitää videon perusteella paikkansa molemmissa korteissa. Mitä väliä sillä on? Kukaan ei tiedä.

Taidan lopettaa asian ihmettelemisen tähän. Palataan astialle sit jos tulee virallista lausuntoa, tai kortissa on häikkää. Siihen asti kovaa ajoa.
 
Ei kai Asus sokkona vaihtanut esituotannossa 6xSP-CAP konfiguraatiota 60xMLCC konfiguraatioon?
Jos EVGA:n viikon R&D:n tulos oli vaihtaa 6xSP -> 4xSP + 20xMLCC, jonka vuoksi korttien kauppoihin saaminen myöhästyi, niin ehkä Asus on vain hieman oikonut mutkia ja todennut koko stäkin vaihtamalla toimivan stabiilisti ja pistänyt kauppoihin.
Tässä kohtaa vielä hankala sanoa onko joku tietty konfiguraatio se paras.

Edit: Kuva vielä noista eri konfiguraatioista, jossa esim Nvidian omassa on 20xMLCC, 2x470 SP ja 2x220 SP.
Zotacilla ei ole edes juotospadeja tai tilaa noille MLCC:eille, joten jos tuotantoon tulee muutoksia, niin koko piirilevy varmaan menee uusiksi.
Ei0d2VuU0AA5gBV (1).jpg
 
Eikai nyt melkeen tonnin korttien valmistajien tarttisi konkissa pihistellä vaan kyllä siinä on varmasti muitakin syitä taustalla.
Jos missä tahansa komponentissa pystyy säästämään vaikka aivan minimalistisen summan rahaa, niin se säästetään.
Vahvistimissa esimerkiksi voi kytkennät käydä läpi useampi insinjörtti, jotta varmasti saadaan kaikki "turha" karsittua pois.
Ja tämä näkyy jopa vähän kalliimmillakin valmistajilla. On nimittäin jälkikäteen huomattu, että vaikkapa vastukset on lämmönkestoltaan pistetty aivan alakanttiin.
Ja seurauksena juotokset sulaneet ja piirilevyt palaneet lämmön takia.
Yllättäen seuraavassa revisiossa on parempikestoiset komponentit ja/tai jäähdytyssiilit yms.

Parin komponentin sentin säästö on loppupeleissä iso raha, jos mitä tahansa jauhetaan markkinoille kymmeniä-/satojatuhansia kappaleita. Ja kaikki se sataa valmistajan taskuun...
Pilvilinnoissa on kiva elää, mutta totuus on aika pirun paljon karumpaa ;)
 
Ei kai Asus sokkona vaihtanut esituotannossa 6xSP-CAP konfiguraatiota 60xMLCC konfiguraatioon?
Vaan kukapa tietää onko se ainut muutos. Tai jos asus on todennut että pienin kustannus on palauttaa kortti sellaiseksi kuin se oli suunnittelijan mielestä hyvä eikä pavunlaskijan mielestä hyvä.
 
Välillä muutakin kuin konkkajuttuja:

MSI triolle ei näytä vesiblokkia tulevan?
Pitää vissiin laittaa toinenkin 3080 tilaukseen, et saa vesille. Aika hyvin lämmittää koppaa tämä 3080.
Taisi lopunki kiinnostus 3090 kohtaan lopahtaa tuon 10-15% tehonlisäyksen kanssa..

Alphacoolin MSI Trio -blokki tilattavissa. Myös TUFfille ja Strixille tuli blokit myyntiin.
MSI Trio
TUF
Strix
 
Menee n. sentin yli tuo TUF-blokki, että ei mahdu koteloon :sad: . No refua vaan sit vaikka olisihan tuo tuf kelvannu:rolleyes:
 
Välillä muutakin kuin konkkajuttuja:



Alphacoolin MSI Trio -blokki tilattavissa. Myös TUFfille ja Strixille tuli blokit myyntiin.
MSI Trio
TUF
Strix

Tää olikin hyvä uutinen :thumbsup: Ei mielestäni pahan hintainen tuo kun kerta vielä mukaan tulee backplate. Tuohan on nickelöityä cuparia, no joo, eiköhän se ihan hyvä ole... Tuffin tietoja kattelin.

Sopivuus siis taattu oc ja non oc 3090/3080:selle. Tulis nyt vaan sit jo jompi kumpi näyttis, odottavan aika on tuuuurhan pitkä :D
 
Ei mielestäni pahan hintainen tuo kun kerta vielä mukaan tulee backplate. Tuohan on nickelöityä cuparia, no joo, eiköhän se ihan hyvä ole... Tuffin tietoja kattelin.

Joo nämähän ovat puoli-ilmaisia EKWB:n yli 200e blokki + backplate -hintoihin verrattuna :kahvi: Alphacoolin kamat on ihan laadukkaita, ei pitäisi sen puoleen olla huolta. Vaikka kama tulee Kiinasta, se ei tietääkseni ole alihankittua skeidaa, vaan heillä on oma tehdas. Toki EK:n made in EU -leima houkuttelee, mut hintalappukin on sen mukainen.
 

Statistiikka

Viestiketjuista
258 212
Viestejä
4 486 019
Jäsenet
74 182
Uusin jäsen
jampp-77-

Hinta.fi

Back
Ylös Bottom