New World -pelin beetaversio tappaa GeForce RTX 3090 -näytönohjaimia

Kaotik

Banhammer
Ylläpidon jäsen
Liittynyt
14.10.2016
Viestejä
22 495
new-world-mmo-geforce-explosion-20210721.jpg


Kaotik kirjoitti uutisen/artikkelin:
New World on Amazon Gamesin kehittämä MMO-peli, joka on tällä hetkellä edennyt beetavaiheeseen. Kaikki ei ole kuitenkaan sujunut kuin ruusulla tanssien, sillä nyt nettiin on alkanut valua ikäviä ja suorastaan outoja raportteja sen tiimoilta: peli hajottaa näytönohjaimia.

Useiden eri käyttäjäraporttien mukaan New Worldin beetaversio voi kirjaimellisesti hajottaa ainakin GeForce RTX 3090 -näytönohjaimia. Yhden käyttäjän tapauksessa pelin alfaversio oli jo tappanut yhden RTX 3090:n ja nyt beetaversio toisen. Suurimmassa osassa raportoiduista tapauksista kyseessä on EVGA:n GeForce RTX 3090 FTW3 Ultra -malli, mutta mukaan mahtuu myös Gigabyten näytönohjaimia sekä NVIDIAn Founders Edition -malleja.

Windows Centralin mukaan muiden RTX 3090 -mallien käyttäjät ovat lisäksi raportoineet ylikuumenemisista ja virtapiikeistä, vaikkei näytönohjaimet olekaan hajonneet. Tämän perusteella vaikuttaa siltä, että viritetyimmillä ja/tai heikoimmilla piirilevyillä varustetuilla RTX 3090 -näytönohjaimilla ne ovat yksinkertaisesti liikaa, eivätkä näytönohjainten suojamekanismit toimi, kuten niiden pitäisi.

Yleisimmän teorian mukaan ongelmien takaa löytyisi pelin valikoiden ja odotustilan rajoittamaton ruudunpäivitysnopeus. Osalle käyttäjistä ongelmat ovat ilmaantuneet kuitenkin vasta itse pelin puolella, eikä ruudunpäivitysnopeuden rajoittaminen V-Syncillä tai muilla rajoittimilla ilmeisesti auta tilanteeseen mitenkään, mikä syö maata yleisimmän teorian alta.

Peli julkaistaan näillä näkymin 31. elokuuta, mutta sen suljettuun beetaan pääsee mukaan ostamalla pelin ennakkoon. Tässä vaiheessa onkin syytä kehottaa GeForce RTX 3090 -käyttäjiä varovaisuuteen kyseisen pelin kohdalla.

Lähteet: New World, Reddit, Windows Central

Linkki alkuperäiseen juttuun
 
Viimeksi muokattu:
Muistanko täysin omiani mutta eikös suunnilleen vastaavaa ole aiemminkin tapahtunut aiemminkin, ainakin Starcraft II:n kanssa mitä äkkiseltään googlailin?
Siinä oli kyse muistaakseni juuri menujen järjettömästä FPS:stä, mutta tässä on viitteitä että olisikin joku muu ongelma
 
Uskomatonta töpeksintää nVidialta. Mitään näytönohjainta ei pitäisi pystyä hajottamaan pelaamalla

Eipä Nvidialla taida olla asian kanssa mitään tekemistä, vaan kyseessä on täysin Evga:n moka ainakin tuon Redditin threadin perusteella.
 
Ei oo puhtaasti EVGA:n syy, vaan ongelmia muillakin korteilla.
Jay sano hyvin, että EVGAa helppo syyttää koska sen kortteja eniten menny
 
Justiinsa. Eli joissakin 3090 virransyötöissä puutteelliset suojaukset. Evga saa melkoisesti paskaa Redditissä, vaikka tosiaan sama ongelma ilmeisesti joidenkin muidenkin valmistajien korteilla.
 
Nyt listauksia niistä valmistajista, joiden kunnollinen ja laadukas suunnittelu estää moiset käsittämättömyydet, kiitos.

T -.-
 
Ilmeisesti jenkeissä nuita EVGA:n kortteja on tullut muita valmistajia enemmän pihalle ja sen takia ne korostuu tilastoissa. Jayz2cents epäilee myös youtube videollaan että lataus screenissä fps nousisi järjettömän korkeaksi ja todennäköisesti käytössä olevia näyttiksen lisävirtakaapeleiden haarottimia, joiden takia virrat ei välttämättä tuolla kukutustasolla riitä.
 
Aikoinaan (olisko ollut Maxwell aikoja?) puhuttiin, että vanhoja 3Dmark sovelluksia ei saa ajaa uusilla korteilla, koska ne kortit hajoaa.
Itse en ole saanut yhtään korttia rikki vaikka 6900XT:lläkin ajoin GLexcess benchin huvikseni.
Pitääpä kokeilla jos sais vielä 3Dmark99:n pyoriin, jos se savu sitten jostain nousisi.
 
On tosiaan outoa syyttää ohjelmistoa raudan suunnittelun oikopoluista. Mielenkiintoista olisi tietää kuinka kallis kortti olisi ollut kunnolla tehtynä.
 
Meneekö vakuutuskorvaukset nyt sitten nvidialta vai pelin tekijältä? Tosin hyvä puoli tässä tietenkin se että eihän noita kortteja ole kuin muutamalla ihmisillä maailmassa kun ei niitä ole ollut myytäväksi asti, tai ei kukaan hinnoilla millä.
 


tuskin ainakaan pelintekijältä, eiköhän nuo kortit ole ollut ser-jätettä jo tehtaalta lähtiessään, eikä muuten olisi ensimmäinen kerta evga:n osalta.
 
Kortin suojamekanismit eivät vaan toimi kaikissa tapauksissa ja se ei throttlaa tappokuorman alla. Tähän saa kyllä patchin Nvidialta, kunhan ongelma on paikannettu.

Nyt @jive veikkaa, että tahallaan on suunniteltu väärin. En usko. Itse veikkaan, että varsinkin 3090 on kellotettu suorituskykynsä rajoille ja siinä ajetaan koodia, jota suunnittelijat ja testaus eivät uskoneet kenekään ajavan. Todennäköisesti loopissa jotain RTX:ää, joka käyttää DLSS:ää ja normaalia rasterointia.

Jos kortissa olisi kunnon kellotusvara, niin tätä tuskin tapahtuisi. Nyt vaan markkinasyistä kelloja maksimit, varsinkin FTW3+ korteilla.

--

Ennenhän kortit sai hajalle FurMarkilla, niinkuin @Nerkoon sanoi. Se on vaan, että niillä ajaa kuormia, joita ei normaalit pelinkehittäjät tee ja joita varten niitä ei ole tarkoitettu. Tätä sitten rajoitetaan raudalla tai ajureilla, ettei näin käy. Tähän kyseiseen peliin varmaan viralliset Nvidian ajurit tulee korjaamaan ongelman, ennenkuin päästään pois betasta.
 
Olihan noilla evga korteilla ongelmia myös league of legendsissä, tuollakin postaajalla kuoli 2kpl 3090:aa sen kanssa. Tässä kolmannen kortin debuggauksen tulokset, ihmo kuuluu topiciin, kun voi hyvinkin olla samasta ongelmasta kiinni. Eli volttikäyrä bugaa kevyillä kuormilla ja isoilla tehorajoilla.

"The result? I just streamed and watched a movie on my 5 monitors while playing a 2 hour custom game of League by myself. I'm going to need more testing, but I believe I've fixed the problem.

EVGA needs to adjust their voltage curves for the standard BIOS, because I believe it's breaking Voltage limits in lower power states while still attempting to go to higher core clocks. Also, while my experience here is only anecdotal, it *has* fixed my League crashing problem, so I can only assume that the voltage curve *is* the issue. The card attempts to go up to a voltage it shouldn't be at when the temperature is not low enough on the card to do so, breaking copper traces in the card with too much voltage at too high of a temperature.

While my experience here is a solitary thing, I would like to have some other people experiencing this issue chime in, and let me know if this fixes the issue. Maybe I've fixed EVGA's RMA problem with these cards, an experience that I can only assume has reached a large dollar cost figure, with how many people I've seen having the same issues.

Good luck!

EDIT: While I fix my images.

EDIT 2: For those that don't feel like reading through the entire thread, the problem was fixed by limiting my voltage for OC to 1.062V and below, and having the card run at stock speeds at any voltage above 1.062 V. Comfortably running at +120/+1250 for about 5 days with no crashes. While you obviously shouldn't have to do this sort of workaround to prevent your card from dying, I can say with confidence this solves whatever issue is causing game crashes and constant RMAs. Happy Gaming! "
 
Meneekö vakuutuskorvaukset nyt sitten nvidialta vai pelin tekijältä?
Jos tarkoitit takuuta niin näytönohjainvalmistaja kyllä antaa uuden ohjaimen kuluttajalle, jos tällainen tapaus on kyseessä.

EVGA has come out with a statement of its own, saying that its RTX 3090 graphics cards getting bricked for playing the game would be "completely under warranty."
 
Eli jos tuota tapahtuu pää-asiassa 3090 ohjaimilla, niin jos sellaisen saa jostain niin kannattaako sellaista sittenkään hankkia?

Eli onko noissa mid endin korteissa parempi kellotusvara kun niillä ei noita ongelmia ilmeisesti ole?
 
Nähtävästi myös pari 6900XT:tä ja yksi 6800 on pamahtanut:



"
TWO people have written me and told me their 6900xt blew up in the New World game... so that alone PROVES if's not isolated to a single card brand or type. Y'all need to chill until brands have a chance to investigate"

"Literally as I wrote that an email about a 6800 came in."
 
Ongelma näyttää olevan valikossa ei ole framerate cap ollenkaan ja kun tulee yli5000fps niin kortit ei kestä ja ylikuormittuu.
Eli vsync päälle pitäisi korjata tilannetta.
 
Kova menetys jollekkin keskiverto pelaajalle, jos näytönohjain hajoaa ne maksaa ihan hirveästi.
 
Tuplasentti väittää, että 6800, 6800xt, 6900xt, 3080ti ja 3090 voivat hajota tuon New Wordin takia. Onkohan kortin valmistajilla eroja?
 
Aluksi ajattelin, että hajonneilla korteilla saattaisi olla jotain tekemistä ohituskondensaattoreiden kanssa, mutta jos mukana on myös AMD:n kortteja, niin ei taida olla siitä kyse? Tai sitte hajonneet AMD:n kortit ovat vain olleet maanantaikappaleita.
io-techin omissa testeissä ja näytönohjainvalmistajien kanssa käydyissä keskusteluissa on saatu selvitettyä, että mahdollisissa kaatuiluissa kyse on tosiaankin grafiikkapiirin takapuolen ohituskondensaattoreista, jotka tasaavat ja suodattavat sisääntulojännitettä ja joista grafiikkapiiri ottaa tarvitsemansa kuormavirran. Korkeilla yli 2 GHz:n kellotaajuuksilla pelkät SP-CAPS-kondesaattorit eivät ilmeisesti kykene riittävän nopeasti reagoimaan kuormavirran muutoksiin, joka johtaa kaatuiluihin, kun taas pienemmät Multilayer Ceramic Chip Capacitors- eli MLCC-kondensaattorit pysyvät perässä. Kyse ei ole niinkään siitä, että toiset kondensaattorit olisivat laadukkaampia tai kalliimpia, vaan yksinkertaisesti sopivat kyseiseen käyttötarkoitukseen paremmin.
Eikös jotkut kelat ala helposti sirkuttamaan korkeilla FPS lukemilla High End -korteilla? Antaako siellä sitten joku komponentti periksi?
Kaikilla näytönohjaimilla oli kuultavissa matalataajuisempaa ”sirkutusta” pelin latailujen yhteydessä ja matalaa korkeataajuista sirinää, kun The Witcher 3 -pelin alkuvalikossa taulussa oli yli 2500 FPS:n lukemat.
Kun testipeliksi vaihdettiin Doom Eternal 1080p-resoluutiolla ja ruudunpäivitys hyppäsi yli 400 FPS:ään, sirinä voimistui ja alkoi kuulua jo kotelon läpi. Kaikilla näytönohjaimilla oli kuultavissa matalataajuisempaa ”sirkutusta” pelin latailujen yhteydessä.
 
Tuplasentti väittää, että 6800, 6800xt, 6900xt, 3080ti ja 3090 voivat hajota tuon New Wordin takia. Onkohan kortin valmistajilla eroja?
Väittää. :hmm: eli vielä ei ole varsinaisesti AMD kortteja hajonnut. En ainakaan äkkiseltää googlaamalla löytänyt. Itellä ei fps menny menussa yli 144 fps vaikka vsync pois pelistä ja fps unlocked. Varmaan ajureissa joku muu päällä..

Edit. Toisaalta hyvä että löytyy tällänen oikea benchmark millä saa kunnolla rasitettua näyttistä.
 
Väittää. :hmm: eli vielä ei ole varsinaisesti AMD kortteja hajonnut. En ainakaan äkkiseltää googlaamalla löytänyt. Itellä ei fps menny menussa yli 144 fps vaikka vsync pois pelistä ja fps unlocked. Varmaan ajureissa joku muu päällä..
Tuo on kyllä mielenkiintoista tosiaan. Hajonneista 3090 korteista löytyy juttua mm. Redditistä, mutta ketjussa ei ole yhtään hajonneen amd:n omistajaa. Tuplasentti on ainoa jolta olen nähnyt vaitteen amd:n korteista
 
jaskatuplasentti paskaperse tunnetusti nvidia ja intel fani, muistaako kukaan vielä kun äijä hehkutti että amd:n 5000-sarjan prossut ei riitä ottamaan tehoja irti rtx 3000-sarjan näytönohjaimista vaan tarvitset INTEL prosessorin että saat kaiken irti? en taida luottaa tuon sanomisiin ennen kuin laittaa todistetta kehiin.
 
Väittää. :hmm: eli vielä ei ole varsinaisesti AMD kortteja hajonnut. En ainakaan äkkiseltää googlaamalla löytänyt. Itellä ei fps menny menussa yli 144 fps vaikka vsync pois pelistä ja fps unlocked. Varmaan ajureissa joku muu päällä..

Edit. Toisaalta hyvä että löytyy tällänen oikea benchmark millä saa kunnolla rasitettua näyttistä.

Tuohon kai oli juuri pelintekijältä tullut heti patchi, että rajoittaa menuissa ruudunpäivityksen.
 
Toisaalta AMD:n kortteja on myyty paljon vähemmän joten on luonnollista, että niissä ei ole yhtä paljon tapauksia. Mutta ilmeisesti kaikissa korteissa hajoaa joku tietty komponentti kun selkeä pamaus pitäisi kuulua.
 
Ongelma näyttää olevan valikossa ei ole framerate cap ollenkaan ja kun tulee yli5000fps niin kortit ei kestä ja ylikuormittuu.
Eli vsync päälle pitäisi korjata tilannetta.

Eli kumpi rasittaa näytönohjainta enemmän, raskaan näkymän (pelimaiseman) piirtäminen pienehköllä kuvanopeudella, vai hyvin kevyen näkymän (pelin valikon) piirtäminen suurella kuvanopeudella? Jotenkin erikoista, jos jälkimmäinen rikkoo näytönohjaimen helpommin.
 
Buildzoidin 38 minuutin autistelu aiheesta:

Olisihan viestissä voinut mainita, että Buildzoid epäilee syyksi samaa syytä kuin GTX 590 kortilla aikanaan
With the card dead, I looked for any damage and found one of the 12V input resistors acting as fuses to be damaged (1st pic, no visible damage), so I soldered a bridge on it to bypass it, the card then "exploded" again, this time one of the MOSFETs blew up as shown in the second picture above. This was just an experimental fix to potentially revive the card. If only the resistor was damaged then it should be working fine again, looks like something else was broken and the "fuse" resistor merely blew to protect the card.
Eli suojausta ei ole implementoitu kunnolla, jolloin yksittäiset virtapiikit rikkovat sulakkeet ja kortti kuolee. Esimerkiksi TPU:n 3080 Ti FTW3 Ultra testissä FurMarkissa mentiin pitkälti yli 500W. New World pelin raportoinut virtapiikit todennäköisesti kuormittavat tiettyä osaa kortista, jolloin komponentit kärähtää. Vika ei kuitenkaan ole pelissä vaan kortin suunnittelussa.
power-consumption.png
 
Nyt kyllä kiinostaisi onko hajoneet kortit viritettyjä. Eli Nvidialla kovan powerlimitin bios sisässä ja AMD:lla morepowertoolilla ohitetut tehorajat käytössä, vai paukkuiko noita vakiona ajettuna.
 
Eli kumpi rasittaa näytönohjainta enemmän, raskaan näkymän (pelimaiseman) piirtäminen pienehköllä kuvanopeudella, vai hyvin kevyen näkymän (pelin valikon) piirtäminen suurella kuvanopeudella? Jotenkin erikoista, jos jälkimmäinen rikkoo näytönohjaimen helpommin.

Jälkinmäisessä on ainakin mahdollista boostata paljon korkeammalle. En tiedä voiko sen kuorma olla vielä pistemmäisempää, tyyliin sama XXX wattia menee sähköä, mutta pienellä sirupinta-alalla.
 
Eli kumpi rasittaa näytönohjainta enemmän, raskaan näkymän (pelimaiseman) piirtäminen pienehköllä kuvanopeudella, vai hyvin kevyen näkymän (pelin valikon) piirtäminen suurella kuvanopeudella? Jotenkin erikoista, jos jälkimmäinen rikkoo näytönohjaimen helpommin.

Jälkimmäinen aiheuttaa erilaisen kuorman, esimerkkinä vaikkapa se korkean ruudunpäivitysnopeuden aikana kuultava kelojen vinkuna. Periaatteessa on mahdollista, että jollain juuri sopivalla ruudunpäivitysnopeudella joku osa virransyötöstä alkaisi vaikkapa hieman resonoida ja tuon aikaansaama jännitepiikki polttaisi kortin. Toki, moni muu vika on paljon todennäköisempi.

Toki, näytönohjaimet ovat monimutkaisia laitteita ja mahdollisia syitä hajoamiselle on lukuisia. Esimerkiksi vaikkapa hyvin rajallisen osan piiriä kuormitus, ja siten jopa ihan kortin lämpökuolema kun lähin lämpötila-anturi on liian kaukana nähdäkseen kunnolla tuon paikallisen piikin lämmöissä.
 
Eli kumpi rasittaa näytönohjainta enemmän, raskaan näkymän (pelimaiseman) piirtäminen pienehköllä kuvanopeudella, vai hyvin kevyen näkymän (pelin valikon) piirtäminen suurella kuvanopeudella? Jotenkin erikoista, jos jälkimmäinen rikkoo näytönohjaimen helpommin.
Buildzoidin videolla oli sanottu, että pelin menu korkealla FPS:llä saattaa kuormittaa tiettyä kohtaa kortista erittäin paljon, vaikka virrankulutus kokonaisuudessaan ei olisikaan niin suuri.
 
Igors lab arveli vian olevan täällä:

"And that’s probably where the new design that was introduced at the time comes into play now. As I was able to find out, it is not an area of the voltage converter that is affected by the failure, but the “Fan Control IC”, i.e. the chip for the actual fan control, which is said to be completely burnt out in the worst case. We do remember that EVGA is also working with various additional temperature sensors on the board to better adjust the cooling, based on my research at the time. This is also evidenced by submissions from the aggrieved parties who reported extreme fan whine."

Tuo ei tietty sopisi sen kanssa yhteen, että muitakin kuin evgan:n kortteja on raportoitu pamahtaneen. Ynnä jayz2cents postaukseen, että osa amd korteista on myös hajonnut.

Toisaalta jayz2cents on sekoillut ennenkin, joten ei ole ihan satavaramaa onko muut kortit sammuneet suojapiirien aktivoituessa, vai oikeasti käräyttäneet itsensä. Evga 3090:sta on redditpostaukset ja kunnon ketju, muista on vain Jayzin saamia sähköposteja.
 
RTX 3090 ylikellotusketjusta löytyi mielenkiintoinen havainto FTW3 ULTRA 3090 kortilla ja 1000W BIOS:lla muutaman kuukauden takaa. Kuormittaessa kortti on kestänyt vähän vajaa 1000W kulutuksen mutta jossain latausruudussa kuitenkin kärähtänyt. Tämä viittaisi unbalanced power rail ongelmaan. Eli MSVVD:tä saatetaan kuormittaa jonkin datasiirron aikana niin paljon, että kortti ei kestä.
It blew basically on a load screen, at the time maz power draw would have been 480-520w on the stock bios (450w) (shunted with slider at 50%). Had no block and fan noise was pissing me off hence the low power.


I have benched it prior anywhere between 850-920w without issues and once over 950w using the 1000w bios.... For one reason or another it just blew 2 fuses (maybe static discharge? I really dont know).

First time fuse 2 blew, i accidently bridged something as a piece of solder ran off...
 
Onkohan kyse myös huonosta jäähdytyksestä?
Huono ilmanvaihto yms.

Miten olisi vaikuttanut hyvin tuulettettu iso kotelo ja nestemetallit ja vesi.
 
Väittää. :hmm: eli vielä ei ole varsinaisesti AMD kortteja hajonnut. En ainakaan äkkiseltää googlaamalla löytänyt. Itellä ei fps menny menussa yli 144 fps vaikka vsync pois pelistä ja fps unlocked. Varmaan ajureissa joku muu päällä..
Tuossa muutamaa viestiä aikaisemmin kyllä puhuttiin AMD:n korteista. :hmm:
 
Tuossa muutamaa viestiä aikaisemmin kyllä puhuttiin AMD:n korteista. :hmm:
niin siis jaskatuplasentti (intel ja nvidia fani) on saanut taas tuntemattomia sähköpostilähteitä että kyllä, amd:tkin hajoaa! mies on yhtä kujalla kuin nvidian capacitaattori ongelman aikoihin eli ei sinänsä mitään uutta. mitään todellistahan näistä ei ole, voi olla jos jaska suuruuden hulluuksissaan ei koita vain houkutella lisää katsojia hänen roskalleen kuten epäilen niin siellä on joku nvidia fani pistänyt sanat jaskan suuhun.
 
Kortin suojamekanismit eivät vaan toimi kaikissa tapauksissa ja se ei throttlaa tappokuorman alla. Tähän saa kyllä patchin Nvidialta, kunhan ongelma on paikannettu.

Nyt @jive veikkaa, että tahallaan on suunniteltu väärin. En usko. Itse veikkaan, että varsinkin 3090 on kellotettu suorituskykynsä rajoille ja siinä ajetaan koodia, jota suunnittelijat ja testaus eivät uskoneet kenekään ajavan. Todennäköisesti loopissa jotain RTX:ää, joka käyttää DLSS:ää ja normaalia rasterointia.

Jos kortissa olisi kunnon kellotusvara, niin tätä tuskin tapahtuisi. Nyt vaan markkinasyistä kelloja maksimit, varsinkin FTW3+ korteilla.

--

Ennenhän kortit sai hajalle FurMarkilla, niinkuin @Nerkoon sanoi. Se on vaan, että niillä ajaa kuormia, joita ei normaalit pelinkehittäjät tee ja joita varten niitä ei ole tarkoitettu. Tätä sitten rajoitetaan raudalla tai ajureilla, ettei näin käy. Tähän kyseiseen peliin varmaan viralliset Nvidian ajurit tulee korjaamaan ongelman, ennenkuin päästään pois betasta.
3090:aa markkinoitiin kyllä ihan Titanin korvikkeena ja se on siinä mielessä tarkoitettu myös ”laskentakäyttöön”, jonka rasitus on usein ihan toisenlaista kuin peleissä.

Mutta toki silloin ei ajeta tuhansia fps:iä rasterointipipelinen läpi.
 
Ite huomannut nyt kun pelannut new worldia että oma 1080 alkaa sirisemään menussa, missään muussa pelissä en oo tätä huomannu. Loppuu heti kun menee itse peliin.
 
Tästä syystä itselläni on NVIDIAN hallintapaneelista laitettu ajuritason framerate cap aina päälle 240fps, jotta kortti ei kiihdytä missään tilanteessa tuon ohi. Ongelma tietty tässä on se, että NVIDIAN ajuripäivitykset välillä nollaavat mitään käyttäjälle kertomatta kaikki asetukset eikä aina päivityksen jälkeen muista käydä tarkistamassa ovatko asetukset nollaantuneet.

Aina ei voi luottaa siihen, että pelinkehittäjät ovat rajoittaneet framerateja järkeville tasoille.
 
RTX 3090 ylikellotusketjusta löytyi mielenkiintoinen havainto FTW3 ULTRA 3090 kortilla ja 1000W BIOS:lla muutaman kuukauden takaa. Kuormittaessa kortti on kestänyt vähän vajaa 1000W kulutuksen mutta jossain latausruudussa kuitenkin kärähtänyt. Tämä viittaisi unbalanced power rail ongelmaan. Eli MSVVD:tä saatetaan kuormittaa jonkin datasiirron aikana niin paljon, että kortti ei kestä.

Mielenkiintoista. Saako noihin kortteihin 10 kW bioksia jos innostuisi tosissaan pelaamaan :) Täytyis varmaan sulaketauluakin modata jämerämmäksi.
 
Tästä syystä itselläni on NVIDIAN hallintapaneelista laitettu ajuritason framerate cap aina päälle 240fps, jotta kortti ei kiihdytä missään tilanteessa tuon ohi. Ongelma tietty tässä on se, että NVIDIAN ajuripäivitykset välillä nollaavat mitään käyttäjälle kertomatta kaikki asetukset eikä aina päivityksen jälkeen muista käydä tarkistamassa ovatko asetukset nollaantuneet.

Aina ei voi luottaa siihen, että pelinkehittäjät ovat rajoittaneet framerateja järkeville tasoille.
Ainakaan Windows Centralin raportin mukaan FPS-capit ei ole auttaneet New Worldin ongelmissa
 
Oli tuolla new wordlin omalla foorumilla kitinää, miten 3800x ja iso kattaus inteleitä huitoi noin 95-98c lämmöissä vesijäähylläkin. Ynnä kommentteja, miten kortit ottaa kovempia lämpöjä, mitä on saatu aikaan furmarkilla tai millään rasitustestillä, jolla kellotusta on testattu. Crysis taisi viimein kohdata voittajansa.
 
Oli tuolla new wordlin omalla foorumilla kitinää, miten 3800x ja iso kattaus inteleitä huitoi noin 95-98c lämmöissä vesijäähylläkin. Ynnä kommentteja, miten kortit ottaa kovempia lämpöjä, mitä on saatu aikaan furmarkilla tai millään rasitustestillä, jolla kellotusta on testattu. Crysis taisi viimein kohdata voittajansa.
Tuo pelimoottori muuten perustuu nimenomaan CryEngineen :hmm:
 

Uusimmat viestit

Statistiikka

Viestiketjuista
258 645
Viestejä
4 494 637
Jäsenet
74 265
Uusin jäsen
Oranta

Hinta.fi

Back
Ylös Bottom