Virallinen: NVIDIA vs AMD (vs Intel) keskustelu- ja väittelyketju

  • Keskustelun aloittaja Keskustelun aloittaja Sampsa
  • Aloitettu Aloitettu
Jep, mikä näyttää paremmalta kuin natiivi, esim death strandingissä.
Jonkun silmään voi näyttää, toisen silmään ei. Myös Death Strandingissa esiintyy DLSS:lle tyypillisiä artifakteja, unohtamatta täysin rikki meneviä asioita kuten pyrstötähtilinnut.
 
No siis eiks ne framet oo nimenomaan paremmat aidolla 4k:lla. Frame rate sit eri asia.
Taisin vastata säteenseurannan vähättelyyn.
Ihan pelattavat framet tarjolla karkista tinkimättä.
Jonkun silmään voi näyttää, toisen silmään ei. Myös Death Strandingissa esiintyy DLSS:lle tyypillisiä artifakteja, unohtamatta täysin rikki meneviä asioita kuten pyrstötähtilinnut.
Huomasitko sanan optio, sitä voi käyttää halutessaan. Sit jos alkaa oksettaa ja päätäkin särkee toi dlss yliherkyys, niim voi vaikka pumittaa perinteisesti.
Vituttaa ne dlss:n ringing ja halo efektit ihan saatanasti :mad:
Ikäviä kyllä nämä tälläiset
 
Jonkun silmään voi näyttää, toisen silmään ei. Myös Death Strandingissa esiintyy DLSS:lle tyypillisiä artifakteja, unohtamatta täysin rikki meneviä asioita kuten pyrstötähtilinnut.
Olitko jo ihan itse pelaillut noita paljonkin?
 
En rehellisesti (neljä AMD:n näytönohjainta peräjälkeen ostaneenakaan) jaksa uskoa. Rasterointi voi olla aika ok. Hinta ja virrankulutus voivat olla ok. Mutta se RT tulee niin varmasti olemaan joku kädenlämpöinen yritys. AMD:n mantra on aina "ihan hyvä vaihtoehto, jos et tarvitse --".

AMD:n RT voi olla ihan vertailukelpoista koska novideolla RT kun otetaan käyttöön niin se on heti pois shader tehoista koska RT-coret ja Tensor-coret on riippuvaisia siitä virtabudjetista joka kortilla on. Eli heti kun aletaan rouskuttaa RT-coreilla, niin shader teho tippuu. Ja siihen kun lisätään Tensor-coret niin shader teho tippuu entisestään.
En muista mikä saitti se oli joka tätä oli testannut, mutta 3080 hörppäsi 320W ilman RT ja DLSS, kun heitettiin RT päälle niin haukkasi edelleen 320W ja suorituskyky sakkasi rajusti. Sitten kun laitettiin DLSS myös päälle niin saatiin suorituskykyä ja hattiwatteja meni edelleen se 320W.
Eli novideon kortilla shadereitä ei pystytä käyttämään läheskään 100% kun noita RT ja Tensor coreja käytetään.
Jos vaikka nvidialla katoaa 40% shader tehosta, niin AMD voi about sen saman 40% shadereistä valjastaa RT käyttöön. Eli voi olla hyvinkin että AMD:n RT suorituskyky tulee olemaan pitkälti samanlainen tuhnu kuin nyt on nähty nvidialta.

Itsehän odotin että 2080Ti:n RT suorituskyky vähintäänkin olisi tuplattu, mutta niin ei nyt kuitenkaan käynyt joten odotellaan sitten seuraavaa näyttis sukupolvea josko siellä alkaisi olla riittävästi puhtia. Kyllä tuolla 3080 jotain jo pyörittelee, mutta kun se RT pitäisi saada toimimaan myös niillä kaikkein yleisimmillä korteilla riittävän hyvin, eli niillä tulevilla 3060 tason korteilla ja se on täysin selvää että niissä RT suorituskyky ei tule riittämään mihinkään.

Käyttäjän kannalta mitään väliä, paneelille tulee 4k:ta.
Sitä voi tietty suurennelle ruutukauppauksista mikroskoopilla, mutta todellisuudessa melko amazing optio;)

On se mahtava kun jopa minun puusilmillä näkee DS:ssä miten se DLSS paskoo esim. veden.
 
Mitkä ajurit? Voisitko olla spesifimpi. Itse en kokemusasiantuntijana ole mitään huomannut koskaan.
Tsiigasin
kikegoggle.png
microscope.png
https://www.amd.com/en/support/kb/release-notes/rn-rad-win-20-7-2
Ja ongelmaketkusta et ihan kuraa on.
Hokasikko pointin.
 
Miksi pitäisi olla ”kokemusasiantuntija” jotta voisi keskustella asioista asiaperäisesti?
Lähinnä, kun viestien sävy on ”tekniikka on täysin käyttökelvoton koska artifaktit” ja on jo valmiiksi dumattu täysin paskaksi (ei siis vain keskustella mahdollisista ongelmista, vaan valmiiksi jo tehty mielipide) vaikka ei ole mitään kokemusta käytännössä. Hienosti poterouduttu omiin mielipiteisiin ja anti keskustelulle on siinä vaiheessa melko heikkoa.
 
Itseäni kyllä kiinnostaa AMD:n seuraava julkaisu. Nvidia toi juuri markkinoille (paperijulkaisu) tappiinsa asti kellotetut kortit pienillä muisteilla. Hintaa hilattu alas tekemällä korteista muistirajoitteisia. Nurkan takana odottaa 20GB 3080 ja 16GB 3070. Ehkä Nvidia on ottanut oppia 1080ti ajoilta, jolloin julkaisivat AMD peloissaan liian tehokkaan kortin markkinoille ja nyt tunnustelevat jäätä näillä korteilla, jotka ovat oletusarvoisesti liian pienillä muisteilla. Jos AMD tuo markkinoille järkevään hintaan tehokkaan ja isolla muistilla varustetun kortin, Nvidian on pakko julkaista 3080 ja 3070 malleista isommalla muistilla olevat versiot. Mikäli AMD pitää hinnan alhaalla, Nvidian uudet kortit ilman muistirajoituksia tulevat olemaan hinnaltaan järkeviä. Näin ollen en itse uskaltaisi ostaa Nvidian näyttistä atm, koska muistirampautetut kortit tulevat katoamaan markkinoilta ennemmin tai myöhemmin.
 
Itseäni kyllä kiinnostaa AMD:n seuraava julkaisu. Nvidia toi juuri markkinoille (paperijulkaisu) tappiinsa asti kellotetut kortit pienillä muisteilla.

Eipä ollut paperijulkaisu, tai sitten kaikki uuden arkkitehtuurin julkaisut ovat olleet paperijulkaisuja.
Gamers nexus selvitti asiaa ja nVidian oma lausunto oli että kortteja toimitettiin "saman verran kuin yleensäkin julkaisussa" ja AIB:t kommentoivat myös, että ne ovat saaneet piirejä ennen julkaisua saman verran kuin RTX 2000-sarjan kanssa pari vuotta sitten.

Nyt vaan on ollut historina kovin kysyntä uudella näyttissukupolvella ja kun normaalistikin kortit loppuvat muutamaksi päiväksi - viikoksi alun ostoryntäyksessä niin nyt tilanne on se, että ne ovat loppu useamman viikon.
 
Itseäni kyllä kiinnostaa AMD:n seuraava julkaisu. Nvidia toi juuri markkinoille (paperijulkaisu) tappiinsa asti kellotetut kortit pienillä muisteilla. Hintaa hilattu alas tekemällä korteista muistirajoitteisia. Nurkan takana odottaa 20GB 3080 ja 16GB 3070. Ehkä Nvidia on ottanut oppia 1080ti ajoilta, jolloin julkaisivat AMD peloissaan liian tehokkaan kortin markkinoille ja nyt tunnustelevat jäätä näillä korteilla, jotka ovat oletusarvoisesti liian pienillä muisteilla. Jos AMD tuo markkinoille järkevään hintaan tehokkaan ja isolla muistilla varustetun kortin, Nvidian on pakko julkaista 3080 ja 3070 malleista isommalla muistilla olevat versiot. Mikäli AMD pitää hinnan alhaalla, Nvidian uudet kortit ilman muistirajoituksia tulevat olemaan hinnaltaan järkeviä. Näin ollen en itse uskaltaisi ostaa Nvidian näyttistä atm, koska muistirampautetut kortit tulevat katoamaan markkinoilta ennemmin tai myöhemmin.
Mitä sää sillä muistilla teet, kaistaa ja raakaa tehoa sä tarttet.
 
Kyllä se 10GB riittää vielä pitkäksi aikaa jos ei 4k resolla pelaa. Ja tällä hetkellä 4K:lle riittää myös.
Näimpä, sithän sen näkee kun huippumallit tulee isommalla muistilla. Hintaerokin voi olla sitä luokkaa, että sama päivittää joskus tulevaisuudessa tarpeeseen. Ja silloin voi olla jo muutenkin näpäkämpää tarjolla.
 
Mitä sää sillä muistilla teet, kaistaa ja raakaa tehoa sä tarttet.
En varmaan mitään. Hassua vaan on se, että jos AMD tuo markkinoille 16GB kortit niin Nvidian on pakko reagoida. Sitten kun näiden "parempien" korttien muistit on min. 16GB, niin se määrittää uuden normin markkinoille. Veikkaan, että 10GB 3080 kohtalo on sama kuin 2080ti korttien. Tosin sillä erotuksella, että 2080ti piti arvonsa hyvin 2 vuotta.
 
En varmaan mitään. Hassua vaan on se, että jos AMD tuo markkinoille 16GB kortit niin Nvidian on pakko reagoida. Sitten kun näiden "parempien" korttien muistit on min. 16GB, niin se määrittää uuden normin markkinoille. Veikkaan, että 10GB 3080 kohtalo on sama kuin 2080ti korttien. Tosin sillä erotuksella, että 2080ti piti arvonsa hyvin 2 vuotta.
Entä jos AMD:n kortti ei yllä tehoissa lähellekään 3080:kymppistä? ;)
 
Entä jos AMD:n kortti ei yllä tehoissa lähellekään 3080:kymppistä? ;)
Juuri siksi Nvidia julkaisi nämä muistirammat. Ei tarvi edes julkaista 20GB versiota, jos AMD sössii big navinsa :D. Nvidian käyttäytymisestä kumminkin voimme päätellä, että AMD:ltä voi tulla jotain järkevää ulos. Jos Nvidia olisi 100% varma, että AMD ei pysty vastaamaan kilpailuun, 10GB 3080 olisi hinnaltaan 1200-1300e.
 
En varmaan mitään. Hassua vaan on se, että jos AMD tuo markkinoille 16GB kortit niin Nvidian on pakko reagoida. Sitten kun näiden "parempien" korttien muistit on min. 16GB, niin se määrittää uuden normin markkinoille. Veikkaan, että 10GB 3080 kohtalo on sama kuin 2080ti korttien. Tosin sillä erotuksella, että 2080ti piti arvonsa hyvin 2 vuotta.
Eiköhän noi ole ihan aikataulutettu noin, aina tulee piristetty malli.
 
Juuri siksi Nvidia julkaisi nämä muistirammat. Ei tarvi edes julkaista 20GB versiota, jos AMD sössii big navinsa :D. Nvidian käyttäytymisestä kumminkin voimme päätellä, että AMD:ltä voi tulla jotain järkevää ulos. Jos Nvidia olisi 100% varma, että AMD ei pysty vastaamaan kilpailuun, 10GB 3080 olisi hinnaltaan 1200-1300e.
Tai sitten vaihtoehtoisesti GA102 on Samsungin prosessilla halpaa kuin saippua ja kapasiteettia on tarjolla niin paljon, että on kannattavampaa myydä kortteja useammalle asiakkaalle halvemmalla, kuin kaupata sille 1% (RTX 2080 Ti osuus Steam Hardware Surveyssa) varakkaimmista PC-pelaajista?
 
Tai sitten vaihtoehtoisesti GA102 on Samsungin prosessilla halpaa kuin saippua ja kapasiteettia on tarjolla niin paljon, että on kannattavampaa myydä kortteja useammalle asiakkaalle halvemmalla, kuin kaupata sille 1% (RTX 2080 Ti osuus Steam Hardware Surveyssa) varakkaimmista PC-pelaajista?
Epäilen vahvasti. Ja ei ne 750-1000e korttien omistajatkaan ole mikään massa steamissä. Kuuluvat siihen samaan varakkaiden pelaajien pieneen ryhmään.
 
Epäilen vahvasti. Ja ei ne 750-1000e korttien omistajatkaan ole mikään massa steamissä. Kuuluvat siihen samaan varakkaiden pelaajien pieneen ryhmään.
Tuleehan sieltä muutakin. Täs mää kehittämässä uutta arkkitehtuuria minimi parannuksin, jolloin myynnitkin on pienempiä, kun ei tule sitä tarvetta päivittää.
Nyt on mihin päivittää ja varmasti kauppa käy.
 
Asiaperäisesti noi radeonin ajurit on ihan täyttä shaibaa

Ja mun mielestä noi nvidian ajurit on ihan täyttä shaibaa

Tsiigasin
kikegoggle.png
microscope.png
https://www.amd.com/en/support/kb/release-notes/rn-rad-win-20-7-2
Ja ongelmaketkusta et ihan kuraa on.
Hokasikko pointin.

Mä tsiigazin kanssa https://us.download.nvidia.com/Windows/456.38/456.38-win10-win8-win7-release-notes.pdf

Hirmu lista ongelmia eli täyttä kuraa on.
Hokasitko pointin?
 

Kyllä se on joku muu joka ei tajuu. Mitään muuta et ole tehnyt kuin räksyttänyt miten sontaa AMD:n ajurit on, muttet ole onnistunut mitenkään todistamaan että näin on. Linkkaat jotain ajuririen muutos logeja ja senkin feilaat niin että linkattu ajuri on jo pari kuukautta vanha.

Todennäköisesti et edes omaa mitään kokemusta AMD:n ajureista vaan louskutat täällä ihan vain huvikseen. Itse voin sanoa että ei ole mitään kokemusta nvidian ajureista yli 10v joten en ota kantaa miten ne toimii mutta jos käytetään ajurien muutoslogeja todistelun pohjana niin voidaan todeta että ongelmattomia ajureita ei ole kummallakaan.
 
Provoilu / nollapostaukset
Kyllä se on joku muu joka ei tajuu. Mitään muuta et ole tehnyt kuin räksyttänyt miten sontaa AMD:n ajurit on, muttet ole onnistunut mitenkään todistamaan että näin on. Linkkaat jotain ajuririen muutos logeja ja senkin feilaat niin että linkattu ajuri on jo pari kuukautta vanha.

Todennäköisesti et edes omaa mitään kokemusta AMD:n ajureista vaan louskutat täällä ihan vain huvikseen. Itse voin sanoa että ei ole mitään kokemusta nvidian ajureista yli 10v joten en ota kantaa miten ne toimii mutta jos käytetään ajurien muutoslogeja todistelun pohjana niin voidaan todeta että ongelmattomia ajureita ei ole kummallakaan.
Kiitos.
 
Itse oli kyllä positiivinen ylläri nuo AMD ajurit. Pariin vuoteen en ollut koittanut pelata vegalla ja nythän tällä jo pystyy :asif:
Välillä vähän MustaRuttu, mut suorituskyvyn puolesta 4/5 :cigar:
 
AMD:n ajureissa ongelmat ovat olleet lähinnä että ne kannattaa poistaa erillisellä sovelluksella turvamoodissa. Tuntuvat jättävän jonkin verran tauhkaa jälkeensä.

Itse toimivuudessa ei itselläni vanhemmilla korteilla ole ollut AMD:llä ongelmaa. Jos 1060 ja 290x kortteja vertaa niin NVIDIAn väri ja resoluutio tiedot ei tahdo toimia vahvistimen läpi oikein. Resoluutiota pitää skaalata kun koko kuva ei mahdu ruudulle (vahvistimeen 1080p -> 4k telkkarille) eli se jostain syystä sössii jonkun kuvatiedon joten resoluutiota pitää erikseen manuaalisesti säätää hivenen pienemmäksi. Sen lisäksi HDR ei toimi oikein, eli jos se asettaa windowssissa päälle niin Steam sovellus ja videotiedostot ovat todella haalealla vaikka pelit toimivat ok. Vaikka värimoodin asettaa käsin niin silti suspendista kun herätään niin vahvistimen kautta ruutu pysyy pimeänä silloin tällöin. Pääsääntöisesti homma toimii kun koneen buuttaa kokonaan alusta asti käyntiin, mutta olohuonekoneessa tuo turhaa säätöä.

290x kortilla ei ole mitään näistä ongelmista, vaan värimäärityksen ja bittisyyden valinta pysyy, ruutu on koko ruudulla (ja skaalaus toimii oikein ) ja ruutu herää suspendin jälkeen aina oikein.

Vahvasti omien kokemusten mukaan AMD:n ajurit ovat siis paremmat. Siksi näissä ajurikysymyksiä kun käydään läpi niin aina muistetaan haukkua AMD:n ajureita. Jos jossain on ongelmaa ne ovat lähinnä pienestä markkinaosuudesta osittain johtuvia (NVIDIA on se kortti jota vastaan kortit testataan), ajurien uusien ominaisuuksien tuonnissa (ongelmarypäs XT korteilla johtui pitkälle tuosta) ja siitä että ajureista saattaa jäädä vanhaa tauhkaa jäljelle (siksi ddu tapaiset työkalut ovat tarpeen vaikka näin ei tietty pitäisi olla). Sanalla sanoen resurssiongelmia ollut.
 
AMD:n RT voi olla ihan vertailukelpoista koska novideolla RT kun otetaan käyttöön niin se on heti pois shader tehoista koska RT-coret ja Tensor-coret on riippuvaisia siitä virtabudjetista joka kortilla on. Eli heti kun aletaan rouskuttaa RT-coreilla, niin shader teho tippuu. Ja siihen kun lisätään Tensor-coret niin shader teho tippuu entisestään.
En muista mikä saitti se oli joka tätä oli testannut, mutta 3080 hörppäsi 320W ilman RT ja DLSS, kun heitettiin RT päälle niin haukkasi edelleen 320W ja suorituskyky sakkasi rajusti. Sitten kun laitettiin DLSS myös päälle niin saatiin suorituskykyä ja hattiwatteja meni edelleen se 320W.
Eli novideon kortilla shadereitä ei pystytä käyttämään läheskään 100% kun noita RT ja Tensor coreja käytetään.
Jos vaikka nvidialla katoaa 40% shader tehosta, niin AMD voi about sen saman 40% shadereistä valjastaa RT käyttöön. Eli voi olla hyvinkin että AMD:n RT suorituskyky tulee olemaan pitkälti samanlainen tuhnu kuin nyt on nähty nvidialta.
Tuossa on sulla sellainen massiivinen ajatusvirhe, että oletat energiatehokkuuden olevan sama, kun säteenjäljitystä tehdään dedikoiduilla yksiköillä, kuin mitä se olisi shadereilla tehdessä.
 
Jos shadereilla framen laskemiseen menee 10 ms ja seuraavaksi pyydetäänkin laittamaan efektit joissa RT-laskentaan menee 20 ms, frame rate putoaa puoleen ja tuon toisen 10 ms shadereille ei ole juuri hyödyllistä työtä. Silloin tehonkulutuksesta ei voida suoraan päätellä että teho rajoittaisi kortin toimintaa ilman tarkempaa tietoa siitä miten laskenta-aika kortin sisällä rakentuu. Pelin/testin ja sen eri asetusten vaikutus tuleekin mahdollisesti vaihtelemaan eri näytönohjaimilla huomattavasti.

Tuon suhteen voimmekin ensi vuonna nähdä aika mielenkiintoisia eroja AMD:n ja Nvidian korttien välillä kun hyvin konsoleille optimoitujen kenties hieman kevyempien RT-ominaisuuksien voisi kuvitella sopivan AMD:n korteille erittäin hyvin. Jos spekulaatiot siitä että AMD ei kykene vielä täysin vastaamaan RT-puolella Nvidialle, voisi sitten ns. state of the art engineissä jotka on kehitetty ottamaan PC:llä kaikki koneesta irti voisivat olla edullisempia Nvidialle.
 
Saksan kieli ei ole mulle auennut vieläkään joten mitäs tuossa jutussa kerrotaan?
Että lukuisilla eri foorumeilla RTX 3080 -käyttäjät ovat huomanneet kaatumisia kun GPU:n kellotaajuus nousee yli 2 GHz:n, minkä se tekee monissa tapauksissa vakiona.
Linkatut keskustelut:

Toistaiseksi toimivaksi hätäpaikaksi on todettu laittaa -100 MHz offsetillä GPU:lle
 
MSI Ventus 3X OC näyttää olevan pahimmissa ongelmissa, mutta ei ainut malli joka on kaatuillut.

Liekkö noita vaan ollut eniten saatavilla vai oisko et MSI on kädettänyt pahasti jännitteiden kanssa ja muut vähän vähemmän?
 
Msi Triot(3kpl)ei ainakaan +2000mhz kelloilla kaatuillut..
Kokeiltu myös pienimmällä powerilla joka täältä iteltä löytyy eli Asuksen 750w "on siis periaatteessa Focus+ asuksen moodaamalla jäähdytyksellä"
Mutta eipä saa kipattua millään rasitus testilläkään..

Ventusta olisi mielenkiintoista kokeilla saisiko sen kippaamaan kun kellot +2k ja virtalähteenä Super Flower 2000W Platinum.
 
MSI Ventus 3X OC näyttää olevan pahimmissa ongelmissa, mutta ei ainut malli joka on kaatuillut.

Liekkö noita vaan ollut eniten saatavilla vai oisko et MSI on kädettänyt pahasti jännitteiden kanssa ja muut vähän vähemmän?

Ventuksia varmaan on aika hyvin ollut saatavilla. Monessa näistä ongelmista on kyse kädettömyydestä, mutta on siellä varmasti oikeitakin vikoja pohjalla.

Koputan puuta, mutta oma Ventus OC on toiminut hyvin, kilowatin virtalähteen kanssa.
 

RTX 3080:t kaatuilee oikeella ja vasemmalla minkä ehtivät :hammer:
Eiköhän tuo ole vain huomattavasti paisuteltu ongelma. Varmasti suurin osa korteista toimii ongelmitta ja muutama viallinen vain pitää älämölöä. Mitään faktaahan ongelman yleisyydestä ei ole.
 
Jos avaat sen Chromella sen selaimen pitäisi tarjota kääntää se teksti kokonaan englanniksi. Sillä itse sen luin. Siinä luki, että monella käyttäjälle pelit kaatuu ja dumppaa työpöydälle. Silloin kun GPU kellotaajuus buustailee jossain 2+GHz. Kuitenkin sanovat ettei olisi ylikellottaneet. Ja joku ohje oli laskea GPU kelloja 100Mhz että ei kaatuisi.

Noh, muut voinee summata paremmin ja korjata virheeni. Mutta Chromella noita lueskelen, vaikka en muuten sitä käytäkään niin tuo integrointu Google translate toimii tuohon.

Videocardz teki computerbasen jutusta artikkelin ihan englanniksi:

ComputerBase has provided a quick overview of what users are reporting. At LinusTechTips forums users are reporting problems with ZOTAC GeForce RTX 3080 Trinity. Owners of MSI GeForce RTX 3080 Ventus 3X OC are also noticing this type of behavior, a thread on Overclockers.co.uk seems to suggest. Even on ComputerBase’s own forums, there are threads describing the same problem.

The threads also mention other custom boards such as MSI Gaming Trio or EVGA’s. You can find them on NVIDIA forums, Tom’s Hardware forums, Tweakers, and also Reddit.

The problem
This now clearly widespread, but still unexplored issue appears in a certain group of games when the boost clock exceeds 2.0 GHz. As soon as the clock speeds reach a certain level, the game crashes to desktop.

There is currently no official statement from any board partner, but ComputerBase has confirmed that they are in contact with the manufacturers. They were unable to reproduce this issue with at least three of the custom models they have.

It is currently unclear what is causing this problem. Whether this is a power supply issue, software bug, or maybe even too aggressive factory-overclocking from custom board partners, it is yet to be confirmed.

The solution
At the time of writing, there were no official solutions to this problem. However, if you are experiencing such issues with crashing in games at higher clock speeds it is recommended to manually downclock the GPU by 50 to 100 MHz. Undervolting may also be recommended, but this requires MSI Afterburner 4.6.3 Beta 2 (available here).
 
Jokuhan väitti, että 3080 tekisi hyvin nopeita ja kovia piikkejä tehonkulutukseen ja aiheuttaisi niiden takia ongelmia jos ne menevät poweri kestokyvyn yli. Väitteen mukaan juuri siksi tuolle 3080 suositeltaisiin niin isoa poweria kuin suositellaan. Tavalliset tehonkulutusmittarit ovat kuulema liian hitaita noiden piikkien näkemiseen
 
Jokuhan väitti, että 3080 tekisi hyvin nopeita ja kovia piikkejä tehonkulutukseen ja aiheuttaisi niiden takia ongelmia jos ne menevät poweri kestokyvyn yli. Väitteen mukaan juuri siksi tuolle 3080 suositeltaisiin niin isoa poweria kuin suositellaan. Tavalliset tehonkulutusmittarit ovat kuulema liian hitaita noiden piikkien näkemiseen

Se voi olla, tai sitten binnaus on pettänyt ja kortit ei vain kestä niin kovia kelloja. Veikkaisin kyllä tuota virtapiikkiä.

Igorslab teki aikanaan noita mittauksia ja kyllä sellainen tulee vielä 3080:sta. Esim se parjattu 5700XT teki 1ms 328W piikkejä powerlimit tapissa, jotka voi olla liikaa 550W powerin pelikoneelle, jos prosu on kellotettu tai poweri on ikääntynyt.

Vega64, 1080TI ja 2080TI löytyivätkin kivasti kuvasta. Noilla powerlimiteillä on todellakin viive, jonka jälkeen ne reagoivat.

Capture.PNG


Edit: tekstiä poistettu, kun löytyi kuva joka kertoo saman asian paremmin.
 
Viimeksi muokattu:
Se voi olla, tai sitten binnaus on pettänyt ja kortit ei vain kestä niin kovia kelloja. Veikkaisin kyllä tuota virtapiikkiä.

Igorslab teki aikanaan noita mittauksia ja kyllä sellainen tulee vielä 3080:sta. Esim se parjattu 5700XT teki 1ms 328W piikkejä powerlimit tapissa, jotka voi olla liikaa 550W powerin pelikoneelle, jos prosu on kellotettu tai poweri on ikääntynyt. Vega 64:llä maksimit oli 420W ja 0.3ms, 1080TI 375W 0.4ms, 2080TI vetää hetkittäin myös 400W. 3080W olisi ainakin seasonicin mukaan piikeissä 500W luokkaa.
Joka tapauksessa on mielenkiintoista, että 3080FE korteilla ei kuulema tuota ongemaa ole
 
Joka tapauksessa on mielenkiintoista, että 3080FE korteilla ei kuulema tuota ongemaa ole

Tähän tosiaan tuli lainausta, jonka poistin viestistä, kun löytyi sen paremmin summaava kuva. Tuo 3080FE onkin mielenkiintoisempi, se kyllä vähän viittaisi siihen, että AIB:it ovat ruuvanneet kelloja inasen liian korkealle. No täytyy odottaa alkaako noita ilmestyä enemmänkin ja tuleeko ajureihin vain joku korjaus, vai joku näkyvämpi lausunto aiheesta.
 
Voi olla kyse useista ongelmista Tai niiden yhdistelmistä. Kyllähän Hardware Unboxedilla oli ongelmia F1 2019 pelin kanssa jota ei saatu testisettiin kun peli ei pysynyt pystyssä (3080 FE).
 
Pientä raakilemaisuutta ilmassa, eiköhän toikin kypsy alle puolessa vuodessa kuntoon.
 

Statistiikka

Viestiketjuista
259 451
Viestejä
4 512 628
Jäsenet
74 371
Uusin jäsen
garlicbun

Hinta.fi

Back
Ylös Bottom