Mitkä ajurit? Voisitko olla spesifimpi. Itse en kokemusasiantuntijana ole mitään huomannut koskaan.Asiaperäisesti noi radeonin ajurit on ihan täyttä shaibaa
Follow along with the video below to see how to install our site as a web app on your home screen.
Huomio: This feature may not be available in some browsers.
Mitkä ajurit? Voisitko olla spesifimpi. Itse en kokemusasiantuntijana ole mitään huomannut koskaan.Asiaperäisesti noi radeonin ajurit on ihan täyttä shaibaa
TsiigasinMitkä ajurit? Voisitko olla spesifimpi. Itse en kokemusasiantuntijana ole mitään huomannut koskaan.
Lähinnä, kun viestien sävy on ”tekniikka on täysin käyttökelvoton koska artifaktit” ja on jo valmiiksi dumattu täysin paskaksi (ei siis vain keskustella mahdollisista ongelmista, vaan valmiiksi jo tehty mielipide) vaikka ei ole mitään kokemusta käytännössä. Hienosti poterouduttu omiin mielipiteisiin ja anti keskustelulle on siinä vaiheessa melko heikkoa.Miksi pitäisi olla ”kokemusasiantuntija” jotta voisi keskustella asioista asiaperäisesti?
Itseäni kyllä kiinnostaa AMD:n seuraava julkaisu. Nvidia toi juuri markkinoille (paperijulkaisu) tappiinsa asti kellotetut kortit pienillä muisteilla.
Mitä sää sillä muistilla teet, kaistaa ja raakaa tehoa sä tarttet.Itseäni kyllä kiinnostaa AMD:n seuraava julkaisu. Nvidia toi juuri markkinoille (paperijulkaisu) tappiinsa asti kellotetut kortit pienillä muisteilla. Hintaa hilattu alas tekemällä korteista muistirajoitteisia. Nurkan takana odottaa 20GB 3080 ja 16GB 3070. Ehkä Nvidia on ottanut oppia 1080ti ajoilta, jolloin julkaisivat AMD peloissaan liian tehokkaan kortin markkinoille ja nyt tunnustelevat jäätä näillä korteilla, jotka ovat oletusarvoisesti liian pienillä muisteilla. Jos AMD tuo markkinoille järkevään hintaan tehokkaan ja isolla muistilla varustetun kortin, Nvidian on pakko julkaista 3080 ja 3070 malleista isommalla muistilla olevat versiot. Mikäli AMD pitää hinnan alhaalla, Nvidian uudet kortit ilman muistirajoituksia tulevat olemaan hinnaltaan järkeviä. Näin ollen en itse uskaltaisi ostaa Nvidian näyttistä atm, koska muistirampautetut kortit tulevat katoamaan markkinoilta ennemmin tai myöhemmin.
Kyllä se 10GB riittää vielä pitkäksi aikaa jos ei 4k resolla pelaa. Ja tällä hetkellä 4K:lle riittää myös.Mitä sää sillä muistilla teet, kaistaa ja raakaa tehoa sä tarttet.
Näimpä, sithän sen näkee kun huippumallit tulee isommalla muistilla. Hintaerokin voi olla sitä luokkaa, että sama päivittää joskus tulevaisuudessa tarpeeseen. Ja silloin voi olla jo muutenkin näpäkämpää tarjolla.Kyllä se 10GB riittää vielä pitkäksi aikaa jos ei 4k resolla pelaa. Ja tällä hetkellä 4K:lle riittää myös.
En varmaan mitään. Hassua vaan on se, että jos AMD tuo markkinoille 16GB kortit niin Nvidian on pakko reagoida. Sitten kun näiden "parempien" korttien muistit on min. 16GB, niin se määrittää uuden normin markkinoille. Veikkaan, että 10GB 3080 kohtalo on sama kuin 2080ti korttien. Tosin sillä erotuksella, että 2080ti piti arvonsa hyvin 2 vuotta.Mitä sää sillä muistilla teet, kaistaa ja raakaa tehoa sä tarttet.
Entä jos AMD:n kortti ei yllä tehoissa lähellekään 3080:kymppistä?En varmaan mitään. Hassua vaan on se, että jos AMD tuo markkinoille 16GB kortit niin Nvidian on pakko reagoida. Sitten kun näiden "parempien" korttien muistit on min. 16GB, niin se määrittää uuden normin markkinoille. Veikkaan, että 10GB 3080 kohtalo on sama kuin 2080ti korttien. Tosin sillä erotuksella, että 2080ti piti arvonsa hyvin 2 vuotta.
Juuri siksi Nvidia julkaisi nämä muistirammat. Ei tarvi edes julkaista 20GB versiota, jos AMD sössii big navinsaEntä jos AMD:n kortti ei yllä tehoissa lähellekään 3080:kymppistä?![]()
Eiköhän noi ole ihan aikataulutettu noin, aina tulee piristetty malli.En varmaan mitään. Hassua vaan on se, että jos AMD tuo markkinoille 16GB kortit niin Nvidian on pakko reagoida. Sitten kun näiden "parempien" korttien muistit on min. 16GB, niin se määrittää uuden normin markkinoille. Veikkaan, että 10GB 3080 kohtalo on sama kuin 2080ti korttien. Tosin sillä erotuksella, että 2080ti piti arvonsa hyvin 2 vuotta.
Tai sitten vaihtoehtoisesti GA102 on Samsungin prosessilla halpaa kuin saippua ja kapasiteettia on tarjolla niin paljon, että on kannattavampaa myydä kortteja useammalle asiakkaalle halvemmalla, kuin kaupata sille 1% (RTX 2080 Ti osuus Steam Hardware Surveyssa) varakkaimmista PC-pelaajista?Juuri siksi Nvidia julkaisi nämä muistirammat. Ei tarvi edes julkaista 20GB versiota, jos AMD sössii big navinsa. Nvidian käyttäytymisestä kumminkin voimme päätellä, että AMD:ltä voi tulla jotain järkevää ulos. Jos Nvidia olisi 100% varma, että AMD ei pysty vastaamaan kilpailuun, 10GB 3080 olisi hinnaltaan 1200-1300e.
Epäilen vahvasti. Ja ei ne 750-1000e korttien omistajatkaan ole mikään massa steamissä. Kuuluvat siihen samaan varakkaiden pelaajien pieneen ryhmään.Tai sitten vaihtoehtoisesti GA102 on Samsungin prosessilla halpaa kuin saippua ja kapasiteettia on tarjolla niin paljon, että on kannattavampaa myydä kortteja useammalle asiakkaalle halvemmalla, kuin kaupata sille 1% (RTX 2080 Ti osuus Steam Hardware Surveyssa) varakkaimmista PC-pelaajista?
Tuleehan sieltä muutakin. Täs mää kehittämässä uutta arkkitehtuuria minimi parannuksin, jolloin myynnitkin on pienempiä, kun ei tule sitä tarvetta päivittää.Epäilen vahvasti. Ja ei ne 750-1000e korttien omistajatkaan ole mikään massa steamissä. Kuuluvat siihen samaan varakkaiden pelaajien pieneen ryhmään.
Asiaperäisesti noi radeonin ajurit on ihan täyttä shaibaa
Tsiigasin
https://www.amd.com/en/support/kb/release-notes/rn-rad-win-20-7-2![]()
Ja ongelmaketkusta et ihan kuraa on.
Hokasikko pointin.
Sä et tajuuJa mun mielestä noi nvidian ajurit on ihan täyttä shaibaa
Mä tsiigazin kanssa https://us.download.nvidia.com/Windows/456.38/456.38-win10-win8-win7-release-notes.pdf
Hirmu lista ongelmia eli täyttä kuraa on.
Hokasitko pointin?
Sä et tajuu
Kiitos.Kyllä se on joku muu joka ei tajuu. Mitään muuta et ole tehnyt kuin räksyttänyt miten sontaa AMD:n ajurit on, muttet ole onnistunut mitenkään todistamaan että näin on. Linkkaat jotain ajuririen muutos logeja ja senkin feilaat niin että linkattu ajuri on jo pari kuukautta vanha.
Todennäköisesti et edes omaa mitään kokemusta AMD:n ajureista vaan louskutat täällä ihan vain huvikseen. Itse voin sanoa että ei ole mitään kokemusta nvidian ajureista yli 10v joten en ota kantaa miten ne toimii mutta jos käytetään ajurien muutoslogeja todistelun pohjana niin voidaan todeta että ongelmattomia ajureita ei ole kummallakaan.
Tuossa on sulla sellainen massiivinen ajatusvirhe, että oletat energiatehokkuuden olevan sama, kun säteenjäljitystä tehdään dedikoiduilla yksiköillä, kuin mitä se olisi shadereilla tehdessä.AMD:n RT voi olla ihan vertailukelpoista koska novideolla RT kun otetaan käyttöön niin se on heti pois shader tehoista koska RT-coret ja Tensor-coret on riippuvaisia siitä virtabudjetista joka kortilla on. Eli heti kun aletaan rouskuttaa RT-coreilla, niin shader teho tippuu. Ja siihen kun lisätään Tensor-coret niin shader teho tippuu entisestään.
En muista mikä saitti se oli joka tätä oli testannut, mutta 3080 hörppäsi 320W ilman RT ja DLSS, kun heitettiin RT päälle niin haukkasi edelleen 320W ja suorituskyky sakkasi rajusti. Sitten kun laitettiin DLSS myös päälle niin saatiin suorituskykyä ja hattiwatteja meni edelleen se 320W.
Eli novideon kortilla shadereitä ei pystytä käyttämään läheskään 100% kun noita RT ja Tensor coreja käytetään.
Jos vaikka nvidialla katoaa 40% shader tehosta, niin AMD voi about sen saman 40% shadereistä valjastaa RT käyttöön. Eli voi olla hyvinkin että AMD:n RT suorituskyky tulee olemaan pitkälti samanlainen tuhnu kuin nyt on nähty nvidialta.

Saksan kieli ei ole mulle auennut vieläkään joten mitäs tuossa jutussa kerrotaan?![]()
GeForce RTX 3080: Inhaber berichten vermehrt von Abstürzen in Spielen
Viele Interessenten warten noch auf die Möglichkeit, eine RTX 3080 überhaupt kaufen zu können, da berichten erste Inhaber von Problemen.www.computerbase.de
RTX 3080:t kaatuilee oikeella ja vasemmalla minkä ehtivät![]()
Että lukuisilla eri foorumeilla RTX 3080 -käyttäjät ovat huomanneet kaatumisia kun GPU:n kellotaajuus nousee yli 2 GHz:n, minkä se tekee monissa tapauksissa vakiona.Saksan kieli ei ole mulle auennut vieläkään joten mitäs tuossa jutussa kerrotaan?
MSI Ventus 3X OC näyttää olevan pahimmissa ongelmissa, mutta ei ainut malli joka on kaatuillut.
Liekkö noita vaan ollut eniten saatavilla vai oisko et MSI on kädettänyt pahasti jännitteiden kanssa ja muut vähän vähemmän?
Eiköhän tuo ole vain huomattavasti paisuteltu ongelma. Varmasti suurin osa korteista toimii ongelmitta ja muutama viallinen vain pitää älämölöä. Mitään faktaahan ongelman yleisyydestä ei ole.![]()
GeForce RTX 3080: Inhaber berichten vermehrt von Abstürzen in Spielen
Viele Interessenten warten noch auf die Möglichkeit, eine RTX 3080 überhaupt kaufen zu können, da berichten erste Inhaber von Problemen.www.computerbase.de
RTX 3080:t kaatuilee oikeella ja vasemmalla minkä ehtivät![]()
Jos avaat sen Chromella sen selaimen pitäisi tarjota kääntää se teksti kokonaan englanniksi. Sillä itse sen luin. Siinä luki, että monella käyttäjälle pelit kaatuu ja dumppaa työpöydälle. Silloin kun GPU kellotaajuus buustailee jossain 2+GHz. Kuitenkin sanovat ettei olisi ylikellottaneet. Ja joku ohje oli laskea GPU kelloja 100Mhz että ei kaatuisi.
Noh, muut voinee summata paremmin ja korjata virheeni. Mutta Chromella noita lueskelen, vaikka en muuten sitä käytäkään niin tuo integrointu Google translate toimii tuohon.
Jokuhan väitti, että 3080 tekisi hyvin nopeita ja kovia piikkejä tehonkulutukseen ja aiheuttaisi niiden takia ongelmia jos ne menevät poweri kestokyvyn yli. Väitteen mukaan juuri siksi tuolle 3080 suositeltaisiin niin isoa poweria kuin suositellaan. Tavalliset tehonkulutusmittarit ovat kuulema liian hitaita noiden piikkien näkemiseen
Joka tapauksessa on mielenkiintoista, että 3080FE korteilla ei kuulema tuota ongemaa oleSe voi olla, tai sitten binnaus on pettänyt ja kortit ei vain kestä niin kovia kelloja. Veikkaisin kyllä tuota virtapiikkiä.
Igorslab teki aikanaan noita mittauksia ja kyllä sellainen tulee vielä 3080:sta. Esim se parjattu 5700XT teki 1ms 328W piikkejä powerlimit tapissa, jotka voi olla liikaa 550W powerin pelikoneelle, jos prosu on kellotettu tai poweri on ikääntynyt. Vega 64:llä maksimit oli 420W ja 0.3ms, 1080TI 375W 0.4ms, 2080TI vetää hetkittäin myös 400W. 3080W olisi ainakin seasonicin mukaan piikeissä 500W luokkaa.
Joka tapauksessa on mielenkiintoista, että 3080FE korteilla ei kuulema tuota ongemaa ole
Taisit kuvailla juuri Chernobylin onnettomuudenJostain olin kuulevinani, että asia liittyisi virranhallintaan ja tehorajoihin.
Jotain sen tyylistä, että ensiksi kortti hakkaa tehorajoja vasten ja pudottaa tehoja, mutta tämän jälkeen reagoi liian nopeasti vapautuneeseen tehoreserviin ja heittää GPU:lle liikaa jerkkua, jolloin ylitetään piirin sisäiset turvarajat ja kaatuu koko vehe.
Toivottavasti oli tarpeeksi sekavasti selitetty.
Jos jostain edes tuon suuntaisesta on kyse, niin vian pitäisi olla onneksi softapäivityksellä korjattavissa.
Joka tapauksessa on mielenkiintoista, että 3080FE korteilla ei kuulema tuota ongemaa ole
Myös 3080 FE -malleilla on samaa ongelmaa.Tähän tosiaan tuli lainausta, jonka poistin viestistä, kun löytyi sen paremmin summaava kuva. Tuo 3080FE onkin mielenkiintoisempi, se kyllä vähän viittaisi siihen, että AIB:it ovat ruuvanneet kelloja inasen liian korkealle. No täytyy odottaa alkaako noita ilmestyä enemmänkin ja tuleeko ajureihin vain joku korjaus, vai joku näkyvämpi lausunto aiheesta.
I'm using a 3080 FE, at first I played multiple games no issues. But then I started getting crashes and monitor flickering/instability. Underclocked via the Nvidia Tuner a bit and it seems to be helping during all the tests/games I've tried so far. Hopefully this can be addressed in the future without having to undervolt / underclock out of the box.
Eiköhän tuo nyt ole edelleen paisuteltua ongelmaa. Odotellaan niitä oikeita faktoja ennen kuin lähdetään ihan hirveästi huutelemaan.Myös 3080 FE -malleilla on samaa ongelmaa.
Mutta noita ongelmia on vissiin postattu vähän joka foorumille eli se tuskin on tuulesta temmattua. Se mikä sen laajuus on onkin sitten jo eri asia. Joka tapauksessa tuo on huonoa mainosta nVidialle erityisesti kun markkinoita korteille olisi ainakin ollut. Olettaisin, että se korjataan heti kun pystytään jos sen biosilla tai ajureilla saa tehtyäEiköhän tuo nyt ole edelleen paisuteltua ongelmaa. Odotellaan niitä oikeita faktoja ennen kuin lähdetään ihan hirveästi huutelemaan.
AMD:n Frank Azor lupailee että AMD:n näyttisjulkaisu ei tule olemaan mikään paperlaunch
Eiköhän tuo nyt ole edelleen paisuteltua ongelmaa. Odotellaan niitä oikeita faktoja ennen kuin lähdetään ihan hirveästi huutelemaan.
Eiköhän nuo oikeasti ihan speksien mukaan rullaile. Nvidialla on kuitenkin paljon suurempi vastuu noissa FE-korteissa, eli aivan varmasti ovat kyllä lämmöt toleranssien ja speksien sisässä.Lisähupia tuli siitä, että micron postasi gddr6x speksit:
Operating temperature 0-95c.
Maksimisäilytyslämpötila (eli ilman sähköjä) on 120c.
Max tjunctionia ei kerrota.
Igorslabin lämpökamerakuvien mukaan 3080FE:n muistit on about 104c. Ei tuo nyt pitkää elinikää lupaa, kun ajellaan yli suositusten, mutta ei vielä lämmöillä, jossa piirin suojamekanismit käynnistyy. Saa nähdä tuleeko ensimmäiset space invaders efektit ennen takuun päättymistä.
Eiköhän nuo oikeasti ihan speksien mukaan rullaile. Nvidialla on kuitenkin paljon suurempi vastuu noissa FE-korteissa, eli aivan varmasti ovat kyllä lämmöt toleranssien ja speksien sisässä.
Käytämme välttämättömiä evästeitä, jotta tämä sivusto toimisi, ja valinnaisia evästeitä käyttökokemuksesi parantamiseksi.