- Liittynyt
- 14.10.2016
- Viestejä
- 22 407
Ei se ole 4K kun käytetään DLSS:ää, se vain skaalataan 4K:ksi.Miten mää muistelen et framet olis ollu 4k:llakin RTX ON + DLSS parempaa kuin keskiverto konsolilla
Follow along with the video below to see how to install our site as a web app on your home screen.
Huomio: This feature may not be available in some browsers.
Live: io-techin Tekniikkapodcast tänään perjantaina noin klo 15:00 alkaen. Keskustellaan viikon mielenkiintoisimmista tietotekniikka- ja mobiiliaiheista. Suora lähetys YouTubessa. Tule mukaan katselemaan ja keskustelemaan! Linkki lähetykseen >>
Ei se ole 4K kun käytetään DLSS:ää, se vain skaalataan 4K:ksi.Miten mää muistelen et framet olis ollu 4k:llakin RTX ON + DLSS parempaa kuin keskiverto konsolilla
Käyttäjän kannalta mitään väliä, paneelille tulee 4k:ta.Ei se ole 4K kun käytetään DLSS:ää, se vain skaalataan 4K:ksi.
Jep, mikä näyttää paremmalta kuin natiivi, esim death strandingissä.Ei se ole 4K kun käytetään DLSS:ää, se vain skaalataan 4K:ksi.
Hetkinen, sitähän nimenomaan ei vain skaalataEi se ole 4K kun käytetään DLSS:ää, se vain skaalataan 4K:ksi.
Jonkun silmään voi näyttää, toisen silmään ei. Myös Death Strandingissa esiintyy DLSS:lle tyypillisiä artifakteja, unohtamatta täysin rikki meneviä asioita kuten pyrstötähtilinnut.Jep, mikä näyttää paremmalta kuin natiivi, esim death strandingissä.
No siis eiks ne framet oo nimenomaan paremmat aidolla 4k:lla. Frame rate sit eri asia.Miten mää muistelen et framet olis ollu 4k:llakin RTX ON + DLSS parempaa kuin keskiverto konsolilla
Taisin vastata säteenseurannan vähättelyyn.No siis eiks ne framet oo nimenomaan paremmat aidolla 4k:lla. Frame rate sit eri asia.
Huomasitko sanan optio, sitä voi käyttää halutessaan. Sit jos alkaa oksettaa ja päätäkin särkee toi dlss yliherkyys, niim voi vaikka pumittaa perinteisesti.Jonkun silmään voi näyttää, toisen silmään ei. Myös Death Strandingissa esiintyy DLSS:lle tyypillisiä artifakteja, unohtamatta täysin rikki meneviä asioita kuten pyrstötähtilinnut.
Ikäviä kyllä nämä tälläisetVituttaa ne dlss:n ringing ja halo efektit ihan saatanasti
Olitko jo ihan itse pelaillut noita paljonkin?Jonkun silmään voi näyttää, toisen silmään ei. Myös Death Strandingissa esiintyy DLSS:lle tyypillisiä artifakteja, unohtamatta täysin rikki meneviä asioita kuten pyrstötähtilinnut.
En rehellisesti (neljä AMD:n näytönohjainta peräjälkeen ostaneenakaan) jaksa uskoa. Rasterointi voi olla aika ok. Hinta ja virrankulutus voivat olla ok. Mutta se RT tulee niin varmasti olemaan joku kädenlämpöinen yritys. AMD:n mantra on aina "ihan hyvä vaihtoehto, jos et tarvitse --".
Käyttäjän kannalta mitään väliä, paneelille tulee 4k:ta.
Sitä voi tietty suurennelle ruutukauppauksista mikroskoopilla, mutta todellisuudessa melko amazing optio
Miksi pitäisi olla ”kokemusasiantuntija” jotta voisi keskustella asioista asiaperäisesti?Olitko jo ihan itse pelaillut noita paljonkin?
Asiaperäisesti noi radeonin ajurit on ihan täyttä shaibaaMiksi pitäisi olla ”kokemusasiantuntija” jotta voisi keskustella asioista asiaperäisesti?
Jos se natiivi käyttää jotain paskaa AA?Jep, mikä näyttää paremmalta kuin natiivi, esim death strandingissä.
Paremmat kuin kilpailijalla tosin.Asiaperäisesti noi radeonin ajurit on ihan täyttä shaibaa
Mitkä ajurit? Voisitko olla spesifimpi. Itse en kokemusasiantuntijana ole mitään huomannut koskaan.Asiaperäisesti noi radeonin ajurit on ihan täyttä shaibaa
TsiigasinMitkä ajurit? Voisitko olla spesifimpi. Itse en kokemusasiantuntijana ole mitään huomannut koskaan.
Lähinnä, kun viestien sävy on ”tekniikka on täysin käyttökelvoton koska artifaktit” ja on jo valmiiksi dumattu täysin paskaksi (ei siis vain keskustella mahdollisista ongelmista, vaan valmiiksi jo tehty mielipide) vaikka ei ole mitään kokemusta käytännössä. Hienosti poterouduttu omiin mielipiteisiin ja anti keskustelulle on siinä vaiheessa melko heikkoa.Miksi pitäisi olla ”kokemusasiantuntija” jotta voisi keskustella asioista asiaperäisesti?
Itseäni kyllä kiinnostaa AMD:n seuraava julkaisu. Nvidia toi juuri markkinoille (paperijulkaisu) tappiinsa asti kellotetut kortit pienillä muisteilla.
Mitä sää sillä muistilla teet, kaistaa ja raakaa tehoa sä tarttet.Itseäni kyllä kiinnostaa AMD:n seuraava julkaisu. Nvidia toi juuri markkinoille (paperijulkaisu) tappiinsa asti kellotetut kortit pienillä muisteilla. Hintaa hilattu alas tekemällä korteista muistirajoitteisia. Nurkan takana odottaa 20GB 3080 ja 16GB 3070. Ehkä Nvidia on ottanut oppia 1080ti ajoilta, jolloin julkaisivat AMD peloissaan liian tehokkaan kortin markkinoille ja nyt tunnustelevat jäätä näillä korteilla, jotka ovat oletusarvoisesti liian pienillä muisteilla. Jos AMD tuo markkinoille järkevään hintaan tehokkaan ja isolla muistilla varustetun kortin, Nvidian on pakko julkaista 3080 ja 3070 malleista isommalla muistilla olevat versiot. Mikäli AMD pitää hinnan alhaalla, Nvidian uudet kortit ilman muistirajoituksia tulevat olemaan hinnaltaan järkeviä. Näin ollen en itse uskaltaisi ostaa Nvidian näyttistä atm, koska muistirampautetut kortit tulevat katoamaan markkinoilta ennemmin tai myöhemmin.
Kyllä se 10GB riittää vielä pitkäksi aikaa jos ei 4k resolla pelaa. Ja tällä hetkellä 4K:lle riittää myös.Mitä sää sillä muistilla teet, kaistaa ja raakaa tehoa sä tarttet.
Näimpä, sithän sen näkee kun huippumallit tulee isommalla muistilla. Hintaerokin voi olla sitä luokkaa, että sama päivittää joskus tulevaisuudessa tarpeeseen. Ja silloin voi olla jo muutenkin näpäkämpää tarjolla.Kyllä se 10GB riittää vielä pitkäksi aikaa jos ei 4k resolla pelaa. Ja tällä hetkellä 4K:lle riittää myös.
En varmaan mitään. Hassua vaan on se, että jos AMD tuo markkinoille 16GB kortit niin Nvidian on pakko reagoida. Sitten kun näiden "parempien" korttien muistit on min. 16GB, niin se määrittää uuden normin markkinoille. Veikkaan, että 10GB 3080 kohtalo on sama kuin 2080ti korttien. Tosin sillä erotuksella, että 2080ti piti arvonsa hyvin 2 vuotta.Mitä sää sillä muistilla teet, kaistaa ja raakaa tehoa sä tarttet.
Entä jos AMD:n kortti ei yllä tehoissa lähellekään 3080:kymppistä?En varmaan mitään. Hassua vaan on se, että jos AMD tuo markkinoille 16GB kortit niin Nvidian on pakko reagoida. Sitten kun näiden "parempien" korttien muistit on min. 16GB, niin se määrittää uuden normin markkinoille. Veikkaan, että 10GB 3080 kohtalo on sama kuin 2080ti korttien. Tosin sillä erotuksella, että 2080ti piti arvonsa hyvin 2 vuotta.
Juuri siksi Nvidia julkaisi nämä muistirammat. Ei tarvi edes julkaista 20GB versiota, jos AMD sössii big navinsa . Nvidian käyttäytymisestä kumminkin voimme päätellä, että AMD:ltä voi tulla jotain järkevää ulos. Jos Nvidia olisi 100% varma, että AMD ei pysty vastaamaan kilpailuun, 10GB 3080 olisi hinnaltaan 1200-1300e.Entä jos AMD:n kortti ei yllä tehoissa lähellekään 3080:kymppistä?
Eiköhän noi ole ihan aikataulutettu noin, aina tulee piristetty malli.En varmaan mitään. Hassua vaan on se, että jos AMD tuo markkinoille 16GB kortit niin Nvidian on pakko reagoida. Sitten kun näiden "parempien" korttien muistit on min. 16GB, niin se määrittää uuden normin markkinoille. Veikkaan, että 10GB 3080 kohtalo on sama kuin 2080ti korttien. Tosin sillä erotuksella, että 2080ti piti arvonsa hyvin 2 vuotta.
Tai sitten vaihtoehtoisesti GA102 on Samsungin prosessilla halpaa kuin saippua ja kapasiteettia on tarjolla niin paljon, että on kannattavampaa myydä kortteja useammalle asiakkaalle halvemmalla, kuin kaupata sille 1% (RTX 2080 Ti osuus Steam Hardware Surveyssa) varakkaimmista PC-pelaajista?Juuri siksi Nvidia julkaisi nämä muistirammat. Ei tarvi edes julkaista 20GB versiota, jos AMD sössii big navinsa . Nvidian käyttäytymisestä kumminkin voimme päätellä, että AMD:ltä voi tulla jotain järkevää ulos. Jos Nvidia olisi 100% varma, että AMD ei pysty vastaamaan kilpailuun, 10GB 3080 olisi hinnaltaan 1200-1300e.
Epäilen vahvasti. Ja ei ne 750-1000e korttien omistajatkaan ole mikään massa steamissä. Kuuluvat siihen samaan varakkaiden pelaajien pieneen ryhmään.Tai sitten vaihtoehtoisesti GA102 on Samsungin prosessilla halpaa kuin saippua ja kapasiteettia on tarjolla niin paljon, että on kannattavampaa myydä kortteja useammalle asiakkaalle halvemmalla, kuin kaupata sille 1% (RTX 2080 Ti osuus Steam Hardware Surveyssa) varakkaimmista PC-pelaajista?
Tuleehan sieltä muutakin. Täs mää kehittämässä uutta arkkitehtuuria minimi parannuksin, jolloin myynnitkin on pienempiä, kun ei tule sitä tarvetta päivittää.Epäilen vahvasti. Ja ei ne 750-1000e korttien omistajatkaan ole mikään massa steamissä. Kuuluvat siihen samaan varakkaiden pelaajien pieneen ryhmään.
Asiaperäisesti noi radeonin ajurit on ihan täyttä shaibaa
Tsiigasinhttps://www.amd.com/en/support/kb/release-notes/rn-rad-win-20-7-2
Ja ongelmaketkusta et ihan kuraa on.
Hokasikko pointin.
Sä et tajuuJa mun mielestä noi nvidian ajurit on ihan täyttä shaibaa
Mä tsiigazin kanssa https://us.download.nvidia.com/Windows/456.38/456.38-win10-win8-win7-release-notes.pdf
Hirmu lista ongelmia eli täyttä kuraa on.
Hokasitko pointin?
Sä et tajuu
Kiitos.Kyllä se on joku muu joka ei tajuu. Mitään muuta et ole tehnyt kuin räksyttänyt miten sontaa AMD:n ajurit on, muttet ole onnistunut mitenkään todistamaan että näin on. Linkkaat jotain ajuririen muutos logeja ja senkin feilaat niin että linkattu ajuri on jo pari kuukautta vanha.
Todennäköisesti et edes omaa mitään kokemusta AMD:n ajureista vaan louskutat täällä ihan vain huvikseen. Itse voin sanoa että ei ole mitään kokemusta nvidian ajureista yli 10v joten en ota kantaa miten ne toimii mutta jos käytetään ajurien muutoslogeja todistelun pohjana niin voidaan todeta että ongelmattomia ajureita ei ole kummallakaan.
Tuossa on sulla sellainen massiivinen ajatusvirhe, että oletat energiatehokkuuden olevan sama, kun säteenjäljitystä tehdään dedikoiduilla yksiköillä, kuin mitä se olisi shadereilla tehdessä.AMD:n RT voi olla ihan vertailukelpoista koska novideolla RT kun otetaan käyttöön niin se on heti pois shader tehoista koska RT-coret ja Tensor-coret on riippuvaisia siitä virtabudjetista joka kortilla on. Eli heti kun aletaan rouskuttaa RT-coreilla, niin shader teho tippuu. Ja siihen kun lisätään Tensor-coret niin shader teho tippuu entisestään.
En muista mikä saitti se oli joka tätä oli testannut, mutta 3080 hörppäsi 320W ilman RT ja DLSS, kun heitettiin RT päälle niin haukkasi edelleen 320W ja suorituskyky sakkasi rajusti. Sitten kun laitettiin DLSS myös päälle niin saatiin suorituskykyä ja hattiwatteja meni edelleen se 320W.
Eli novideon kortilla shadereitä ei pystytä käyttämään läheskään 100% kun noita RT ja Tensor coreja käytetään.
Jos vaikka nvidialla katoaa 40% shader tehosta, niin AMD voi about sen saman 40% shadereistä valjastaa RT käyttöön. Eli voi olla hyvinkin että AMD:n RT suorituskyky tulee olemaan pitkälti samanlainen tuhnu kuin nyt on nähty nvidialta.
Saksan kieli ei ole mulle auennut vieläkään joten mitäs tuossa jutussa kerrotaan?GeForce RTX 3080: Inhaber berichten vermehrt von Abstürzen in Spielen
Viele Interessenten warten noch auf die Möglichkeit, eine RTX 3080 überhaupt kaufen zu können, da berichten erste Inhaber von Problemen.www.computerbase.de
RTX 3080:t kaatuilee oikeella ja vasemmalla minkä ehtivät
Että lukuisilla eri foorumeilla RTX 3080 -käyttäjät ovat huomanneet kaatumisia kun GPU:n kellotaajuus nousee yli 2 GHz:n, minkä se tekee monissa tapauksissa vakiona.Saksan kieli ei ole mulle auennut vieläkään joten mitäs tuossa jutussa kerrotaan?
MSI Ventus 3X OC näyttää olevan pahimmissa ongelmissa, mutta ei ainut malli joka on kaatuillut.
Liekkö noita vaan ollut eniten saatavilla vai oisko et MSI on kädettänyt pahasti jännitteiden kanssa ja muut vähän vähemmän?
Eiköhän tuo ole vain huomattavasti paisuteltu ongelma. Varmasti suurin osa korteista toimii ongelmitta ja muutama viallinen vain pitää älämölöä. Mitään faktaahan ongelman yleisyydestä ei ole.GeForce RTX 3080: Inhaber berichten vermehrt von Abstürzen in Spielen
Viele Interessenten warten noch auf die Möglichkeit, eine RTX 3080 überhaupt kaufen zu können, da berichten erste Inhaber von Problemen.www.computerbase.de
RTX 3080:t kaatuilee oikeella ja vasemmalla minkä ehtivät
Jos avaat sen Chromella sen selaimen pitäisi tarjota kääntää se teksti kokonaan englanniksi. Sillä itse sen luin. Siinä luki, että monella käyttäjälle pelit kaatuu ja dumppaa työpöydälle. Silloin kun GPU kellotaajuus buustailee jossain 2+GHz. Kuitenkin sanovat ettei olisi ylikellottaneet. Ja joku ohje oli laskea GPU kelloja 100Mhz että ei kaatuisi.
Noh, muut voinee summata paremmin ja korjata virheeni. Mutta Chromella noita lueskelen, vaikka en muuten sitä käytäkään niin tuo integrointu Google translate toimii tuohon.
Jokuhan väitti, että 3080 tekisi hyvin nopeita ja kovia piikkejä tehonkulutukseen ja aiheuttaisi niiden takia ongelmia jos ne menevät poweri kestokyvyn yli. Väitteen mukaan juuri siksi tuolle 3080 suositeltaisiin niin isoa poweria kuin suositellaan. Tavalliset tehonkulutusmittarit ovat kuulema liian hitaita noiden piikkien näkemiseen
Joka tapauksessa on mielenkiintoista, että 3080FE korteilla ei kuulema tuota ongemaa oleSe voi olla, tai sitten binnaus on pettänyt ja kortit ei vain kestä niin kovia kelloja. Veikkaisin kyllä tuota virtapiikkiä.
Igorslab teki aikanaan noita mittauksia ja kyllä sellainen tulee vielä 3080:sta. Esim se parjattu 5700XT teki 1ms 328W piikkejä powerlimit tapissa, jotka voi olla liikaa 550W powerin pelikoneelle, jos prosu on kellotettu tai poweri on ikääntynyt. Vega 64:llä maksimit oli 420W ja 0.3ms, 1080TI 375W 0.4ms, 2080TI vetää hetkittäin myös 400W. 3080W olisi ainakin seasonicin mukaan piikeissä 500W luokkaa.
Joka tapauksessa on mielenkiintoista, että 3080FE korteilla ei kuulema tuota ongemaa ole