Mikä?Digitalcombatsimulator peli
pelaako tota yli kaks ihmistä? Miksi nvidia ei optimoi pelejä joita ihmiset oikeasti pelaavat? Olihan amd:llakin joku age of empires 2 joku +100% suorituskykyä tmv. älytöntä.
Follow along with the video below to see how to install our site as a web app on your home screen.
Huomio: This feature may not be available in some browsers.
Mikä?Digitalcombatsimulator peli
Ota selvää moniko pelaa. Laita Nvidalle sähköpostia mikseivät optimoi. Oikea prosentti on 44.Mikä?
pelaako tota yli kaks ihmistä? Miksi nvidia ei optimoi pelejä joita ihmiset oikeasti pelaavat? Olihan amd:llakin joku age of empires 2 joku +100% suorituskykyä tmv. älytöntä.
Noin tuhat ihmistä pelaa steamissa, eli ei siis juuri kukaan. Ja ei kiinnosta laittaa nvidialle sähköpostia kun ei ole omaa lehmää ojassa.Ota selvää moniko pelaa. Laita Nvidalle sähköpostia mikseivät optimoi.
Todella suurta vaihtelua tulee olemaan pelien suhteen.
Voihan sen laittaa manuaalisesti päälle/pois missä tahansa pelissä Nvidia profile inspectorilla.Entä sitten? Sama se oli AMD:llakin. Niillekkin tuli aikanaan sama keskimäärin 2% parannus isolla testisetillä mitä tuli nyt nvidialle. Sitähän tuolla aikaisemmin väännettiin, että ne Valhallan yms pelien isot boostit ei kauheasti auta, kun suurimmassa osassa pelejä ei tule teholisää, joten isommissa vertailussa vaikutus on 1-3% luokkaa. Hyviä hypeslidejä tuolla nyt kyllä syntyy kummallekkin leirille.
Käytännön ero tulee lähinnä siitä, että AMD:lla se on aina päällä, Nvidialla se tulee vain niihin peleihin, jotka Nvidia lisää whitelistalleen. Pelaatko jotain indiepeliä tai vanhempaa peliä, joka ei ole yhä arvostelusivujen testipelinä. Sori, tukea ei tule. AMD tukee ja sitten selviää saitko tehoboostin, ei mitään vaikutusta, vai pyörisikö peli jopa aavistuksen paremmin ilman ko. featurea.
Erittäin kätevää.Voihan sen laittaa manuaalisesti päälle/pois missä tahansa pelissä Nvidia profile inspectorilla.
Voihan sen laittaa manuaalisesti päälle/pois missä tahansa pelissä Nvidia profile inspectorilla.
Jep. Paras olisi jos ajurin asetuksista tai pelin sisältä (joku driver overlay) saisi valittua päälle/pois ilman erillisiä ohjelmia tai muuta bloatwarea.Tuo ReBar voi tosiaan myös laskea suorituskykyä minkä takia on hyvä että se ei ole oletuksena päällä.
Lähti DDU:lla tämä ajuri poistoon ja edellinen tilalle. Osa peleistä ei lähde lainkaan käyntiin. (RTX 2080)
Ja syykin on tuolla ylhäällä jo selitetty, eikä se NVIDIAn näyttis tuossa mitään maita mullistavia eroja tee vaikka DX11-ajuri säikeistyykin paremmin, 11900K nousee kärkeen, mutta seuraavat sijat menee jo Ryzeneille
Far Cry -sarjan maine hyvin Intel vetoisena on ollut todellisuudessa enemmän single thread -vetoisuutta, Ryzen 3000 -sarja otti jo hyvin kiinni ja Ryzen 5000 -sarja jo ohi. AMD:n DX11-ajuri kun ei skaalaudu kivasti usealle ytimelle se entisestään korostaa tilannetta.
edit: Ja Igor valitsi 6900 XT:n, koska DX11 alkaa olemaan enemmän eilistä ja DX12 tätä päivää, ja DX12 puolella tilanne on ns. päinvastainen, NVIDIAn ajurit muodostavat prosessoripullonkaulan.
RDNA2 + DX11 heikko suorituskyky koskee vain vain joitain yksittäisiä pelejä, ei mikään RDNA2:n "erikoisominaisuus" tms. AMD:n DX11-ajuri ei säikeisty NVIDIAn tapaan, mutta se ei tarkoita etteikö suorituskyky DX11-peleissä olisi silti enemmän kuin tarpeeksi.Tämä selvä. Siirsin tänne GPU-ketjuun kun tuo AMD vs Nvidia: DX11 ja 12 -kiinnostaa. Tässä on nyt ollut muissa ketjuissa juttua Nvidian DX12 -ongelmista edellisten sarjojen prosessoreilla, ja sitten oli AMD:n RDNA2 + DX11 huonommasta suorituskyvystä, mutta onko näillä GPU-valinnan kannalta suurempaa merkitystä? Onhan se DX12 huomisen juttu, mutta itsellä on pelaamatta monta DX11 -peliä vielä, ja RX 6700xt sellainen jonka voisin paljon realistisemmin saada kuin 3060ti tai 3070 alle 800e. edit: Korjaus.
Onko nuo erot molemmissa tapauksissa niin pieniä, että ei ole peruspelaajalle käytännön merkitystä? ~70-90fps riittää mulle pelissä kuin pelissä. Nettihippoja en toistaiseksi harrasta. Cod Warzonea saatan alkaa taas pelaan, mutta se ei taida olla ongelma kummankaan ohjaimella tai kummankaan prosessoreilla?
RDNA2 + DX11 heikko suorituskyky koskee vain vain joitain yksittäisiä pelejä, ei mikään RDNA2:n "erikoisominaisuus" tms.
Eikä se NVIDIAnkaan prosessoririippuvaisuus DX12-puolella nykypäivän vehkeillä ja resoilla vastaan tuppaa tulemaan, vaan lähinnä jos resoa väännetään huippuvehkeillä tuonne 1080p ja alle tasolle tai prossuksi pistetään midrangea tjsp tai alle
Mielenkiintoisia uutisia GPU -arkkitehtuuririntamalta:
(En muista, oliko tästä jo jollakin rintamalla uutisoitu, mutta tänään ovat nousseet otsikoihin. Patentti on julkaistu 1.4.2021, mutta ei liene aprillipila)
Ajatuksena on toteuttaa GPU usealla erillisellä GPU Chipletillä ja Infinity Cache -tyyppisellä välimuistimuistiväyläsirulla.
AMD latest GPU chiplet patent reveals plans for active bridge chiplet with integrated cache
AMD latest GPU chiplet patent reveals plans for active bridge chiplet with integrated cache - VideoCardz.com
Active Bridge Chiplet with Integrated (Infinity?) Cache AMD’s latest patent reveals plans for next-gen GPU chiplets. Block diagram illustrating a processing system employing active bridge chiplets for coupling GPU chiplets, Source: AMD A patent that published on April 1st (it’s not a joke)...videocardz.com
GitGuru on tehnyt hyvän videon. Otsikolla, Ray Tracing in Cyperpunk 2077: voiko Amd kilpailla ?
GitGuru on tehnyt hyvän videon. Otsikolla, Ray Tracing in Cyperpunk 2077: voiko Amd kilpailla ?
Ei voi kilpailla. Tuo peli kyykyttää jopa Nvidian kortteja RT ON, mutta Nvidialla DLSS pelastaa. Osa sanoo että DLSS ON tuolta löytyy reilusti artifakteja ja kuva on suttuisempaa, jotku sanoo että ei huomaa eroa. Itse en ole päässyt kokeilemaan, enkä aio tulevaa korttiakaan DLSS:n vuoksi valita.
Mutta joka tapauksessa AMD tarvii lisää potkua RT-peleihin. Toivottavasti sitä ei kuitenkaan tehdä natiivi -kuvanlaadun kustannuksella. Mielummin pelaan toistaiseksi pelit RT OFF, varsinkin kun nuo RT-pelit on hienoja ilman sitä säteenseurantaakin. Paljon saa tapahtua että säteenseuranta alkaa olla noiden suorituskyky -hittien arvoista. Ei oikein riitä jotku heijastavat pinnat ja vähän immersiivisempi valaistus siellä-täällä. Kokonaisvaltaisen pelikokemuksen kannalta nuo on lopulta aika pieniä juttuja.
Eli mikäli haut toimivat oikein tätä ei ole vielä käsitelty täällä?
Yllätyin miten järjestään 3070 voitti lähes jokaisessa pelissä melko selvästi 6700 XT:n. Vain muutamassa jälkimmäinen voitti selvästi. Sinänsä jos nimellishinnat olisivat todelliset niin se olisi ihan järkevääkin. No jaa onhan niillä nytkin kohtalaisen järkevät hintaerot.
Kannattaa katsoa koko video läpi jos miettii noiden kahden välillä, linkattu yhteenvetotaulukon kohtaan. Lisäksi tuosta löytyi yksi pelissä jossa noi oli tasoissa HD, 3070 ohitti 1440p mutta sitten 6700 XT voitti todella reippaasti 4k, eli siinä yhdessä pelissä Radeonin suuremmasta muistista oli valtavasti apua. (joo unohdin sen jo)
Yllätyin miten järjestään 3070 voitti lähes jokaisessa pelissä melko selvästi 6700 XT:n. Vain muutamassa jälkimmäinen voitti selvästi. Sinänsä jos nimellishinnat olisivat todelliset niin se olisi ihan järkevääkin. No jaa onhan niillä nytkin kohtalaisen järkevät hintaerot.
"Tuloksissa AMD:n Radeon RX 6000 -sarjan näytönohjaimilla on ollut käytössä Resizable BAR -ominaisuus, kuten myös NVIDIAn leiristä GeForce RTX 3060:llä."Sampsa sai vähän erilaisia lukemia:
Testissä AMD Radeon RX 6700 XT (Navi 22) - io-tech.fi
Testissä AMD:n 1440p-pelaamiseen suunnattu 499 euron suositushintainen Radeon RX 6700 XT.www.io-tech.fi
Mun ymmärtääkseni Resizable BAR ei ole kovin merkittävä ominaisuus, toki antaa vähän boostia, mutta ei paljoa."Tuloksissa AMD:n Radeon RX 6000 -sarjan näytönohjaimilla on ollut käytössä Resizable BAR -ominaisuus, kuten myös NVIDIAn leiristä GeForce RTX 3060:llä."
Kun taas HU:n testissä noi on ollut pois.
Mun ymmärtääkseni Resizable BAR ei ole kovin merkittävä ominaisuus, toki antaa vähän boostia, mutta ei paljoa.
Juu, niin ne oli poissa käytöstä tuossa HU:n videossa/testissä. Laitoin sinne kommentteihin kysymyksen piruuttani kun oli noin ison työn tehnyt"Tuloksissa AMD:n Radeon RX 6000 -sarjan näytönohjaimilla on ollut käytössä Resizable BAR -ominaisuus, kuten myös NVIDIAn leiristä GeForce RTX 3060:llä."
Kun taas HU:n testissä noi on ollut pois.
Juu, niin ne oli poissa käytöstä tuossa HU:n videossa/testissä. Laitoin sinne kommentteihin kysymyksen piruuttani kun oli noin ison työn tehnyt
"And same again with resizable BAR/SAM enabled. When? "
Ja HU vastasi melkein heti että "Never, it's a waste of time as the results overall only move by a few percent."
En tiedä miten HUB testasi, enkä jaksa googlettaa.Noh, Timo 2 voisi vähän sitten yksilöidä täsmällisemmin mitkä ovat ne isoimmat erot noiden kahden eri testin välilllä.
ReBARin ero laajemmilla pelivalikoimilla on parin prosentin luokkaa."Tuloksissa AMD:n Radeon RX 6000 -sarjan näytönohjaimilla on ollut käytössä Resizable BAR -ominaisuus, kuten myös NVIDIAn leiristä GeForce RTX 3060:llä."
Kun taas HU:n testissä noi on ollut pois.
ReBARin ero laajemmilla pelivalikoimilla on parin prosentin luokkaa.
Jätän sun tehtäväksi analysoida loput. Minä ainakin luotan sampsan testeihin, ei sillä että eikö HUB olisi myös luotettava taho.
Poimintoja pcgameshardwaren artikkelista. Huonoa suomenkieltä kun en lähtenyt tekstiä muokkaamaan.
Codemasters on päättänyt yhteistyössä AMD for RT -varjojen kanssa.
Kuten lukemattomissa Codemasters-ajopeleissä aikaisemmin, AMD on myös tällä kertaa teknologiakumppani, joten britit käyttävät joitain RDNA-2-optimoituja koodimoduuleja AMD: n FidelityFX-työkalusarjasta.
Codemastersin mukaan yksi säde pikseliä kohti ammutaan kohti aurinkoa varjoja varten, joten denoising on alkeellista.
Dirt 5: n RT-varjot tuovat erittäin hienovaraisen parannuksen, joka on enimmäkseen havaintokynnyksen alapuolella.
Dirt 5 piirtää uskottavan varjostuksen ilman säteiden jäljitystä.
Kuten edellä on kuvattu, Dirt 5 on optimoitu RDNA-2-näytönohjaimille. Joten ei ole tuskin yllättävää, että RX 6900 XT hallitsee, vaikka säteiden jäljitys olisi päällä. Huomaa kuitenkin, että nämä ovat "vain" varjoja. Kun koko ohjelma käynnistetään, kuten esimerkiksi Cyberpunk 2077 : ssä , asiat näyttävät taas täysin erilaisilta.
Lainaukset artikkelista loppu. CapFrameX hyvin napannut stutteroinnin näkyviin artikkelin loppu puolella.
Juu, oikeassa olet.Olisit nyt vaan laittanut linkin siihen alkupeäriseen artikkeliin eikä copypastea jostain todella huonolaatuisesta käännöksestä.
Kannattaa kääntää englanniksi ja lukea sitä niin saa paljon ymmärrettävämpää tekstiä.
Assetto corsa competizione oli rx 6800 xt asetuksissa. Tilalle tuli rtx 3080 suprim x. Tökki tökki. Piti madaltaa detaljeja paljon alaspäin. Ei tää nvidia vs amd ole ihan niin yksioikoinen gpu-tehojen suhteen. Jatketaan harjoituksia.
No tässä testissä 3080 kuitenkin nopeampi.
5:00 kohdasta alkaa assetto osuus.
Samassa koneessa peräkkäiset kortit. Sama näyttö...Jeps, kuulostaa kyllä siltä että ongelma oli ihan jossain muualla.
Samassa koneessa peräkkäiset kortit. Sama näyttö...
Jos jollakulla on omakohtaisia kokemuksia ko. korteista, ihan mielellään keskustelen aiheesta. Tulee lisäarvoa keskusteluun.
Mikä on cpu:na? Nvidiallahan oli ajurit kuraa, jos meinaa hakea vähän heikommalla cpu:lla todella korkeita fps:iä.Samassa koneessa peräkkäiset kortit. Sama näyttö...
Jos jollakulla on omakohtaisia kokemuksia ko. korteista, ihan mielellään keskustelen aiheesta. Tulee lisäarvoa keskusteluun.
Hmmm. Amdn jälkeen time spy gpu score suomen 6. Rtx 3080:ssä. Ei varmaan mitään suurta vikaa ole.No tukea tuolle sinun "tulokselle" ei vaan oikein löydy. Näyttiksen vaihto toisen valmistajan tuotteeseen saattaa välillä aiheuttaa hämäriä ongelmia. Joskus kaverini joutui asentamaan winukan kokonaan uudelleen, kun vaihtoi AMD:stä NVIDIA:n, ennen kun sai oudot suorituskykyongelmat poistettua. Ei auttanut mitkään DDU:t ym.
Onko 2008 julkaistu i7 920 riittävän heikko ?Mikä on cpu:na? Nvidiallahan oli ajurit kuraa, jos meinaa hakea vähän heikommalla cpu:lla todella korkeita fps:iä.
Onko 2008 julkaistu i7 920 riittävän heikko ?
Tuo video on julkaistu 14.10.2020 eli ennen driver overhead jupakkaa. On vähän ristiriitaista tietoa eri foorumeilla...
Onko 2008 julkaistu i7 920 riittävän heikko ?
Tuo video on julkaistu 14.10.2020 eli ennen driver overhead jupakkaa. On vähän ristiriitaista tietoa eri foorumeilla...
Täällä on serriä, eli i9 9900k @ 5Ghz.Missä tuossa verrataan amdn näyttikseen sitä 3080:stä?
Taitaa AMD:lla olla ne heikommat ajurit DX11 peleissä mitä tuokin peli käyttää.Mikä on cpu:na? Nvidiallahan oli ajurit kuraa, jos meinaa hakea vähän heikommalla cpu:lla todella korkeita fps:iä.
En tiedä kyseisen hoodin mainetta. Eikä varmastikaan kaikki netissä ole totta.Oikeasti nyt. Spyhoodin tubeja perusteluksi. Ei. Oikeasti ei. Kakapon tech-corner sentään on joskus nähnyt näytönohjaimen.
Kaikki netissä ei oo totta.
Hmmm. Amdn jälkeen time spy gpu score suomen 6. Rtx 3080:ssä. Ei varmaan mitään suurta vikaa ole.
Tökkii tökkii voi johtua siitä, että peli on muuttanut itsekseen asetuksia. Tai jostakin muusta. 8 bit vs 10 bit värit? Ja peseehän tuo mun rx 6800 xt kaikki maailman rtx 3080:t fire strike ultrassa.
Ei tuo amd mikään feili ole. Kun omistan molemmat, niin saa olla kriittinen perustellusti. Ykköskoneessa on rtx 3080, ja jos telkku ei olis gsync, niin valinta voisi olla toisin päin. Tota rx 6800 xt gaming x trioa ei saa kuumaksi oikein millään. Molemmat hyviä, kuitenkin oon ällistynyt siitä, miten edellisen sukupolven tilanne on muuttunut. Rx 5700 xt:tä mulla oli kaksi. Ne oli oikeasti mopoja vrt rtx huippumallit. Nyt pitää oikeasti arpoa, ja freesync telkku (4k@120hz) on hankintalistalla.
SAM voittaa reippaasti ReBar tuen.