Virallinen: NVIDIA vs AMD (vs Intel) keskustelu- ja väittelyketju

  • Keskustelun aloittaja Keskustelun aloittaja Sampsa
  • Aloitettu Aloitettu
Eli nvitukka tekee softalla jonkun resurssien kulutuksen kannalta nykypäivänä aivan yhdentekevän jutun, jonka mad tekee raudalla ja suorituskykyero saadaan esiin säätämällä asetukset sellaisiksi, joita kukaan täysjärkinen ei ikinä käyttäisi missään..?

Jotenkin veikkaan ettei tälläistä eroa saa esiin missään tosimaailman tilanteessa, ellei tosiaan oikein säätämällä säädä kaikkea päin persettä.

Toisaalta tuosta voi tehdä toisen tulkinnan noista uusista gpu testeistä. Yleinen tulkinta kun on ollut, että AMD:n cache loppuu kesken resoluution kasvaessa ja sen takia suhteelinen asema nvidiaan verrattuna heikkenee resoluution kasvaessa.

Voisiko olla sittenkin niin, että Nvidia kärsii osin cpu bottleneckistä sen takia AMD pärjää paremmin matalilla resoluutioilla? Tai sitten se, että Amperen int/fp yksiköjako pääsee oikeuksiinsa vasta resoluution kasvaessa?
 
Myös Intel tekee näyttiksii
amd-vs-nvidia.jpg

Tähän ketjuun kaikki kahden GPU-valmistajan välinen keskustelu ja väittely ja pidetään nuo tietyn aiheen ketjut siitä puhtaana. Jos alkaa mennä offtopiciksi, niin viestit siirretään tähän ketjuun.

Täällä vastaava viestiketju AMD vs Intel -keskustelulle:

Virallinen: AMD vs Intel keskustelu- ja väittelyketju
 
Eli nvitukka tekee softalla jonkun resurssien kulutuksen kannalta nykypäivänä aivan yhdentekevän jutun, jonka mad tekee raudalla ja suorituskykyero saadaan esiin säätämällä asetukset sellaisiksi, joita kukaan täysjärkinen ei ikinä käyttäisi missään..?

Jotenkin veikkaan ettei tälläistä eroa saa esiin missään tosimaailman tilanteessa, ellei tosiaan oikein säätämällä säädä kaikkea päin persettä.

Kyllä tässä on ihan oikeaan tosielämään hyödyllinen havainto, että SER-koneisiin kannattaa lähtökohtaisesti laittaa AMD-näyttistä. On paljon vielä LGA 1155, 1150 ja 1151 kokoonpanoja joissa on vielä jotenkuten riittävä 4c/8t prossu ja niihin halutaan vielä viimeistä tekohengitystä tehdä varmasti useita vuosia. Niihin ei kannata laitta esim RTX 3060 lappua, koska RX 5600XT voi olla nopeampi monissa tapauksissa... noin esimerkkinä.

Ja toki CPU-pullonkaulaan voi törmätä myös tehokkaalla prossulla. Toki jossain counter strikessä fps on jo ihan tarpeeksi korkea muutenkin, mutta enemmän on enemmän ja siellä AMD tarjoaa parempaa elämystä (ei oikeasti, koska kukaan ei huomaa 500 vs 550 fps eroa)
 
Kyllähän noita pelejä tulee vastaan jotka on CPU-rajoitteisia millä vaan prossulla, vaikka olisi 4k-resoluutio 3090:llä. Nämä tosin tuppaavat olemaan pienempien puljujen DX11-pelejä jotka eivät säikeisty häävisti.
 
Kyllä tässä on ihan oikeaan tosielämään hyödyllinen havainto, että SER-koneisiin kannattaa lähtökohtaisesti laittaa AMD-näyttistä. On paljon vielä LGA 1155, 1150 ja 1151 kokoonpanoja joissa on vielä jotenkuten riittävä 4c/8t prossu ja niihin halutaan vielä viimeistä tekohengitystä tehdä varmasti useita vuosia. Niihin ei kannata laitta esim RTX 3060 lappua, koska RX 5600XT voi olla nopeampi monissa tapauksissa... noin esimerkkinä.

Ja toki CPU-pullonkaulaan voi törmätä myös tehokkaalla prossulla. Toki jossain counter strikessä fps on jo ihan tarpeeksi korkea muutenkin, mutta enemmän on enemmän ja siellä AMD tarjoaa parempaa elämystä (ei oikeasti, koska kukaan ei huomaa 500 vs 550 fps eroa)

Juu SER koneisiin kannattaa varmaan AMD:tä ostaa tuohon DX12 overheadiin liittyen, mutta CS: ei ole DX12 peli. NVIDIA:n 3000 sarja pieksää AMD:n näyttinset CS:ssä ihan selkeästi.

Tässähän ei ole kyse mistään semmoisesta, että NVIDIA:n ajuri olisi yleisesti enemmän CPU:ta kurittava. Se pätee vain DX12 rajapintaan.
 
Viimeksi muokattu:
Tässähän ei ole kyse mistään semmoisesta, että NVIDIA:n ajuri olisi yleisesti enemmän CPU:ta kurittava. Se pätee vain DX12 rajapintaan.
Kyllä se overhead on joka rajapinnalla olemassa koska nvidia käyttää softa scheduleria. Tuollaisessa yhdellä säikeellä renderöivässä pelissä kuten CS nvidian ratkaisu on selvästi parempi kun draw calleja voidaan offloadata useammalle ytimelle keventäen sen yhden säikeen kuormitusta mikä parantaa suorituskykyä siitä huolimatta että prosessorin kokonaiskuormitus kasvaa. AMD ei pysty tuota tekemään koska rauta scheduleri. Ongelmia tulee kun kaikki ytimet lähestyvät täyttä kuormitusta hyvin säikeistyvässä pelissä eikä overheadille olisi enään varaa. Näissä tilanteessa AMD:n kortti on parempi. Esimerkiksi BFV DX11 tekee noin. Toki hyvin säikeistyviä DX11-pelejä ei tosin ole kovin montaa, yleensä ne ovat DX12.
 
AMD RDNA 2 arkkitehtuurin GPU:en DX 11 suorituskyky erityisesti vahemmissa peleissä huomattavasti samanhintaisia Nvidian kortteja heikompaa:


AMD on selkeästi keskittänyt RDNA 2 ajuri optimoinnit pelkästään DX 12 peleihin ja uudempiin peleihin sekä yleisimpiin peleihin mitä testeissä käytetään ja jättänyt vanhemmat pelit optimoimatta, josta syystä DX 11 peleissä suorituskyky on jopa vain 2/3 saman hintaisen NVIDIAN kortin suorituskyvystä. Jos pelaa vahempia pelejä eritysesti sellaisia, jossa pitää olla mahdollismman nopeasti reagoiva peli esim. jokua PVP FPS multiplayer tämä kannattaa huomioida päättäessään mihin GPU päätyy.
 
AMD RDNA 2 arkkitehtuurin GPU:en DX 11 suorituskyky erityisesti vahemmissa peleissä huomattavasti samanhintaisia Nvidian kortteja heikompaa:


AMD on selkeästi keskittänyt RDNA 2 ajuri optimoinnit pelkästään DX 12 peleihin ja uudempiin peleihin sekä yleisimpiin peleihin mitä testeissä käytetään ja jättänyt vanhemmat pelit optimoimatta, josta syystä DX 11 peleissä suorituskyky on jopa vain 2/3 saman hintaisen NVIDIAN kortin suorituskyvystä. Jos pelaa vahempia pelejä eritysesti sellaisia, jossa pitää olla mahdollismman nopeasti reagoiva peli esim. jokua PVP FPS multiplayer tämä kannattaa huomioida päättäessään mihin GPU päätyy.
Tässä tilanteessa tuo ei ole merkittävä asia, koska saatavuus on niin heikkoa. Vuosi sitten tuon merkitys olisi ollut isompu, ja ehkä taas vuoden päästä tuolla voi olla merkitystä.
 
Oisko sulla heittää joku käytännön esimerkki jostain tälläisestä pelistä jossa tämä dx11 suorituskyky rajoittaa menoa pahasti? Ainoa edes etäisesti raskas pvp fps multiplayer lienee warzone ja se on dx12.
Noh esim guild wars 2, siinä on 60 vs 60 vs 60, dx 11 kusee pahasti, ja kun laittaa dx 12 modin niin nousee fps reippaasti, ja tuli vaihdettua takaisin nvidiaan koska dx12 toimii niin paljon paremmin
 
Noh esim guild wars 2, siinä on 60 vs 60 vs 60, dx 11 kusee pahasti, ja kun laittaa dx 12 modin niin nousee fps reippaasti, ja tuli vaihdettua takaisin nvidiaan koska dx12 toimii niin paljon paremmin
Dx12 taitaa amd olla se jolla on vähemmän pullonkaulaa. Pyysin esimerkkiä dx11 pelistä jolla on suorituskykyongelmia amd:n näyttisten kanssa. Ei ihan heti tule mitään peliä mieleen jolle ei löytyisi dx12 tilaa, mutta olisi niin raskas pyörittää prossun puolesta että näyttiksen vaihtamisesta olis jotain hyötyä. Pvp fps pelit siis kyseessä. Pubg vois periaatteessa olla moinen, mutta viimeksi kun katsoin oli suorituskyky esports asetuksilla kummassakin leirissä todella hyvä.
 
Kyllä se overhead on joka rajapinnalla olemassa, koska nvidia käyttää softa scheduleria.

Ei ole, eikä käytä. 2000 sarjassa tuli HW schedulointi mukaan. Katso K1nggg viesti (muutama viesti ylempänä), niin näet, että dx11 AMD:llä isompi CPU overhead ja Vulkanissa ei ole eroa..
 
Ei ole, eikä käytä. 2000 sarjassa tuli HW schedulointi mukaan.
Tarkoitat varmaankin mikkisoftan HAGS:ia, joka toimii muuten pascalista lähtien. Imo turingissa ei ole hardware scheduleria samalla tavalla kuin radeoneissa.

Katso K1nggg viesti (muutama viesti ylempänä), niin näet, että dx11 AMD:llä isompi CPU overhead ja Vulkanissa ei ole eroa..
En nähnyt siellä overhead mittauksia saati prosessorin kuormituskäppyroitä. Tehtii se sama vanha oletus että AMD:llä on DX11:ssa suurempi cpu overhead koska DX11 pyörii heikommin. Mikä on väärä tulkinta.

Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.


Käytännön esimerkki kun DX11 peli onkin hyvin säikeistyvä ja alla on 4-ydin prossu. AMD:n jo vanhalla kortilla CPU kuormitus on alempi kuin selvästi tehokkaammalla nvidialla vaikka fps:t ovat AMD:llä korkeammat. Missäs se kuuluisa AMD DX11 overhead on tässä tilanteessa?
Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.
 
Uudet Nvidia DEV ajurit just tullut ulos

 
En nähnyt siellä overhead mittauksia saati prosessorin kuormituskäppyroitä. Tehtii se sama vanha oletus että AMD:llä on DX11:ssa suurempi cpu overhead koska DX11 pyörii heikommin. Mikä on väärä tulkinta.

Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.


Käytännön esimerkki kun DX11 peli onkin hyvin säikeistyvä ja alla on 4-ydin prossu. AMD:n jo vanhalla kortilla CPU kuormitus on alempi kuin selvästi tehokkaammalla nvidialla vaikka fps:t ovat AMD:llä korkeammat. Missäs se kuuluisa AMD DX11 overhead on tässä tilanteessa?


Nyt kyllä epäilyttää pahasti, että videon tekijä ei tiedä mistä puhuu. Noin 2 minuutin kohdalla kerrotaan Nvidian siirtyneen softaskedulointiin ja AMD:n menneen päinvastaiseen suuntaan. Kuva, joka ko. kohdassa näytetään, kertoo kuitenkin käskytason skeduloinnista. Kyse on siitä, että jos jossain säikeessä on käsky, jonka tulos riippuu aiemmin suoritukseen otetun käskyn tuloksesta, ei ko. säikeen suorittamista pidä jatkaa ennen kuin tuo aiempi käsky on suoritettu (jotain muuta säiettä voi sillä aikaa suorittaa). Nvidian laitteissahan asia on otettava huomioon, koska jokaisella kellojaksolla voidaan ottaa suoritukseen käsky, jonka suorittaminen kestää useita kellojaksoja. Keplerissä tähän liittyvää rautaa oli yksinkertaistettu Fermiin nähden - huomaa, että tämä on vertaus kahden Nvidian laitteen välillä, ei Nvidian ja AMD:n. AMD:n GCN:llä taas tämän tason skeduloinnille on vähemmän tarvetta, koska yksittäinen vektoriyksikkö ottaa uuden käskyn suoritukseen vain neljän kellojakson välein, ja käskyjen suoritus kestää neljä kellojaksoja. Silloin, kun seuraava käsky on mahdollista suorittaa, edellisen käskyn tulos on siis jo käytettävissä. Siksi pitäisinkin täysin mahdollisena, että Nvidian Keplerissä oli enemmän (käskytason) skedulointiin liittyvää rautaa kuin AMD:n GCN:ssä. RDNA-arkkitehtuurin myötä sitten AMD:llekin tuli tarpeelliseksi ottaa huomioon käskyjen väliset riippuvuudet, koska RDNA ei enää aloita x kellojaksoa kestäviä käskyjä x kellojakson välein.

GPU:n käskytason skedulointi nyt tuskin edes mitenkään liittyy prosessorien kuormitukseen peleissä, joten sen asian kyseenalainen käsitteleminen ei sinänsä tarkoita, että videon muu sisältö olisi virheellistä. Suosittelen kuitenkin suhtautumaan videoon suurella varauksella.
 
Kapteeni Työtila toimittaa jälleen :D

Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.

Upeita ja erittäin hiljaisia sekä vähävirtaisia. :love: Oma ennakkotilaus on Nvidia.commista vetämässä.
 
Upeita ja erittäin hiljaisia sekä vähävirtaisia. :love: Oma ennakkotilaus on Nvidia.commista vetämässä.

Joo, noiden kanssa ei tartte kysellä foorumilla riittääkö virtalähteessä tehot, tai haittaako kuormapiikit. Elegantti ratkaisu.
 
Joo, noiden kanssa ei tartte kysellä foorumilla riittääkö virtalähteessä tehot, tai haittaako kuormapiikit. Elegantti ratkaisu.
Tämä tulee olemaan uraauurtava uusi tyyli ja varmasti tulevaisuudessa muutkin valmistajat siirtyvät tähän ratkaisuun sen helppouden takia. :geek:
 
"hyvin epätodennäköistä että 3080 saisi 6 % lisää suorituskykyä uusissa testeissä kun se saa ReBAR-tuen"
Lainasin vain kirjoitustasi. Olisiko vaan parempi et lopetetaan spekulointi ja odotellaan uusia testejä ;)
Tätä sanottiin ennen vanhaan et pelasit ittesi pussiin.
Melkoinen jytkyhän sieltä tuli.
1617363256953.png

Isommilla resoilla marginaalisesti isommat erot.
 
Melkoinen jytkyhän sieltä tuli.
1617363256953.png

Isommilla resoilla marginaalisesti isommat erot.
Peleilllä A, B ja C geomertinen keskiarvo 0%. Peleillä D, E ja F geomertinen keskiarvo 10%. Joten koko joukon suhteellinen suorituskyky merkityksetön.

Digitalcombatsimulator peli
Rebar disabled, cockpit view 45fps
Rebar enabled, cockpit view 50fps
Rebar disabled, exterior view 61 fps
Rebar enabled, exterior view 78 fps

Erot: 11% ja 22% rebarin hyväksi ja kaiken lisäksi RTX3080 saatu.

Todella suurta vaihtelua tulee olemaan pelien suhteen.
 
Mikä? :rofl:
pelaako tota yli kaks ihmistä? Miksi nvidia ei optimoi pelejä joita ihmiset oikeasti pelaavat? Olihan amd:llakin joku age of empires 2 joku +100% suorituskykyä tmv. älytöntä.
Ota selvää moniko pelaa. Laita Nvidalle sähköpostia mikseivät optimoi. Oikea prosentti on 44.
 
Ota selvää moniko pelaa. Laita Nvidalle sähköpostia mikseivät optimoi.
Noin tuhat ihmistä pelaa steamissa, eli ei siis juuri kukaan. Ja ei kiinnosta laittaa nvidialle sähköpostia kun ei ole omaa lehmää ojassa.

Keskimäärin tosta resizeable BAR tuesta on hyötyä jotakuinkin mitättömästi, tuen rajallisuuden takia. Ellei nvidia muuta tota whitelistaus menettelyään toisenlaiseksi, niin keskimäräinen etu ei tule tuosta merkittävästi tulevaisuudessakaan nousemaan.
 
Todella suurta vaihtelua tulee olemaan pelien suhteen.

Entä sitten? Sama se oli AMD:llakin. Niillekkin tuli aikanaan sama keskimäärin 2% parannus isolla testisetillä mitä tuli nyt nvidialle. Sitähän tuolla aikaisemmin väännettiin, että ne Valhallan yms pelien isot boostit ei kauheasti auta, kun suurimmassa osassa pelejä ei tule teholisää, joten isommissa vertailussa vaikutus on 1-3% luokkaa. Hyviä hypeslidejä tuolla nyt kyllä syntyy kummallekkin leirille.

Käytännön ero tulee lähinnä siitä, että AMD:lla se on aina päällä, Nvidialla se tulee vain niihin peleihin, jotka Nvidia lisää whitelistalleen. Pelaatko jotain indiepeliä tai vanhempaa peliä, joka ei ole yhä arvostelusivujen testipelinä. Sori, tukea ei tule. AMD tukee ja sitten selviää saitko tehoboostin, ei mitään vaikutusta, vai pyörisikö peli jopa aavistuksen paremmin ilman ko. featurea.
 
Entä sitten? Sama se oli AMD:llakin. Niillekkin tuli aikanaan sama keskimäärin 2% parannus isolla testisetillä mitä tuli nyt nvidialle. Sitähän tuolla aikaisemmin väännettiin, että ne Valhallan yms pelien isot boostit ei kauheasti auta, kun suurimmassa osassa pelejä ei tule teholisää, joten isommissa vertailussa vaikutus on 1-3% luokkaa. Hyviä hypeslidejä tuolla nyt kyllä syntyy kummallekkin leirille.

Käytännön ero tulee lähinnä siitä, että AMD:lla se on aina päällä, Nvidialla se tulee vain niihin peleihin, jotka Nvidia lisää whitelistalleen. Pelaatko jotain indiepeliä tai vanhempaa peliä, joka ei ole yhä arvostelusivujen testipelinä. Sori, tukea ei tule. AMD tukee ja sitten selviää saitko tehoboostin, ei mitään vaikutusta, vai pyörisikö peli jopa aavistuksen paremmin ilman ko. featurea.
Voihan sen laittaa manuaalisesti päälle/pois missä tahansa pelissä Nvidia profile inspectorilla.
 
Voihan sen laittaa manuaalisesti päälle/pois missä tahansa pelissä Nvidia profile inspectorilla.

Tuo oli uutta, nvidia kun on tavan mukaan ollut todella tiukasti lukittu modauksilta. Pikagoogletuksen perusteella on kyllä aika kokeellisessa vaiheessa ja vielä ei ole varmaa toimiiko se oikeasti, vai ei. Hyvä jos sen whitelistauksen saa oikeasti ohitettua.
 
Tuo ReBar voi tosiaan myös laskea suorituskykyä minkä takia on hyvä että se ei ole oletuksena päällä.

1080p.png
 
Tuo ReBar voi tosiaan myös laskea suorituskykyä minkä takia on hyvä että se ei ole oletuksena päällä.

1080p.png
Jep. Paras olisi jos ajurin asetuksista tai pelin sisältä (joku driver overlay) saisi valittua päälle/pois ilman erillisiä ohjelmia tai muuta bloatwarea.
 
Ja syykin on tuolla ylhäällä jo selitetty, eikä se NVIDIAn näyttis tuossa mitään maita mullistavia eroja tee vaikka DX11-ajuri säikeistyykin paremmin, 11900K nousee kärkeen, mutta seuraavat sijat menee jo Ryzeneille
Far Cry -sarjan maine hyvin Intel vetoisena on ollut todellisuudessa enemmän single thread -vetoisuutta, Ryzen 3000 -sarja otti jo hyvin kiinni ja Ryzen 5000 -sarja jo ohi. AMD:n DX11-ajuri kun ei skaalaudu kivasti usealle ytimelle se entisestään korostaa tilannetta.

edit: Ja Igor valitsi 6900 XT:n, koska DX11 alkaa olemaan enemmän eilistä ja DX12 tätä päivää, ja DX12 puolella tilanne on ns. päinvastainen, NVIDIAn ajurit muodostavat prosessoripullonkaulan.

Tämä selvä. Siirsin tänne GPU-ketjuun kun tuo AMD vs Nvidia: DX11 ja 12 -kiinnostaa. Tässä on nyt ollut muissa ketjuissa juttua Nvidian DX12 -ongelmista edellisten sarjojen prosessoreilla, ja sitten oli AMD:n RDNA2 + DX11 huonommasta suorituskyvystä, mutta onko näillä GPU-valinnan kannalta suurempaa merkitystä? Onhan se DX12 huomisen juttu, mutta itsellä on pelaamatta monta DX11 -peliä vielä, ja RX 6700xt sellainen jonka voisin paljon realistisemmin saada kuin 3060ti tai 3070 alle 800e. edit: Korjaus.

Onko nuo erot molemmissa tapauksissa niin pieniä, että ei ole peruspelaajalle käytännön merkitystä? ~70-90fps riittää mulle pelissä kuin pelissä. Nettihippoja en toistaiseksi harrasta. Cod Warzonea saatan alkaa taas pelaan, mutta se ei taida olla ongelma kummankaan ohjaimella tai kummankaan prosessoreilla?
 
Tämä selvä. Siirsin tänne GPU-ketjuun kun tuo AMD vs Nvidia: DX11 ja 12 -kiinnostaa. Tässä on nyt ollut muissa ketjuissa juttua Nvidian DX12 -ongelmista edellisten sarjojen prosessoreilla, ja sitten oli AMD:n RDNA2 + DX11 huonommasta suorituskyvystä, mutta onko näillä GPU-valinnan kannalta suurempaa merkitystä? Onhan se DX12 huomisen juttu, mutta itsellä on pelaamatta monta DX11 -peliä vielä, ja RX 6700xt sellainen jonka voisin paljon realistisemmin saada kuin 3060ti tai 3070 alle 800e. edit: Korjaus.

Onko nuo erot molemmissa tapauksissa niin pieniä, että ei ole peruspelaajalle käytännön merkitystä? ~70-90fps riittää mulle pelissä kuin pelissä. Nettihippoja en toistaiseksi harrasta. Cod Warzonea saatan alkaa taas pelaan, mutta se ei taida olla ongelma kummankaan ohjaimella tai kummankaan prosessoreilla?
RDNA2 + DX11 heikko suorituskyky koskee vain vain joitain yksittäisiä pelejä, ei mikään RDNA2:n "erikoisominaisuus" tms. AMD:n DX11-ajuri ei säikeisty NVIDIAn tapaan, mutta se ei tarkoita etteikö suorituskyky DX11-peleissä olisi silti enemmän kuin tarpeeksi.
Eikä se NVIDIAnkaan prosessoririippuvaisuus DX12-puolella nykypäivän vehkeillä ja resoilla vastaan tuppaa tulemaan, vaan lähinnä jos resoa väännetään huippuvehkeillä tuonne 1080p ja alle tasolle tai prossuksi pistetään midrangea tjsp tai alle
edit: ja tarkennan vielä itseäni, vaikka tätä jo lainasit, että tässä "midrange" viittaa Ryzen3600 ja alle paikkeille
 
Viimeksi muokattu:
RDNA2 + DX11 heikko suorituskyky koskee vain vain joitain yksittäisiä pelejä, ei mikään RDNA2:n "erikoisominaisuus" tms.
Eikä se NVIDIAnkaan prosessoririippuvaisuus DX12-puolella nykypäivän vehkeillä ja resoilla vastaan tuppaa tulemaan, vaan lähinnä jos resoa väännetään huippuvehkeillä tuonne 1080p ja alle tasolle tai prossuksi pistetään midrangea tjsp tai alle

Kiitän. Eli huoletta voi ostaa kumman tahansa kortin nykyisyyttä ja tulevaisuutta ajatellen. Nykysaatavuuksilla ei sen puoleen ole oikein varaa valitakkaan vihreän ja punaisen leirin välillä. Ellei ole valmis maksamaan maltaita. Edit: Tai no maltaitahan joutuu jo maksamaan vaikka saisi jonkun 6700 XT 739€, mutta tuo olisi jo aika hyvä hinta nykytilanteessa.
 
Mielenkiintoisia uutisia GPU -arkkitehtuuririntamalta:
(En muista, oliko tästä jo jollakin rintamalla uutisoitu, mutta tänään ovat nousseet otsikoihin. Patentti on julkaistu 1.4.2021, mutta ei liene aprillipila)
Ajatuksena on toteuttaa GPU usealla erillisellä GPU Chipletillä ja Infinity Cache -tyyppisellä välimuistimuistiväyläsirulla.
AMD latest GPU chiplet patent reveals plans for active bridge chiplet with integrated cache

 
Mielenkiintoisia uutisia GPU -arkkitehtuuririntamalta:
(En muista, oliko tästä jo jollakin rintamalla uutisoitu, mutta tänään ovat nousseet otsikoihin. Patentti on julkaistu 1.4.2021, mutta ei liene aprillipila)
Ajatuksena on toteuttaa GPU usealla erillisellä GPU Chipletillä ja Infinity Cache -tyyppisellä välimuistimuistiväyläsirulla.
AMD latest GPU chiplet patent reveals plans for active bridge chiplet with integrated cache


Tuossa ei ole kyse pelkästään GPUsta vaan yhdistelmäpiiristä(APU), jossa CPU käyttää myös samaa muistia näyttiksen kanssa.
 
GitGuru on tehnyt hyvän videon. Otsikolla, Ray Tracing in Cyperpunk 2077: voiko Amd kilpailla ?

Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.

 
GitGuru on tehnyt hyvän videon. Otsikolla, Ray Tracing in Cyperpunk 2077: voiko Amd kilpailla ?

Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.

Surkeeta on, mutta onneksi ei tarpeellista.
 
GitGuru on tehnyt hyvän videon. Otsikolla, Ray Tracing in Cyperpunk 2077: voiko Amd kilpailla ?

Ei voi kilpailla. Tuo peli kyykyttää jopa Nvidian kortteja RT ON, mutta Nvidialla DLSS pelastaa. Osa sanoo että DLSS ON tuolta löytyy reilusti artifakteja ja kuva on suttuisempaa, jotku sanoo että ei huomaa eroa. Itse en ole päässyt kokeilemaan, enkä aio tulevaa korttiakaan DLSS:n vuoksi valita.

Mutta joka tapauksessa AMD tarvii lisää potkua RT-peleihin. Toivottavasti sitä ei kuitenkaan tehdä natiivi -kuvanlaadun kustannuksella. Mielummin pelaan toistaiseksi pelit RT OFF, varsinkin kun nuo RT-pelit on hienoja ilman sitä säteenseurantaakin. Paljon saa tapahtua että säteenseuranta alkaa olla noiden suorituskyky -hittien arvoista. Ei oikein riitä jotku heijastavat pinnat ja vähän immersiivisempi valaistus siellä-täällä. Kokonaisvaltaisen pelikokemuksen kannalta nuo on lopulta aika pieniä juttuja.
 
Ei voi kilpailla. Tuo peli kyykyttää jopa Nvidian kortteja RT ON, mutta Nvidialla DLSS pelastaa. Osa sanoo että DLSS ON tuolta löytyy reilusti artifakteja ja kuva on suttuisempaa, jotku sanoo että ei huomaa eroa. Itse en ole päässyt kokeilemaan, enkä aio tulevaa korttiakaan DLSS:n vuoksi valita.

Mutta joka tapauksessa AMD tarvii lisää potkua RT-peleihin. Toivottavasti sitä ei kuitenkaan tehdä natiivi -kuvanlaadun kustannuksella. Mielummin pelaan toistaiseksi pelit RT OFF, varsinkin kun nuo RT-pelit on hienoja ilman sitä säteenseurantaakin. Paljon saa tapahtua että säteenseuranta alkaa olla noiden suorituskyky -hittien arvoista. Ei oikein riitä jotku heijastavat pinnat ja vähän immersiivisempi valaistus siellä-täällä. Kokonaisvaltaisen pelikokemuksen kannalta nuo on lopulta aika pieniä juttuja.

CP2077 säteenseuranta on ihan mainion näköinen ilman ultra asetuksiakin. Esim. DF:n optimoiduilla asetuksillä saa fps:aa lisää ja suurimman osan säteenseurannan antamasta karkista.

Ihan pikkujututkin kuten oikeat varjot ja niiden puute ilman säteenseurantaa on melkoinen puutos peligrafiikan vakuuttavuudessa. Väärin toimivat varjot/heijastukset/screenspace toteutusten viallisuus ovat paljon isompia puutteita grafiikassa kuin pieni dlss artifakta siellä tai täällä. Heijastukset sun muut on extrakarkkia tuohon päälle. Toki säteenseurannan wow efekti on paljon isompi kun pelaa itse. Grafiikka toimii kuten oikeasti eikä kuten perinteinen peli. Stilleissä sitä eroa on vaikeampi nähdä/ymmärtää. Jossain määrin videokaan ei ole riittävä. Siinä on jotain maagista kun silmä/käsikoordinaatio pelaa ja valot/varjot/heijastukset toimivat ns. oikein ja reagoivat kameran liikutteluun.
1617721061535.png


Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.
 
Viimeksi muokattu:
Eli mikäli haut toimivat oikein tätä ei ole vielä käsitelty täällä?

Yllätyin miten järjestään 3070 voitti lähes jokaisessa pelissä melko selvästi 6700 XT:n. Vain muutamassa jälkimmäinen voitti selvästi. Sinänsä jos nimellishinnat olisivat todelliset niin se olisi ihan järkevääkin. No jaa onhan niillä nytkin kohtalaisen järkevät hintaerot.

Kannattaa katsoa koko video läpi jos miettii noiden kahden välillä, linkattu yhteenvetotaulukon kohtaan. Lisäksi tuosta löytyi yksi pelissä jossa noi oli tasoissa HD, 3070 ohitti 1440p mutta sitten 6700 XT voitti todella reippaasti 4k, eli siinä yhdessä pelissä Radeonin suuremmasta muistista oli valtavasti apua. (joo unohdin sen jo)
Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.
 
Eli mikäli haut toimivat oikein tätä ei ole vielä käsitelty täällä?

Yllätyin miten järjestään 3070 voitti lähes jokaisessa pelissä melko selvästi 6700 XT:n. Vain muutamassa jälkimmäinen voitti selvästi. Sinänsä jos nimellishinnat olisivat todelliset niin se olisi ihan järkevääkin. No jaa onhan niillä nytkin kohtalaisen järkevät hintaerot.

Kannattaa katsoa koko video läpi jos miettii noiden kahden välillä, linkattu yhteenvetotaulukon kohtaan. Lisäksi tuosta löytyi yksi pelissä jossa noi oli tasoissa HD, 3070 ohitti 1440p mutta sitten 6700 XT voitti todella reippaasti 4k, eli siinä yhdessä pelissä Radeonin suuremmasta muistista oli valtavasti apua. (joo unohdin sen jo)
Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.

Sampsa sai vähän erilaisia lukemia:



Mutta eiköhän tässä tilanteessa ole prioriteetti nro 1 että saa edes jotain jokseenkin järkevällä hinnalla. Sitten kun saatavuus helpottaa voi miettiä tarkemmin suorituskykyeroja.
 
Yllätyin miten järjestään 3070 voitti lähes jokaisessa pelissä melko selvästi 6700 XT:n. Vain muutamassa jälkimmäinen voitti selvästi. Sinänsä jos nimellishinnat olisivat todelliset niin se olisi ihan järkevääkin. No jaa onhan niillä nytkin kohtalaisen järkevät hintaerot.

8% keskiarvollinen ero 3070 hyväksi QHD:na, joten ei kai tuo nyt niin iso ero ole. Ja tuossa on paljon kevyempiä pelejä joissa RTX 3070 repii tolkuttomia eroja. TPU:n testeissä pääosin raskaampia pelejä, ja heidän testeissä 3070 oli QHD:na vain 4% nopeampi kuin 6700xt. Mutta joo on se 3070 silti keskimäärin nopeampi, ja RT-suorituskyvyltään selvästi nopeampi.

3070 olisi kelvannut mulle jollain ~800 eurolla, mutta eipä noita alle tonnin tahdo uutena saada. 6700xt metsästin myös pitkään, mutta ei onnestanut joten käytetty RTX 2080 tarttui haaviin kun kyllästyin etsimään uutta. Tolla RTX 2080 mennään varmaan parisen vuotta, jos ei sitten 8gb VRAM muodostu turhan nopeasti pullonkaulaksi. Mielellään olisin pysynyt AMD:n leirissä, kun Radeon Softwareenkin ehdin tykästyä, mutta kokeillaan nyt Nvidiaa taas 3 vuoden tauon jälkeen.
 
"Tuloksissa AMD:n Radeon RX 6000 -sarjan näytönohjaimilla on ollut käytössä Resizable BAR -ominaisuus, kuten myös NVIDIAn leiristä GeForce RTX 3060:llä."

Kun taas HU:n testissä noi on ollut pois.
Mun ymmärtääkseni Resizable BAR ei ole kovin merkittävä ominaisuus, toki antaa vähän boostia, mutta ei paljoa.

Lisäksi eiköhän näiden korttien ostajilla useimmiten emo ja prossu tue tuota Resizable BAR -ominaisuutta.
 

Statistiikka

Viestiketjuista
297 705
Viestejä
5 075 197
Jäsenet
81 361
Uusin jäsen
RatikkaT

Hinta.fi

Back
Ylös Bottom