Virallinen: NVIDIA vs AMD (vs Intel) keskustelu- ja väittelyketju

  • Keskustelun aloittaja Keskustelun aloittaja Sampsa
  • Aloitettu Aloitettu
Sä nyt näyttäisit tarkertuvan asiaan siltä kantilta, että arvostelisin teidän puolueettomuutta. Siitä ei nyt ole kyse, vaan meidän näkemyseroista siitä, mikä on tärkeää. Vähemmän puoleettomat käyttäjät nyt vain takertuvat teidän yhteenvetokaavioihin koko totuutena, mutta se ei ole teidän vika.

Mun mielestä pitäisi olla kourallinen hybridityyppisiä RT-pelejä testattuna ja erillinen yhteenvetokaavio niiden suorituskyvystä. Puhtaat RT-pelit kuten Minecraft ja Quake 2 tuskin tulevat yleistymään aikoihin, ja niiden lisääminen kaavioon ei ajane mitään järkevää. Uskon kuitenkin hybridi-tyyppisen RT:n yleistyvän rivakasti lähitulevaisuudessa, kun konsolit nyt sai kyseisen ominaisuuden, ja sen suorituskyky tulee olemaan merkittävässä roolissa kun niitä pelejä ajetaan "asetukset tapissa". RT-suorituskyvyn lakaiseminen nurkkaan nykytyyliin on mielestäni lyhytnäköistä. Näin toki jo tuolla asiaketjuissa, etten ole tätä saamassa läpi.

Eikös noita RT-pelejä ole testattuna myös IO-techillä? Sinun pointtisi on ollut testata RT-pelit ainoastaan RT-ON, mikä on täysin järjetön vaatimus. Mielestäni tässä AMD:n erityyppisessä ratkaisussa säteenseurannan kannalta on se hyvä asia, että voidaan varmasti parin seuraavan vuoden aikana huomata kumpi on kokonaisuutena tehokkaampi tapa, täysin dedikoidut Nvidian RT-coret vai AMD:n hybridi-SM:t.

Vielä vuosi sitten tuntui olevan vaatimuksena pelattavat 4k-asetukset yhdellä high-end kortilla, nyt kun Nvidia on parempi RT:ssä tuntuu että minimivaatimus on 4k-RT:llä DLSS:n kanssa. Jos jonkun järkevän 6800XT/6900XT:n saan, niin olen tyytyväinen pelattavaan 1440p-RT asetuksiin kokeilumielessä, ja pääsääntöisesti tulee kuitenkin pelattua pelejä ilman RT:tä.

Katsotaan sitten 2-5 vuoden päästä onko RT se ensisijainen benchattava asia, nyt se ei sitä ole.
 
No onhan ollut. Olet valittanut kun pelit on testattu maksimiasetuksilla (RT OFF) JA maksimiasetukset (RT ON). Tästä olet kritisoinut noiden maksimirasteroitujen testien tarpeellisuutta. Millä hiton logiikalla yrität puhua itseäsi pois tästä?

Esitätkö lainauksen, missä kielsin testaamasta ilman RT:tä?
 
Esitätkö lainauksen, missä kielsin testaamasta ilman RT:tä?

Lopetappa nämä onelinerit ja perustele sitä pointtiasi sitten tarkemmin. Sinun mukaasi grafiikka-asetukset ei ole maksimissa, jos RT = OFF. Miten toteuttaisit nuo benchmark slaidit joihin tartuit, kun AMD sattui olemaan Nvidiaa edellä? Pitäisikö sinne tunkea jotain ''all settings maxed except RT OFF'', koska sinun mielipide on mitä on? Vai oletko kuitenkin tyytyväinen nykyisten testien esittämistapaan?

Mun motivaatioiden arvailua en arvosta.

Söpöä. Itse taas en arvosta käyttäjiä, jotka ei edes pyri rakentavaan keskusteluun, ja vänkää jollain onelinereilla.

Saahan se toki AMD:n näyttämään paremmalta, oli se sitten tarkoitus tai ei.

Tässä käytännössä kyseenalaistat linkattujen benchmarkien tarkoitusperiä ja työtä tekevien ammattilaisten puolueellisuutta, joka on aivan naurettavaa soopaa. Kun tulokset ei miellytä, alkaa vänkääminen. Jos RT suorituskyky olisi toisinpäin, niin mielipiteesi tuskin olisi sama. En ole missään ketjussa nähnyt sinulta kriittistä suhtautumista Nvidiaan, ja taas AMD:ta vähättelet aina kun on paikka. Älä ihmettele jos sun motiiveja kyseenalaistetaan. Sitä saa mitä tilaa.
 
Viimeksi muokattu:
Babeltech-reviewsin VR-bencheissä RTX 3080 on selkeästi edellä RX 6800 XT:tä. Muutamassa pelissä mielenkiintoisesti 3080:lla muodostuu synteettisiä freimejä, kun vastaavalla frametimellä 6800 XT droppaa ne kokonaan. Olen kuvitellut tuon olevan enemmän VR-lasien/softan tehtävä tuottaa synteettiset freimit jos GPU ei pysy perässä, mutta tässä on useasti havaittavissa selkeä ero. Ehkä johtuu ajureista? Mene ja tiedä.

Pääsääntöisesti molemmat tuottavat täysin pelattavan kokemuksen ilman suurempia eroja. Huomattavaa testissä on myös asetettu +200% SuperResoluutio, mikä saattaa aiheuttaa Nvidialle suhteellista etulyöntimatkaa (1440p vs 4k).
 
Babeltech-reviewsin VR-bencheissä RTX 3080 on selkeästi edellä RX 6800 XT:tä. Muutamassa pelissä mielenkiintoisesti 3080:lla muodostuu synteettisiä freimejä, kun vastaavalla frametimellä 6800 XT droppaa ne kokonaan. Olen kuvitellut tuon olevan enemmän VR-lasien/softan tehtävä tuottaa synteettiset freimit jos GPU ei pysy perässä, mutta tässä on useasti havaittavissa selkeä ero. Ehkä johtuu ajureista? Mene ja tiedä.

Babeltechin testikonfiguraatio kyllä ihmetyttää. Ne ei testaa ajureiden oletusasetuksilla. Testeissä filtering on molemmissa vedetty high qualityyn, mutta ajureista on kytketty kaikki optimoinnit pois päältä kummaltakin kortilta. AMD:lla se vie ainakin shader cachen, mikä käsittääkseni voi lisätä stutteria.

Edit: Babelin vanhemmissa testeissä oli screenshotteja ajureista, uusista ei ollut. Niissä shader cache oli päällä kummallakin.

Silti aika jänniä asetuksia. AMD:lla on tesselaatioasetukset vaihdelleet optimoitu/optimoinnit pois testistä riippuen, pintamuoto optimoinnit on aina poissa. Virransäästö featuret oli pois päältä.

Nvidialla oli virrankäyttö ja näyttömoodit vedetty performanceen ja poistettu alpha tekstuurien antialisointi, fxaa, dsr ja MFAA. Säieoptimoinnit päällä, negative lod bias päällä. Ambient occulsion pois päältä. Käytännössä lähes kaikki asetukset oli lukittu johonkin, eikä vakiona.

Sääli, kun tuo on niitä harvoja saitteja, jotka testaa VR:ää, niin sitten ne vetää testejä omilla custom asetuksillaan ajureissa, joilla saa hyvin suorituskykyheittoja aikaan. Nvidian setti oli varsin jännä, kun antialisointi oli jätetty applikaation hoidettavaksi, mutta antialisoinnista oli disabloitu kaikki featuret mitä voitiin. LOD toisaalta on on vähän raskaammaksi säätävä asetus, mutta ambient occulsionin poisto taas keventää. Jälkinmäisestä en tiedä miten käy jos se peli yrittää käyttää sitä, mutta ajureista se on kytketty pois päältä.
 
Viimeksi muokattu:
Lopetappa nämä onelinerit ja perustele sitä pointtiasi sitten tarkemmin. Sinun mukaasi grafiikka-asetukset ei ole maksimissa, jos RT = OFF. Miten toteuttaisit nuo benchmark slaidit joihin tartuit, kun AMD sattui olemaan Nvidiaa edellä?

Postasin jo tänään tänne, mikä mun pointti on. Kertauksen vuoksi alla:

Mun mielestä pitäisi olla kourallinen hybridityyppisiä RT-pelejä testattuna ja erillinen yhteenvetokaavio niiden suorituskyvystä. Puhtaat RT-pelit kuten Minecraft ja Quake 2 tuskin tulevat yleistymään aikoihin, ja niiden lisääminen kaavioon ei ajane mitään järkevää. Uskon kuitenkin hybridi-tyyppisen RT:n yleistyvän rivakasti lähitulevaisuudessa, kun konsolit nyt sai kyseisen ominaisuuden, ja sen suorituskyky tulee olemaan merkittävässä roolissa kun niitä pelejä ajetaan "asetukset tapissa". RT-suorituskyvyn lakaiseminen nurkkaan nykytyyliin on mielestäni lyhytnäköistä.

Jos RT-suorituskykyä käsitellään 30min videolla 1min, todetaan että RT:n eroa hädin tuskin huomaa niissä parissa pelissä mitkä testattiin, ja lopuksi näytetään performance summary non-RT testeistä jossa AMD johtaa sen muutaman prosentin, niin eikö se ole vähän lyhytnäköistä? Kuinka puusilmä pitää muutenkin olla, ettei eroa huomaa vaikka Metro Exoduksessa tai Watch Dogs Legionissa? Mutta nämäkin jäävät usein testaamatta, kun RT-pelejä ei ollut alunperinkään tarkoitus testata kattavasti. Lakaistaan koko juttu nurkkaan, koska juuri nyt se ei ole vielä laajalle levinnyt. Ongelmakohtien esiin tuominen voisi saada AMD:kin tsemppaamaan.

Varmasti joillakin arvostelijoilla on omat subjektiiviset preferenssinsä. Esimerkiksi nyt vaikka ilmeisimpänä AdoredTV. Luotatko kaikkiin arvostelijoihin puolueettomuuden linnakkeina? Mullakin ihan kokemuksien kautta tullut preferenssi NVidiaan ja Inteliin, mutta mitään sokeaa fanittamista tai jonkun firman vihaamista se ei ole koskaan ollut. Nythän AMD jo rökitti Intelin yksiselitteisesti sillä mulle tärkeimmällä osa-alueellakin, ja siihen mulla ei ole ollut mitään nokan koputtamista. Nyt jos päivittäisin prossua, niin ehdottomasti ostaisin AMD:tä. Suosittelin myös tyttikselle taannoin AMD:n 3600:sta ja se sille ostettiinkin. Melkein tilattiin 6800XT:kin, jos olisi F5-lotot menneet putkeen. RT-suorituskyky ei vaan ollut vielä tiedossa, ja olisi varmasti mennyt peruutukseen arvostelujen lueskelun jälkeen.

AMD:tä vähättelen lähinnä vastaillessa AMD-fanipojille ja trolleille, ja enimmälti osin juuri tässä ketjussa. Asia-alueet sitten erikseen.
 


Radeon 6800XT on WoW: Shadowlands pelissä nopeampi kuin 3090 kun laitetaan säteenjäljitys päälle. Taitaa olla Nvidiallakin bugiset ajurit koska 1440p resolla 3090 häviää jopa 2080Ti:lle...
 
[


Radeon 6800XT on WoW: Shadowlands pelissä nopeampi kuin 3090 kun laitetaan säteenjäljitys päälle. Taitaa olla Nvidiallakin bugiset ajurit koska 1440p resolla 3090 häviää jopa 2080Ti:lle...

No onhan ne bugiset kun tuota 3knsarjan kettua katsoo. Pelkkää mustaa ruutua ja muita ongelmia korttien kanssa.


;)
 


Radeon 6800XT on WoW: Shadowlands pelissä nopeampi kuin 3090 kun laitetaan säteenjäljitys päälle. Taitaa olla Nvidiallakin bugiset ajurit koska 1440p resolla 3090 häviää jopa 2080Ti:lle...


Oletkohan nyt tässä hehkuttamassa 6800XT:n RT suorityskykyä, vai haukkumassa NVIDIA:n ajureiden bugisuutta ko. pelin osalta... Aika kaksijakoinen tuo viestisi nääs.

Ekan lauseen perusteella voisi luulla, että olet hehkuttamassa, mutta sitten taas kumoat kaikki hehkutuksen aiheet kertomalla sen oikean syyn, seuraavassa lauseessa.
 
Oletkohan nyt tässä hehkuttamassa 6800XT:n RT suorityskykyä, vai haukkumassa NVIDIA:n ajureiden bugisuutta ko. pelin osalta... Aika kaksijakoinen tuo viestisi nääs.

Ekan lauseen perusteella voisi luulla, että olet hehkuttamassa, mutta sitten taas kumoat kaikki hehkutuksen aiheet kertomalla sen oikean syyn, seuraavassa lauseessa.

En ole hehkuttamassa mitään vaan kertomassa asiasta?
Miksi kaikkien viestien pitää olla jotenkin puolueellisia?
 
Aivan varmasti tulee RT-tuella olemaan vielä pidemmän aikaa bugeja niin artifaktien, kuin suorituskyvyn puolelta molemmissa leireissä. On se kuitenkin vielä niin uusi käyttökohde peleissä, että mikään ihme ole että nähdään mitä oudompia tuloksia.
 
Höpsis, kaikissa RT:tä tukevissa peleissä oli RT pois päältä. Se ei ole mikään "maksimiasetukset".

RT on vielä niin niche hommaa että se kyllä luokitellaan extra ominaisuudeksi, ei pelin defaultti asetussettiin kuuluvaksi ominaisuudeksi. Tuskin yhdessäkään pelissä ne pelin asetus presetit asettaa RT on.
Katsellaan joskus parin vuoden päästä tilannetta uudestaan, jos sitten olis jo niin tukevaa RT rautaa että se RT:n päällelaitto ei tankkaa merkittävästi suorituskykyä ja pelivalikoima alkaa olla sillä tasolla että se on tuettuna lähes kaikissa peleissä.

On kummallista miten se syyttävä sormi osoittaa aina Nvidiaa päin kun kyseessähän on ihan tyypillinen teknologisen etumatkan hyödyntäminen bisnesmielessä. On kilpailijoiden vastuulla tarjota devaajille vaihtoehtoja. Nvidia kehittää näitä teknologioita jotta pelit ottaisivat niitä käyttöön ja pelaajat ostaisivat niitä varten tehokkaampaa rautaa. Bisnestä tuo on. Ei Nvidia työnnä pyssyä ohimolle ja pakota yhtäkään deviä mukaan tuohon touhuun, vaan devitkin ovat täysin vapaaehtoisesti mukana touhussa jotta omasta pelistä saadaan paremman näköinen ja saataisiin lisää myyntiä.

Nvidia kehittää teknologioita ainoastaan siitä syystä että saisivat lonkeronsa entistä syvemmälle ja kaikki lukittua omaan suljettuun ekosysteemiinsä. Mitään muuta intressiä nvidialla ei ole. Ja tuo on pitkässä juoksussa sellainen jota yhdenkään kuluttajan ei kannata toivoa että se toteutuu, koska silloin meille on tarjolla vain yhden valmistajan varteenotettavia näytönohjaimia ja ne on brändätty nvidian nimellä.

Milloin viimeeksi nvidia on kehittänyt jotain avointa?

Ei Nvidia huvikseen ole vuosikymmeniä kehittänyt omaa implementaatiotaan, ja testeistähän näkee että se on huomattavasti AMD:n räpellystä tehokkaampi. AMD riittää ehkä muutaman hassun lätäkön peilaamiseen, mutta sitten kun siirrytään enemmän ja enemmän kohti full scene raytracingiä niin 6000-sarjalaiset paskoo alleen totaalisesti.

Vai että oikein vuosikymmeniä. :D Ei kannata uskoa kaikkea mitä markkinointi sedät sinulle uskottelee.
Mites sitten toi RTX korttien alleen paskominen noissa AMD vetoisissa peleissä?

Voiskohan syynä olla se että AMD:n kortit näyttää todellisuutta huonommilta NYT koska niitä on testattu pääasiassa nvidia vetoisilla peleillä? Itte en esim. hetkeäkään epäile etteikö nvidia saisi esim Dirt 5 lisää suorituskykyä myöhemmin. Ja veikkaan että AMD:n raudalle voidaan saada MYÖS tehoa lisää noihin nvidia vetoisiin peleihin sikäli mikäli pelinkehittäjiä enää kiinnostaa noihin vanhoihin peleihin panostaa.

Se että Cyberpunk ei tue AMD:n räpellyksiä on tasan tarkkaan AMD:n vika, eikä kenenkään muun.

Eli miten se on AMD:n vika? Nvidian rahalla kehitetty peli, eiköhän siellä ole sopparissa pykät että keskitytään MEIDÄN rautaan, ei kaverin vaikka kaveri haluaisikin bileisiin mukaan.

Hyvänä esimerkkinä vaikkaa BF5 johon nvidia auttoi lisäämään toimivat RT opsit kahdessa viikossa kun AMD ei ole saanut samaa tehtyä kahdessa vuodessa.

Kyllä suuresti epäilen että parissa viikossa olisi RT väkerretty BF5:n. Jotain on toki siinä ajassa saatu väkerrettyä mutta koko toteukseen kyllä on kulunut kuukausia.

Onko tähän mitään muuta oikeutusta, kuin että AMD on siinä selvästi huonompi? Kysyn uudelleen, pitäisikö tekstuuriasetusta pudottaa pelissä, jossa NVidialla loppuu tekstuurimuisti kesken ja AMD:llä riittää?

Tekstuurimuistin määrä on hiukan eri asia. Nvidia päätti porata kuluttajia kakkoseen julkaisemalla tuhnulla muistimäärällä kortit. Onhan se tietty bisneksen kannalta hyvä asia kun voidaan sama kortti myydä samalle kaverille kahteen kertaan. Ensin tuhnulla muistimäärällä ja puolen vuoden päästä tuplamäärällä.

Miten nopeasti NVidian sivuilta löytää tekoälyjutut vs AMD:n sivuilta? (Vinkki AMD:n AI tukea kutsutaan ROCm:ksi)

ROCm on opencl korvike, ei pelkästään tekoäly juttuihin tehty kikotin, sillä voidaan tehdä paljon muutakin.
Sitten intel duunaa OneAPI:a, eli kohta on tilanne että laskenta/tekoäly puolella on Cuda, ROCm ja OneAPI. 2 noista on avoimia, yksi suljettu. Joten mitenköhän tulevaisuudessa käy?

Kyllä se toi ihan oikeasti. Katsoppas noita puhtaita rt benchejä. Esim. Quake2 RTX.

quake-ii-rtx-4k.png

quake-ii-rtx-1440p.png

Quake II is next. It’s not quite there at 4K, but the interesting part is that the 3080 leads even harder than it did previously: It’s now at 45% higher average framerate than the 2080 Ti, or 90% ahead of the 2080 Super card, which is insane. This game is path-traced, so the difference in RT generations becomes apparent.

Eli missä se tupla nopeus oikein on? RTX3090 toi ei tietenkään ole, mutta DF:n testeissä 3090 johto 2080Ti:n jäi alta 70% 1440p resolla.

Toki jos otetaan tuolta RTX2060 ja verrataan sitä 3080 niin kyllä! Olet oikeassa sieltä saataan jopa kolminkertainen ero aikaiseksi!
 

Missä helvetin vaiheessa Nvidia olisi kerinnyt ajureita optimoida just julkaistuun AMDeen peliin.
Wowin kohdalla RT-tuki tuli ennen kuin nämä uudet 30x0- ja 6800-sarjat julkaistiin: [Updated: New Zone Performance] WoW Shadowlands Ray Traced Shadows Screenshots Surface; Requires DirectX Raytracing 1.1 and Capable GPU ja Nvidia on tainnut useamman ajuri-optimoinnin tehdä Shadowlandsin beta-kehityksen aikana. Siihen nähden AMD:n tehot ovat yllättävän hyvät.
 
Wowin kohdalla RT-tuki tuli ennen kuin nämä uudet 30x0- ja 6800-sarjat julkaistiin: [Updated: New Zone Performance] WoW Shadowlands Ray Traced Shadows Screenshots Surface; Requires DirectX Raytracing 1.1 and Capable GPU ja Nvidia on tainnut useamman ajuri-optimoinnin tehdä Shadowlandsin beta-kehityksen aikana. Siihen nähden AMD:n tehot ovat yllättävän hyvät.

Puoli vuotta betassa ollut RT tuki ja Nvidia julkaisi sille game ready ajurit elokuussa ja kehui vielä RTX:ää:

"A new NVIDIA driver, version 452.06, was released today, focused on optimizations for Microsoft Flight Simulator, World of Warcraft: Shadowlands, A Total War Saga: TROY, and Tony Hawk’s Pro Skater 1+2.

As part of the press release, NVIDIA boasted that the beta of World of Warcraft: Shadowlands will soon enable ray-traced shadows in what they claim is unequivocally the way forward after other behemoths such as Minecraft, Call of Duty and the upcoming Cyberpunk 2077 also embraced ray tracing technology."
 
Puoli vuotta betassa ollut RT tuki ja Nvidia julkaisi sille game ready ajurit elokuussa ja kehui vielä RTX:ää:

"A new NVIDIA driver, version 452.06, was released today, focused on optimizations for Microsoft Flight Simulator, World of Warcraft: Shadowlands, A Total War Saga: TROY, and Tony Hawk’s Pro Skater 1+2.

As part of the press release, NVIDIA boasted that the beta of World of Warcraft: Shadowlands will soon enable ray-traced shadows in what they claim is unequivocally the way forward after other behemoths such as Minecraft, Call of Duty and the upcoming Cyberpunk 2077 also embraced ray tracing technology."
Niin, ei siellä betassa tosin puolta vuotta ole ollut varsinaista RT-tukea, vaan vasta elokuusta lähtien. Sitä ennen grafiikka-asetuksissa näkyi kyllä RT-asetukset, mutta niitä ei voinut laittaa päälle.
 
Niin, ei siellä betassa tosin puolta vuotta ole ollut varsinaista RT-tukea, vaan vasta elokuusta lähtien. Sitä ennen grafiikka-asetuksissa näkyi kyllä RT-asetukset, mutta niitä ei voinut laittaa päälle.

Niin muuten olikin, kun uutista lukee. Kamat ilmestyi valikoihin, mutta niitä ei saanut enabloitua. Todennäköisesti jollain developer flagilla ne on saanut päälle jo tuolloin, eli kyllä sitä tukea on hierottu pitkään.
 
Nvidiallakin lienee rajallinen määrä noita RTX integraatio/ajuriexperttejä ja paukut on selvästi laitettu niihin muutamaan peliin jotka on näkyvimmin eri testisivustoilla käytössä tai tulee taatusti sellaisia olemaan (watchdogs, cp2077). Nvidiahan on käyttänyt cyberpunkin markkinointiinkin aika paljon paukkuja, olisi kovin noloa jos suorituskykykuninkuus ei olisi erittäin selvä pelin tullessa markkinoille. Dirt, wow ja muut ei niin hype-intensiiviset pelit rullaa sit omalla painollaan perässä.
 
Dirt 5:tä ja Shadowlandsia yhdistää se, että säteenseurantaa käytetään niissä ainoastaan varjojen renderöintiin, ts. varsin kevyesti. Godfall ilmeisesti sama homma.

Puhuminen optimoinnista Nvidialle ja AMD:lle erikseen on vain lammikon samentamista. Säteenseurantaa ajetaan yhteisen rajapinnan päällä. Valmistajakohtainen "optimointi" on tällä hetkellä sitä, että kun toisella on relevanttia laskentatehoa merkittävästi vähemmän, säteenseurantaa yksinkertaisesti vain käytetään vähemmän, jos kehittäjätuki tulee punaisesta leiristä. Vihreä kehittäjätuen pelit kuten CP2077 taas käyttävät säteenseurantaa laajemmin, joten ilman DLSS/SR-apuja ei ole mitenkään selvää, riittääkö 6000-sarjassa suorituskyky.
 
Puhuminen optimoinnista Nvidialle ja AMD:lle erikseen on vain lammikon samentamista. Säteenseurantaa ajetaan yhteisen rajapinnan päällä. Valmistajakohtainen "optimointi" on tällä hetkellä sitä, että kun toisella on relevanttia laskentatehoa merkittävästi vähemmän, säteenseurantaa yksinkertaisesti vain käytetään vähemmän, jos kehittäjätuki tulee punaisesta leiristä. Vihreä kehittäjätuen pelit kuten CP2077 taas käyttävät säteenseurantaa laajemmin, joten ilman DLSS/SR-apuja ei ole mitenkään selvää, riittääkö 6000-sarjassa suorituskyky.

On siinä optimoinnilla oikeasti merkitystä. Nvidialla on erilliset RT yksiköt, AMD:n menetelmä on hybridi. Nähtävästi AMD:n yksiköt joutuu vaihtelemaan teksturointi/säteenjäljitys tehtävien välillä. Eli jos pelissä tehdään raskaita teksturointitemppuja samaan aikaan säteenjäljityksen kanssa amd ottaa osumaa huomattavasti nvidiaa enemmän. Jos tuo huomioidaan peliä tehdessä, niin AMD vetää varsin mukavalla suorituskyvyllä.
 
Joo tämähän tässä nvidia vs amd RT arvioinnissa on vähän vaikeaa kun AMD:llä tuntuu jäävän aika maltilliseksi tuo RT:n käyttö efektien puolesta, tästä on lukuisia side-by-side esimerkkejä kuinka amd:n RT vain toimii joko puutteellisesti tai ei ollenkaan.
 
Puhuminen optimoinnista Nvidialle ja AMD:lle erikseen on vain lammikon samentamista. Säteenseurantaa ajetaan yhteisen rajapinnan päällä.

Kyllä tuo aika vahvasti vaikuttaa että säteenseuranta ei ole mikään "It just works" homma, vaan vaatii ajuritasolla aikalailla optimointia.

Jos asia ei olisi noin niin miksi Ampere toimii suhteessa AMD niin huonosti World of Warcraftissa ja Dirt5:ssä?
 


Tämähän on aika kätevää, AMD ei rendaa edes kaikkia varjoja RT operaatioina?

Miten näitä voi edes vertailla nvidiaan :D
 


Tämähän on aika kätevää, AMD ei rendaa edes kaikkia varjoja RT operaatioina?

Miten näitä voi edes vertailla nvidiaan :D

Miten se liittyy AMD:n toimintaan mitä pelinkehittäjä sekoilee? Lienee aivan päivänselvää että eri valaistusolosuhteissa ja eri valaistusenginellä kuva näyttää erilaiselta.
 
Joo tämähän tässä nvidia vs amd RT arvioinnissa on vähän vaikeaa kun AMD:llä tuntuu jäävän aika maltilliseksi tuo RT:n käyttö efektien puolesta, tästä on lukuisia side-by-side esimerkkejä kuinka amd:n RT vain toimii joko puutteellisesti tai ei ollenkaan.
Muutamia taitaa olla lähempänä ja kaikkia yhdistää sama UE4-pelimoottori muistaakseni

Tämähän on aika kätevää, AMD ei rendaa edes kaikkia varjoja RT operaatioina?

Miten näitä voi edes vertailla nvidiaan :D
Ihan samat asiat ne tekee valmistajasta riippumatta. Mikäli tuossa ei ole kyse pelin tai ajureiden bugista, niin kyse on ollut pelintekijän valinnasta tai ihan siitä että kun lasketaan miten ne varjot käyttäytyy oikein. Otithan myös sen huomioon, että ilman RT:tä ne varjot eivät välttämättä mene niin kuin kuuluisi?
Ei tässä kyllä ainakaan pikaisella vilkaisulla tule oloa että puuttuisi yhtä ainutta varjoa:
 
Muutamia taitaa olla lähempänä ja kaikkia yhdistää sama UE4-pelimoottori muistaakseni


Ihan samat asiat ne tekee valmistajasta riippumatta. Mikäli tuossa ei ole kyse pelin tai ajureiden bugista, niin kyse on ollut pelintekijän valinnasta tai ihan siitä että kun lasketaan miten ne varjot käyttäytyy oikein. Otithan myös sen huomioon, että ilman RT:tä ne varjot eivät välttämättä mene niin kuin kuuluisi?
Ei tässä kyllä ainakaan pikaisella vilkaisulla tule oloa että puuttuisi yhtä ainutta varjoa:


Se on aika jännä että nimenomaan RT versiossa kiinteät varjot käyttäytyy perin omituisesti. En keksi selitystä sille miksi auringon aiheuttamat varjot liikkuvat kun kamera kääntyy. Siis muuta kuin että ne ei ole RT varjoja ensinkään.

Miten se liittyy AMD:n toimintaan mitä pelinkehittäjä sekoilee? Lienee aivan päivänselvää että eri valaistusolosuhteissa ja eri valaistusenginellä kuva näyttää erilaiselta.
Mikä mahtaa olla syy siihen että RT versiossa täytyy käyttää ilmiselvästi screenspace varjoja...
 


Tämähän on aika kätevää, AMD ei rendaa edes kaikkia varjoja RT operaatioina?

Miten näitä voi edes vertailla nvidiaan :D


Ai meinaatko, että pelintekijä pistää ilkeyttään nvidian käyttämään kaikkialla säteenseurantaa varjoissa ja AMD:lla vain osittain. Newsflash, nykyisissäkin Nvidian RTX peleissä kaikkea ei vedetä säteenseurannalla. Kauempana olevat heijastukset on perinteisiä yms. Sitä kutsutaan optimoinniksi.
 
Tuon Tompan testin mukaan nykyisissä muutamassa säteenseurantaa tukevassa pelissä GeForcet ovat tuntuvasti edellä kuten on helppo olettaa, mutta kannattaa tosiaan tehdä niitä kuvanlaatuvertailuja myös, ettei toiselta puutu joku efekti tai se on huonompi laatuinen. Tomppa fiksusti laittanut keskelle artikkelia kaksi vertailukuvaa, mutta on auttamattoman pienet ikkunat, joten on vaikea erottaa mitään. Silti näyttäisi että hivenen voi jälki olla erilaista toisella. Jäljen laatu siis unohtuu näissä keskusteluissa täysin mikä etenkin nyt tulisi muistaa. Ainakin ATI on kärähtänyt aikoinaan siitä kun viritteli ajurinsa pyörittämään Quakea (kolmosta?) nopeammin huonommalla laadulla.

Tässä vaiheessa totean minäkin että ajureilla on iso rooli ja lisäksi sillä miten pelikehittäjä säteenseurantaa soveltaa, joten ei kannata näistä kehnosti säteenseurantaa hyödyntävistä peleistä vielä liikaa vetää johtopäätöksiä. Jos säteenseuranta on se juttusi niin ostat varmaan GeForcen joka tapauksessa, koska Gameworks-pelit ja alustavasti parempi suorituskyky.
 
Mikä mahtaa olla syy siihen että RT versiossa täytyy käyttää ilmiselvästi screenspace varjoja...

No jos vaikka RT-varjojen piirtäminen piirtoetäisyyden tappiin on liian raskasta, ja RT:tä käytetään vain lähellä olevissa varjoissa.
 
No jos vaikka RT-varjojen piirtäminen piirtoetäisyyden tappiin on liian raskasta, ja RT:tä käytetään vain lähellä olevissa varjoissa.
Tuossa demossahan on ihan kameran alla olevia auringon valon aiheuttamia varjoja jotka käyttäytyy kuin screespace varjot
 
Auringon aiheuttamat kiinteät varjot liikkuvat kun kamera kääntyy.
Tuossa demossahan on ihan kameran alla olevia auringon valon aiheuttamia varjoja jotka käyttäytyy kuin screespace varjot
Ota nyt ihmeessä pari screenshottia ja vaikka ympyröi kohta mitä katsoa, en usko että kovinkaan moni täällä on ajatustenlukija siitä mitä varjoja tarkalleen mahdat tarkoittaa.
Ja kuten tuolla joku jo aiemminkin totesi, ei se että on "RT-varjot" tarkoita että jok'ikinen varjo pelissä lasketaan RT:llä, ei nyt kun AMD on mukana eikä silloin kun vain NVIDIA tarjosi DXR-kiihdytystä.
 
Ainakin ATI on kärähtänyt aikoinaan siitä kun viritteli ajurinsa pyörittämään Quakea (kolmosta?) nopeammin huonommalla laadulla.
Tämäkin se vanha legenda jaksaa edelleen elää vahvana, mutta kumpi näistä skenaarioista lienee todennäköisempi:
-ATi huijasi tarkoituksella ja kun se huomattiin löysi sopivasti heti seuraaviin ajureihin korjauksen, jolla laatu on sitä mitä pitääkin ilman että suorituskyky muuttui huijaukseen verrattuna
-Kyseessä oli bugi ajureissa, joka korjattiin seuraavassa julkaisussa
?
 
Ota nyt ihmeessä pari screenshottia ja vaikka ympyröi kohta mitä katsoa, en usko että kovinkaan moni täällä on ajatustenlukija siitä mitä varjoja tarkalleen mahdat tarkoittaa.
Ja kuten tuolla joku jo aiemminkin totesi, ei se että on "RT-varjot" tarkoita että jok'ikinen varjo pelissä lasketaan RT:llä, ei nyt kun AMD on mukana eikä silloin kun vain NVIDIA tarjosi DXR-kiihdytystä.

Näitä on koko demo täynnä mutta yksi silmiinpistävimmistä on tuo sinisellä merkattu varjo. Kameran kääntyessä sen varjon koko muuttuu mikä on mielestäni mahdotonta jos kyseessä olisi RT varjo. Samalla tavalla käyttäytyy mm. puiden varjot jotka liikkuvat kiviseinillä.

1606145037725.png
 
Tämäkin se vanha legenda jaksaa edelleen elää vahvana, mutta kumpi näistä skenaarioista lienee todennäköisempi:
-ATi huijasi tarkoituksella ja kun se huomattiin löysi sopivasti heti seuraaviin ajureihin korjauksen, jolla laatu on sitä mitä pitääkin ilman että suorituskyky muuttui huijaukseen verrattuna
-Kyseessä oli bugi ajureissa, joka korjattiin seuraavassa julkaisussa
?

Uskotaan toki parempaan maailmaan, että oli bugi, mutta tässä säteenseurantatouhussa ei taida mitään standardeja sillä tavalla olla että kummankin on ehdottomasti tarjottava samaa laatua? Rajapinnan ollessa sama laadun olettaisi olevan sama, mutta ehdottomasti suorituskyvyn tippuessa liian alhaiseksi on kompromisseja tehtävä. Cyberpunk 2077 mielenkiintoinen peli tässä mielessä kun kestää hyvä tovi ennen kuin Radeoneille ratkaisu on valmis, eli tekeekö nyt AMD ajurityötä kovaa tahtia mm. tuota peliä varten vai luoko kehittäjä toista ratkaisua Radeoneita varten? Selvää on vain se että valmiutta ei ole julkaisuun saada tukea Radeoneille.
 
Näitä on koko demo täynnä mutta yksi silmiinpistävimmistä on tuo sinisellä merkattu varjo. Kameran kääntyessä sen varjon koko muuttuu mikä on mielestäni mahdotonta jos kyseessä olisi RT varjo. Samalla tavalla käyttäytyy mm. puiden varjot jotka liikkuvat kiviseinillä.

1606145037725.png
Juu jotain hämärää tuossa näyttäisi olevan, en kuitenkaan ymmärrä että miksi pelintekijän valinnat on AMD:n vika? Veikkaan että pelin RT varjot näyttää ihan samalta nvidiankin korteilla.
 
Juu jotain hämärää tuossa näyttäisi olevan, en kuitenkaan ymmärrä että miksi pelintekijän valinnat on AMD:n vika? Veikkaan että pelin RT varjot näyttää ihan samalta nvidiankin korteilla.
Koska kyseessä on AMD:n kruununjalokivi!

Siksi. Tämän tulisi olla tiukinta timanttia heti julkaisustaan jotta kuluttajille näkyisi että hei, mekin osataan ja suorituskyky riittää.

Tässä on mielestäni joko:

a) AMD:n säteenjäljitysteho ei vain kertakaikkiaan riitä ilman DLSS:n tapaista apua jota AMD ei ole saanut vielä kehitettyä tyydyttävälle tasolle
b) AMD Jatkaa jo pitkältä tuttua linjaa heikosta softa/pelidevien tukemisestaan ja tämä on enemmän pelidevien osaamattomuutta.


Tai voihan se olla sekoitus kumpaakin.
 
Koska kyseessä on AMD:n kruununjalokivi!

Siksi. Tämän tulisi olla tiukinta timanttia heti julkaisustaan jotta kuluttajille näkyisi että hei, mekin osataan ja suorituskyky riittää.

Tässä on mielestäni joko:

a) AMD:n säteenjäljitysteho ei vain kertakaikkiaan riitä ilman DLSS:n tapaista apua jota AMD ei ole saanut vielä kehitettyä tyydyttävälle tasolle
b) AMD Jatkaa jo pitkältä tuttua linjaa heikosta softa/pelidevien tukemisestaan ja tämä on enemmän pelidevien osaamattomuutta.


Tai voihan se olla sekoitus kumpaakin.
Täh, toihan on joku konsolipeli vaan. "Kruununjalokivi", vähän ku vaikka BF5 oli nvidialle kun 2000 sarjan tuotteet tuli ulos ja eroja piti etsiä suurennuslasilla ja sokkotesteissä monet arvasi väärin että kummassa versiossa on ne "aidot" heijastukset. Esim. spidermanissa toimii AMD:n säteenjäljitys ihan hyvin natiivilla 4k resooluutiolla 6800xt:n puolikkaalla.
 
Täh, toihan on joku konsolipeli vaan. "Kruununjalokivi", vähän ku vaikka BF5 oli nvidialle kun 2000 sarjan tuotteet tuli ulos ja eroja piti etsiä suurennuslasilla ja sokkotesteissä monet arvasi väärin että kummassa versiossa on ne "aidot" heijastukset.

Vaan tässäpä ei tarvi suurennuslasia virheiden tai tavallaan RT opsien puuttumisen havaitsemiseen.
 

Uusimmat viestit

Statistiikka

Viestiketjuista
259 227
Viestejä
4 501 323
Jäsenet
74 373
Uusin jäsen
elspa

Hinta.fi

Back
Ylös Bottom