Virallinen: NVIDIA vs AMD (vs Intel) keskustelu- ja väittelyketju

  • Keskustelun aloittaja Keskustelun aloittaja Sampsa
  • Aloitettu Aloitettu
Aivan varmasti tulee RT-tuella olemaan vielä pidemmän aikaa bugeja niin artifaktien, kuin suorituskyvyn puolelta molemmissa leireissä. On se kuitenkin vielä niin uusi käyttökohde peleissä, että mikään ihme ole että nähdään mitä oudompia tuloksia.
 
Höpsis, kaikissa RT:tä tukevissa peleissä oli RT pois päältä. Se ei ole mikään "maksimiasetukset".

RT on vielä niin niche hommaa että se kyllä luokitellaan extra ominaisuudeksi, ei pelin defaultti asetussettiin kuuluvaksi ominaisuudeksi. Tuskin yhdessäkään pelissä ne pelin asetus presetit asettaa RT on.
Katsellaan joskus parin vuoden päästä tilannetta uudestaan, jos sitten olis jo niin tukevaa RT rautaa että se RT:n päällelaitto ei tankkaa merkittävästi suorituskykyä ja pelivalikoima alkaa olla sillä tasolla että se on tuettuna lähes kaikissa peleissä.

On kummallista miten se syyttävä sormi osoittaa aina Nvidiaa päin kun kyseessähän on ihan tyypillinen teknologisen etumatkan hyödyntäminen bisnesmielessä. On kilpailijoiden vastuulla tarjota devaajille vaihtoehtoja. Nvidia kehittää näitä teknologioita jotta pelit ottaisivat niitä käyttöön ja pelaajat ostaisivat niitä varten tehokkaampaa rautaa. Bisnestä tuo on. Ei Nvidia työnnä pyssyä ohimolle ja pakota yhtäkään deviä mukaan tuohon touhuun, vaan devitkin ovat täysin vapaaehtoisesti mukana touhussa jotta omasta pelistä saadaan paremman näköinen ja saataisiin lisää myyntiä.

Nvidia kehittää teknologioita ainoastaan siitä syystä että saisivat lonkeronsa entistä syvemmälle ja kaikki lukittua omaan suljettuun ekosysteemiinsä. Mitään muuta intressiä nvidialla ei ole. Ja tuo on pitkässä juoksussa sellainen jota yhdenkään kuluttajan ei kannata toivoa että se toteutuu, koska silloin meille on tarjolla vain yhden valmistajan varteenotettavia näytönohjaimia ja ne on brändätty nvidian nimellä.

Milloin viimeeksi nvidia on kehittänyt jotain avointa?

Ei Nvidia huvikseen ole vuosikymmeniä kehittänyt omaa implementaatiotaan, ja testeistähän näkee että se on huomattavasti AMD:n räpellystä tehokkaampi. AMD riittää ehkä muutaman hassun lätäkön peilaamiseen, mutta sitten kun siirrytään enemmän ja enemmän kohti full scene raytracingiä niin 6000-sarjalaiset paskoo alleen totaalisesti.

Vai että oikein vuosikymmeniä. :D Ei kannata uskoa kaikkea mitä markkinointi sedät sinulle uskottelee.
Mites sitten toi RTX korttien alleen paskominen noissa AMD vetoisissa peleissä?

Voiskohan syynä olla se että AMD:n kortit näyttää todellisuutta huonommilta NYT koska niitä on testattu pääasiassa nvidia vetoisilla peleillä? Itte en esim. hetkeäkään epäile etteikö nvidia saisi esim Dirt 5 lisää suorituskykyä myöhemmin. Ja veikkaan että AMD:n raudalle voidaan saada MYÖS tehoa lisää noihin nvidia vetoisiin peleihin sikäli mikäli pelinkehittäjiä enää kiinnostaa noihin vanhoihin peleihin panostaa.

Se että Cyberpunk ei tue AMD:n räpellyksiä on tasan tarkkaan AMD:n vika, eikä kenenkään muun.

Eli miten se on AMD:n vika? Nvidian rahalla kehitetty peli, eiköhän siellä ole sopparissa pykät että keskitytään MEIDÄN rautaan, ei kaverin vaikka kaveri haluaisikin bileisiin mukaan.

Hyvänä esimerkkinä vaikkaa BF5 johon nvidia auttoi lisäämään toimivat RT opsit kahdessa viikossa kun AMD ei ole saanut samaa tehtyä kahdessa vuodessa.

Kyllä suuresti epäilen että parissa viikossa olisi RT väkerretty BF5:n. Jotain on toki siinä ajassa saatu väkerrettyä mutta koko toteukseen kyllä on kulunut kuukausia.

Onko tähän mitään muuta oikeutusta, kuin että AMD on siinä selvästi huonompi? Kysyn uudelleen, pitäisikö tekstuuriasetusta pudottaa pelissä, jossa NVidialla loppuu tekstuurimuisti kesken ja AMD:llä riittää?

Tekstuurimuistin määrä on hiukan eri asia. Nvidia päätti porata kuluttajia kakkoseen julkaisemalla tuhnulla muistimäärällä kortit. Onhan se tietty bisneksen kannalta hyvä asia kun voidaan sama kortti myydä samalle kaverille kahteen kertaan. Ensin tuhnulla muistimäärällä ja puolen vuoden päästä tuplamäärällä.

Miten nopeasti NVidian sivuilta löytää tekoälyjutut vs AMD:n sivuilta? (Vinkki AMD:n AI tukea kutsutaan ROCm:ksi)

ROCm on opencl korvike, ei pelkästään tekoäly juttuihin tehty kikotin, sillä voidaan tehdä paljon muutakin.
Sitten intel duunaa OneAPI:a, eli kohta on tilanne että laskenta/tekoäly puolella on Cuda, ROCm ja OneAPI. 2 noista on avoimia, yksi suljettu. Joten mitenköhän tulevaisuudessa käy?

Kyllä se toi ihan oikeasti. Katsoppas noita puhtaita rt benchejä. Esim. Quake2 RTX.

quake-ii-rtx-4k.png

quake-ii-rtx-1440p.png

Quake II is next. It’s not quite there at 4K, but the interesting part is that the 3080 leads even harder than it did previously: It’s now at 45% higher average framerate than the 2080 Ti, or 90% ahead of the 2080 Super card, which is insane. This game is path-traced, so the difference in RT generations becomes apparent.

Eli missä se tupla nopeus oikein on? RTX3090 toi ei tietenkään ole, mutta DF:n testeissä 3090 johto 2080Ti:n jäi alta 70% 1440p resolla.

Toki jos otetaan tuolta RTX2060 ja verrataan sitä 3080 niin kyllä! Olet oikeassa sieltä saataan jopa kolminkertainen ero aikaiseksi!
 

Missä helvetin vaiheessa Nvidia olisi kerinnyt ajureita optimoida just julkaistuun AMDeen peliin.
Wowin kohdalla RT-tuki tuli ennen kuin nämä uudet 30x0- ja 6800-sarjat julkaistiin: [Updated: New Zone Performance] WoW Shadowlands Ray Traced Shadows Screenshots Surface; Requires DirectX Raytracing 1.1 and Capable GPU ja Nvidia on tainnut useamman ajuri-optimoinnin tehdä Shadowlandsin beta-kehityksen aikana. Siihen nähden AMD:n tehot ovat yllättävän hyvät.
 
Wowin kohdalla RT-tuki tuli ennen kuin nämä uudet 30x0- ja 6800-sarjat julkaistiin: [Updated: New Zone Performance] WoW Shadowlands Ray Traced Shadows Screenshots Surface; Requires DirectX Raytracing 1.1 and Capable GPU ja Nvidia on tainnut useamman ajuri-optimoinnin tehdä Shadowlandsin beta-kehityksen aikana. Siihen nähden AMD:n tehot ovat yllättävän hyvät.

Puoli vuotta betassa ollut RT tuki ja Nvidia julkaisi sille game ready ajurit elokuussa ja kehui vielä RTX:ää:

"A new NVIDIA driver, version 452.06, was released today, focused on optimizations for Microsoft Flight Simulator, World of Warcraft: Shadowlands, A Total War Saga: TROY, and Tony Hawk’s Pro Skater 1+2.

As part of the press release, NVIDIA boasted that the beta of World of Warcraft: Shadowlands will soon enable ray-traced shadows in what they claim is unequivocally the way forward after other behemoths such as Minecraft, Call of Duty and the upcoming Cyberpunk 2077 also embraced ray tracing technology."
 
Puoli vuotta betassa ollut RT tuki ja Nvidia julkaisi sille game ready ajurit elokuussa ja kehui vielä RTX:ää:

"A new NVIDIA driver, version 452.06, was released today, focused on optimizations for Microsoft Flight Simulator, World of Warcraft: Shadowlands, A Total War Saga: TROY, and Tony Hawk’s Pro Skater 1+2.

As part of the press release, NVIDIA boasted that the beta of World of Warcraft: Shadowlands will soon enable ray-traced shadows in what they claim is unequivocally the way forward after other behemoths such as Minecraft, Call of Duty and the upcoming Cyberpunk 2077 also embraced ray tracing technology."
Niin, ei siellä betassa tosin puolta vuotta ole ollut varsinaista RT-tukea, vaan vasta elokuusta lähtien. Sitä ennen grafiikka-asetuksissa näkyi kyllä RT-asetukset, mutta niitä ei voinut laittaa päälle.
 
Niin, ei siellä betassa tosin puolta vuotta ole ollut varsinaista RT-tukea, vaan vasta elokuusta lähtien. Sitä ennen grafiikka-asetuksissa näkyi kyllä RT-asetukset, mutta niitä ei voinut laittaa päälle.

Niin muuten olikin, kun uutista lukee. Kamat ilmestyi valikoihin, mutta niitä ei saanut enabloitua. Todennäköisesti jollain developer flagilla ne on saanut päälle jo tuolloin, eli kyllä sitä tukea on hierottu pitkään.
 
Nvidiallakin lienee rajallinen määrä noita RTX integraatio/ajuriexperttejä ja paukut on selvästi laitettu niihin muutamaan peliin jotka on näkyvimmin eri testisivustoilla käytössä tai tulee taatusti sellaisia olemaan (watchdogs, cp2077). Nvidiahan on käyttänyt cyberpunkin markkinointiinkin aika paljon paukkuja, olisi kovin noloa jos suorituskykykuninkuus ei olisi erittäin selvä pelin tullessa markkinoille. Dirt, wow ja muut ei niin hype-intensiiviset pelit rullaa sit omalla painollaan perässä.
 
Dirt 5:tä ja Shadowlandsia yhdistää se, että säteenseurantaa käytetään niissä ainoastaan varjojen renderöintiin, ts. varsin kevyesti. Godfall ilmeisesti sama homma.

Puhuminen optimoinnista Nvidialle ja AMD:lle erikseen on vain lammikon samentamista. Säteenseurantaa ajetaan yhteisen rajapinnan päällä. Valmistajakohtainen "optimointi" on tällä hetkellä sitä, että kun toisella on relevanttia laskentatehoa merkittävästi vähemmän, säteenseurantaa yksinkertaisesti vain käytetään vähemmän, jos kehittäjätuki tulee punaisesta leiristä. Vihreä kehittäjätuen pelit kuten CP2077 taas käyttävät säteenseurantaa laajemmin, joten ilman DLSS/SR-apuja ei ole mitenkään selvää, riittääkö 6000-sarjassa suorituskyky.
 
Puhuminen optimoinnista Nvidialle ja AMD:lle erikseen on vain lammikon samentamista. Säteenseurantaa ajetaan yhteisen rajapinnan päällä. Valmistajakohtainen "optimointi" on tällä hetkellä sitä, että kun toisella on relevanttia laskentatehoa merkittävästi vähemmän, säteenseurantaa yksinkertaisesti vain käytetään vähemmän, jos kehittäjätuki tulee punaisesta leiristä. Vihreä kehittäjätuen pelit kuten CP2077 taas käyttävät säteenseurantaa laajemmin, joten ilman DLSS/SR-apuja ei ole mitenkään selvää, riittääkö 6000-sarjassa suorituskyky.

On siinä optimoinnilla oikeasti merkitystä. Nvidialla on erilliset RT yksiköt, AMD:n menetelmä on hybridi. Nähtävästi AMD:n yksiköt joutuu vaihtelemaan teksturointi/säteenjäljitys tehtävien välillä. Eli jos pelissä tehdään raskaita teksturointitemppuja samaan aikaan säteenjäljityksen kanssa amd ottaa osumaa huomattavasti nvidiaa enemmän. Jos tuo huomioidaan peliä tehdessä, niin AMD vetää varsin mukavalla suorituskyvyllä.
 
Joo tämähän tässä nvidia vs amd RT arvioinnissa on vähän vaikeaa kun AMD:llä tuntuu jäävän aika maltilliseksi tuo RT:n käyttö efektien puolesta, tästä on lukuisia side-by-side esimerkkejä kuinka amd:n RT vain toimii joko puutteellisesti tai ei ollenkaan.
 
Puhuminen optimoinnista Nvidialle ja AMD:lle erikseen on vain lammikon samentamista. Säteenseurantaa ajetaan yhteisen rajapinnan päällä.

Kyllä tuo aika vahvasti vaikuttaa että säteenseuranta ei ole mikään "It just works" homma, vaan vaatii ajuritasolla aikalailla optimointia.

Jos asia ei olisi noin niin miksi Ampere toimii suhteessa AMD niin huonosti World of Warcraftissa ja Dirt5:ssä?
 
Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.


Tämähän on aika kätevää, AMD ei rendaa edes kaikkia varjoja RT operaatioina?

Miten näitä voi edes vertailla nvidiaan :D
 
Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.


Tämähän on aika kätevää, AMD ei rendaa edes kaikkia varjoja RT operaatioina?

Miten näitä voi edes vertailla nvidiaan :D

Miten se liittyy AMD:n toimintaan mitä pelinkehittäjä sekoilee? Lienee aivan päivänselvää että eri valaistusolosuhteissa ja eri valaistusenginellä kuva näyttää erilaiselta.
 
Joo tämähän tässä nvidia vs amd RT arvioinnissa on vähän vaikeaa kun AMD:llä tuntuu jäävän aika maltilliseksi tuo RT:n käyttö efektien puolesta, tästä on lukuisia side-by-side esimerkkejä kuinka amd:n RT vain toimii joko puutteellisesti tai ei ollenkaan.
Muutamia taitaa olla lähempänä ja kaikkia yhdistää sama UE4-pelimoottori muistaakseni

Tämähän on aika kätevää, AMD ei rendaa edes kaikkia varjoja RT operaatioina?

Miten näitä voi edes vertailla nvidiaan :D
Ihan samat asiat ne tekee valmistajasta riippumatta. Mikäli tuossa ei ole kyse pelin tai ajureiden bugista, niin kyse on ollut pelintekijän valinnasta tai ihan siitä että kun lasketaan miten ne varjot käyttäytyy oikein. Otithan myös sen huomioon, että ilman RT:tä ne varjot eivät välttämättä mene niin kuin kuuluisi?
Ei tässä kyllä ainakaan pikaisella vilkaisulla tule oloa että puuttuisi yhtä ainutta varjoa:
Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.
 
Muutamia taitaa olla lähempänä ja kaikkia yhdistää sama UE4-pelimoottori muistaakseni


Ihan samat asiat ne tekee valmistajasta riippumatta. Mikäli tuossa ei ole kyse pelin tai ajureiden bugista, niin kyse on ollut pelintekijän valinnasta tai ihan siitä että kun lasketaan miten ne varjot käyttäytyy oikein. Otithan myös sen huomioon, että ilman RT:tä ne varjot eivät välttämättä mene niin kuin kuuluisi?
Ei tässä kyllä ainakaan pikaisella vilkaisulla tule oloa että puuttuisi yhtä ainutta varjoa:
Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.


Se on aika jännä että nimenomaan RT versiossa kiinteät varjot käyttäytyy perin omituisesti. En keksi selitystä sille miksi auringon aiheuttamat varjot liikkuvat kun kamera kääntyy. Siis muuta kuin että ne ei ole RT varjoja ensinkään.

Miten se liittyy AMD:n toimintaan mitä pelinkehittäjä sekoilee? Lienee aivan päivänselvää että eri valaistusolosuhteissa ja eri valaistusenginellä kuva näyttää erilaiselta.
Mikä mahtaa olla syy siihen että RT versiossa täytyy käyttää ilmiselvästi screenspace varjoja...
 
Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.


Tämähän on aika kätevää, AMD ei rendaa edes kaikkia varjoja RT operaatioina?

Miten näitä voi edes vertailla nvidiaan :D


Ai meinaatko, että pelintekijä pistää ilkeyttään nvidian käyttämään kaikkialla säteenseurantaa varjoissa ja AMD:lla vain osittain. Newsflash, nykyisissäkin Nvidian RTX peleissä kaikkea ei vedetä säteenseurannalla. Kauempana olevat heijastukset on perinteisiä yms. Sitä kutsutaan optimoinniksi.
 
Mikä mahtaa olla syy siihen että RT versiossa täytyy käyttää ilmiselvästi screenspace varjoja...

No jos vaikka RT-varjojen piirtäminen piirtoetäisyyden tappiin on liian raskasta, ja RT:tä käytetään vain lähellä olevissa varjoissa.
 
No jos vaikka RT-varjojen piirtäminen piirtoetäisyyden tappiin on liian raskasta, ja RT:tä käytetään vain lähellä olevissa varjoissa.
Tuossa demossahan on ihan kameran alla olevia auringon valon aiheuttamia varjoja jotka käyttäytyy kuin screespace varjot
 
Auringon aiheuttamat kiinteät varjot liikkuvat kun kamera kääntyy.
Tuossa demossahan on ihan kameran alla olevia auringon valon aiheuttamia varjoja jotka käyttäytyy kuin screespace varjot
Ota nyt ihmeessä pari screenshottia ja vaikka ympyröi kohta mitä katsoa, en usko että kovinkaan moni täällä on ajatustenlukija siitä mitä varjoja tarkalleen mahdat tarkoittaa.
Ja kuten tuolla joku jo aiemminkin totesi, ei se että on "RT-varjot" tarkoita että jok'ikinen varjo pelissä lasketaan RT:llä, ei nyt kun AMD on mukana eikä silloin kun vain NVIDIA tarjosi DXR-kiihdytystä.
 
Ainakin ATI on kärähtänyt aikoinaan siitä kun viritteli ajurinsa pyörittämään Quakea (kolmosta?) nopeammin huonommalla laadulla.
Tämäkin se vanha legenda jaksaa edelleen elää vahvana, mutta kumpi näistä skenaarioista lienee todennäköisempi:
-ATi huijasi tarkoituksella ja kun se huomattiin löysi sopivasti heti seuraaviin ajureihin korjauksen, jolla laatu on sitä mitä pitääkin ilman että suorituskyky muuttui huijaukseen verrattuna
-Kyseessä oli bugi ajureissa, joka korjattiin seuraavassa julkaisussa
?
 
Ota nyt ihmeessä pari screenshottia ja vaikka ympyröi kohta mitä katsoa, en usko että kovinkaan moni täällä on ajatustenlukija siitä mitä varjoja tarkalleen mahdat tarkoittaa.
Ja kuten tuolla joku jo aiemminkin totesi, ei se että on "RT-varjot" tarkoita että jok'ikinen varjo pelissä lasketaan RT:llä, ei nyt kun AMD on mukana eikä silloin kun vain NVIDIA tarjosi DXR-kiihdytystä.

Näitä on koko demo täynnä mutta yksi silmiinpistävimmistä on tuo sinisellä merkattu varjo. Kameran kääntyessä sen varjon koko muuttuu mikä on mielestäni mahdotonta jos kyseessä olisi RT varjo. Samalla tavalla käyttäytyy mm. puiden varjot jotka liikkuvat kiviseinillä.

1606145037725.png
 
Näitä on koko demo täynnä mutta yksi silmiinpistävimmistä on tuo sinisellä merkattu varjo. Kameran kääntyessä sen varjon koko muuttuu mikä on mielestäni mahdotonta jos kyseessä olisi RT varjo. Samalla tavalla käyttäytyy mm. puiden varjot jotka liikkuvat kiviseinillä.

1606145037725.png
Juu jotain hämärää tuossa näyttäisi olevan, en kuitenkaan ymmärrä että miksi pelintekijän valinnat on AMD:n vika? Veikkaan että pelin RT varjot näyttää ihan samalta nvidiankin korteilla.
 
Juu jotain hämärää tuossa näyttäisi olevan, en kuitenkaan ymmärrä että miksi pelintekijän valinnat on AMD:n vika? Veikkaan että pelin RT varjot näyttää ihan samalta nvidiankin korteilla.
Koska kyseessä on AMD:n kruununjalokivi!

Siksi. Tämän tulisi olla tiukinta timanttia heti julkaisustaan jotta kuluttajille näkyisi että hei, mekin osataan ja suorituskyky riittää.

Tässä on mielestäni joko:

a) AMD:n säteenjäljitysteho ei vain kertakaikkiaan riitä ilman DLSS:n tapaista apua jota AMD ei ole saanut vielä kehitettyä tyydyttävälle tasolle
b) AMD Jatkaa jo pitkältä tuttua linjaa heikosta softa/pelidevien tukemisestaan ja tämä on enemmän pelidevien osaamattomuutta.


Tai voihan se olla sekoitus kumpaakin.
 
Koska kyseessä on AMD:n kruununjalokivi!

Siksi. Tämän tulisi olla tiukinta timanttia heti julkaisustaan jotta kuluttajille näkyisi että hei, mekin osataan ja suorituskyky riittää.

Tässä on mielestäni joko:

a) AMD:n säteenjäljitysteho ei vain kertakaikkiaan riitä ilman DLSS:n tapaista apua jota AMD ei ole saanut vielä kehitettyä tyydyttävälle tasolle
b) AMD Jatkaa jo pitkältä tuttua linjaa heikosta softa/pelidevien tukemisestaan ja tämä on enemmän pelidevien osaamattomuutta.


Tai voihan se olla sekoitus kumpaakin.
Täh, toihan on joku konsolipeli vaan. "Kruununjalokivi", vähän ku vaikka BF5 oli nvidialle kun 2000 sarjan tuotteet tuli ulos ja eroja piti etsiä suurennuslasilla ja sokkotesteissä monet arvasi väärin että kummassa versiossa on ne "aidot" heijastukset. Esim. spidermanissa toimii AMD:n säteenjäljitys ihan hyvin natiivilla 4k resooluutiolla 6800xt:n puolikkaalla.
 
Täh, toihan on joku konsolipeli vaan. "Kruununjalokivi", vähän ku vaikka BF5 oli nvidialle kun 2000 sarjan tuotteet tuli ulos ja eroja piti etsiä suurennuslasilla ja sokkotesteissä monet arvasi väärin että kummassa versiossa on ne "aidot" heijastukset.

Vaan tässäpä ei tarvi suurennuslasia virheiden tai tavallaan RT opsien puuttumisen havaitsemiseen.
 
Puhuminen optimoinnista Nvidialle ja AMD:lle erikseen on vain lammikon samentamista. Säteenseurantaa ajetaan yhteisen rajapinnan päällä. Valmistajakohtainen "optimointi" on tällä hetkellä sitä, että kun toisella on relevanttia laskentatehoa merkittävästi vähemmän, säteenseurantaa yksinkertaisesti vain käytetään vähemmän, jos kehittäjätuki tulee punaisesta leiristä.
Ei ihan noin suoraviivaisesti näytä menevän. RT-peleistä löytyy sekä Nvidian että AMD:n virityksiäkin pelistä riippuen. Esim. Godfallista löytyy amdrtshadows.dll -niminen tiedosto, jonka nimestä voi päätellä mihin liittyy. Watch Dogsissa puolestaan käytetään denoiseria, joka on Nvidian käsialaa ja sille pari .dll tiedostoa pelin kansiossa myöskin.
 
Muutamia taitaa olla lähempänä ja kaikkia yhdistää sama UE4-pelimoottori muistaakseni


Ihan samat asiat ne tekee valmistajasta riippumatta. Mikäli tuossa ei ole kyse pelin tai ajureiden bugista, niin kyse on ollut pelintekijän valinnasta tai ihan siitä että kun lasketaan miten ne varjot käyttäytyy oikein. Otithan myös sen huomioon, että ilman RT:tä ne varjot eivät välttämättä mene niin kuin kuuluisi?
Ei tässä kyllä ainakaan pikaisella vilkaisulla tule oloa että puuttuisi yhtä ainutta varjoa:
Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.


Tuossa toisessa klipissä puuttui about kaikkien puiden/lehtien varjot RT on-asetuksella, jotain siellä bugaa kyllä.
 
Vaan tässäpä ei tarvi suurennuslasia virheiden tai tavallaan RT opsien puuttumisen havaitsemiseen.
No ei tarvi ei, mutta tuskin on muusta kuin pelintekijästä kiinni. Sulla on kunnon salaliitot pystyssä ja syylliset pölkyllä ilman mitään todisteita. Todistetusti ne AMD:nkin CU:t osaa säteenjällitystä tehdä kovalla suorituskyvyllä.
 
Tuossa esim. 1.15 eteenpäin RT OFF -kuvassa pylväiden ja porttien varjot näyttävät melko uskottavilta suhteeessa aurinkoon. RT ON -kuvassa nämä varjot puuttuvat kokonaan, ja ainoa varjoja heittävä valonlähde näyttää olevan lähes suoraan yläpuolella, mikä ei mätsää ollenkaan ruudulla näkyvään aurinkoon.
 
Koska kyseessä on AMD:n kruununjalokivi!
Mikä ihmeen "AMD:n kruununjalokivi"? Tuo on multiplattaripeli, jolle PS5 on pääalusta.

Joka tapauksessa, kuten jo todettua, se että optimoidaan sekoittamalla RT:tä ja rasteroituja efektejä on ihan normaalia kaikissa RT-peleissä, poislukien ne pathtrace-erikoisuudet.'
Tuossa videossa todennäköisesti bugaa jokin, koska noita GodFall DXR -videoita löytyy enemmänkin missä ei ole viitteitä että puuttuisi varjoja tms
 
No ei tarvi ei, mutta tuskin on muusta kuin pelintekijästä kiinni. Sulla on kunnon salaliitot pystyssä ja syylliset pölkyllä ilman mitään todisteita. Todistetusti ne AMD:nkin CU:t osaa säteenjällitystä tehdä kovalla suorituskyvyllä.
Ei suinkaan, minua vain häiritsee AMDelusional meininki ympäri internettiä. RX6000 sarja on pitkästä aikaa kova tuote punaiselta leiriltä MUTTA säteenjäljitysvääntö on korkeintaan hieman RTX2000 sarjaa alla. ja mitään skaalaustekkiä ei ole edes PoC vaiheessa vielä.

AMD:n CU:t nimenomaan ei kykene siihen kaikista keskeisimpään asiaan jos halutaan suorittaa säteenjäljitystä dynaamisessa ympäristössä eli BVH puun uudelleenlaskentaan samalla kun tehdään muuta renderöintiä.

(muoks: typo iski)
 
Viimeksi muokattu:
Ei suinkaan, minua vain häiritsee AMDelusional meininki ympäri internettiä. RX6000 sarja on pitkästä aikaa kova tuote punaiselta leiriltä MUTTA säteenjäljitysvääntö on korkeintaan hieman RTX2000 sarjaa alla. ja mitään skaalaustekkiä ei ole edes PoC vaiheessa vielä.
Mitä tarkoitat "RTX 2000 sarjaa alla" - että RX 6800 -sarjan säteenseurantasuorituskyky olisi heikompi kuin RTX 2000 -sarjalla? Voi olla taatusti joissain tilanteissa, mutta jopa NVIDIAn ratkaisuille suunnitelluissa peleissä näyttäisi XT pyörivän useimmin siellä 2080 Ti:n tasolla ja päällekin.

AMD:n CU:t nimenomaan ei kykene siihen kaikista keskeisimpään asiaan jos halutaan suorittaa säteenjäljitystä dynaamisessa ympäristössä eli BHV puun uudelleenlaskentaan samalla kun tehdään muuta renderöintiä.
Mistäs tämän keksit?
 
AMD:n CU:t nimenomaan ei kykene siihen kaikista keskeisimpään asiaan jos halutaan suorittaa säteenjäljitystä dynaamisessa ympäristössä eli BHV puun uudelleenlaskentaan samalla kun tehdään muuta renderöintiä.
Ja sitten olis hyvä olla ne lähteet.

RX6000 sarja on pitkästä aikaa kova tuote punaiselta leiriltä MUTTA säteenjäljitysvääntö on korkeintaan hieman RTX2000 sarjaa alla.
Ja tähän kans. Ihan hyvin pyörii vaikka se spiderman 4k resolla 36 CU:n voimin. Odottaisin ainakin hetken uusia pelejä markkinoille ennen moisen väitteen esittämistä totuutena. Lisäksi ”RTX2000 sarjaa alla.” tarkoittaisi kirjaimellisesti tulkittuna että suorituskyky olisi 6900xt:llä mielestäsi huonompi kuin RTX2060:lla - ei kuulosta kovin vahvalta argumentilta.
 
Ja sitten olis hyvä olla ne lähteet.
Kannattaa lukaista noita RDNA2 deep dive artikkeleita ja patentteja aiheesta, lyhykäisyydessään siinä missä nvidialla on turinassa ja amperessa rasterointia hoitavista shadereista erillinen yksikkö millä BVH tarkastelu suoritetaan, RDNA2 kanssa käytetään simd yksiköitä eli shadereita ja ne eivät amd:llä kykene hoitamaan kumpaakin asiaa yhtä aikaa. Ja jos en aivan väärin ymmärtänyt niin infinity cache on keskeinen asia tämän rajoittuneisuuden kiertämisess.

Nvidialla tavallaan tuo säteenjäljityksen kiihdytys tulee ilmaiseksi rasteroinnin ohessa. Toki siihen palaa jonkun verran piipinta-alaa ja transistoreita.

(muoks: unohtui infinity cache)

Ja tähän kans. Ihan hyvin pyörii vaikka se spiderman 4k resolla 36 CU:n voimin. Odottaisin ainakin hetken uusia pelejä markkinoille ennen moisen väitteen esittämistä totuutena. Lisäksi ”RTX2000 sarjaa alla.” tarkoittaisi kirjaimellisesti tulkittuna että suorituskyky olisi 6900xt:llä mielestäsi huonompi kuin RTX2060:lla - ei kuulosta kovin vahvalta argumentilta.
Tässä pääsee siihen että paljonko noita voi vertailla jos mielivaltaisesti vain vähennetään RT:llä tehtäviä tehosteita.


Tai voi, katsotaan miten RT minecraft tai quake pyörii... ja noh :D AMD tarvii sen oman DLSS:n ja nopeasti.
 
Viimeksi muokattu:
Kannattaa lukaista noita RDNA2 deep dive artikkeleita ja patentteja aiheesta, lyhykäisyydessään siinä missä nvidialla on turinassa ja amperessa rasterointia hoitavista shadereista erillinen yksikkö millä BVH tarkastelu suoritetaan, RDNA2 kanssa käytetään simd yksiköitä eli shadereita ja ne eivät amd:llä kykene hoitamaan kumpaakin asiaa yhtä aikaa. Nvidialla tavallaan tuo säteenjäljityksen kiihdytys tulee ilmaiseksi rasteroinnin ohessa. Toki sihen palaa jonkun verran piipinta-alaa ja transistoreita.
Ei se näytä kovin ilmaiseksi tulevan nvidialla, kun fps tippuu vaikka jossain controllissa kolmannekseen.

Aiemmassa viestissä puhuit BVH puun rakentamisesta, nyt sen läpikäymisestä, vissiin et ole itsekkään varma siitä että mitä kaikkea on milläkin alustalla kiihdytetty raudalla.
 
Ei se näytä kovin ilmaiseksi tulevan nvidialla, kun fps tippuu vaikka jossain controllissa kolmannekseen.

Aiemmassa viestissä puhuit BVH puun rakentamisesta, nyt sen läpikäymisestä, vissiin et ole itsekkään varma siitä että mitä kaikkea on milläkin alustalla kiihdytetty raudalla.
Joo, en ole grafiikka-alan ammattilainen ja terminologiani ei ole varmasti ole joka asiassa täysin kunnossa. Mutta se ei estä lukemasta ja jollain tasolla ymmärtämästäkin noita perin mielenkiintoisia artikkeleita aiheesta.

Ja ymmärtänet että ilmainen on aina suhteellinen käsite, 2000 sarjan RT vääntö oli haiseva tuhnu mutta noin teknologiademona aivan siisti. Nyt 3000 sarja alkaa olla siellä missä siitä on iloa.
 
Kannattaa lukaista noita RDNA2 deep dive artikkeleita ja patentteja aiheesta, lyhykäisyydessään siinä missä nvidialla on turinassa ja amperessa rasterointia hoitavista shadereista erillinen yksikkö millä BVH tarkastelu suoritetaan, RDNA2 kanssa käytetään simd yksiköitä eli shadereita ja ne eivät amd:llä kykene hoitamaan kumpaakin asiaa yhtä aikaa. Ja jos en aivan väärin ymmärtänyt niin infinity cache on keskeinen asia tämän rajoittuneisuuden kiertämisess.

Nvidialla tavallaan tuo säteenjäljityksen kiihdytys tulee ilmaiseksi rasteroinnin ohessa. Toki siihen palaa jonkun verran piipinta-alaa ja transistoreita.
Nyt on kyllä sellaista sillisalaattia teksti että tiedätkö nyt yhtään itsekään mistä puhut?
Kummallakin hoidetaan BVH:n törmäystarkistukset sekä törmäysten ajoitusten järjestely erillisellä yksiköllä. Se missä ratkaisut eroaa, on BVH-puussa eteneminen, mikä tehdään AMD:lla streamprosessoreilla ja NVIDIAlla erillisessä yksikössä. Se ei kuitenkaan varaa AMD:lla niitä streamprosessoreita mihinkään, vaan se on vain yksi niillä suoritettava tehtävä muiden joukossa. Siihen ei riitä mututuntuma, että voi heittää sen vaikutuksen olevan merkittävä, vaan tarvitsee dataa taakseen, mikä osoittaa eron aiheuttajan.
Infinity Cache ei liity asiaan millään tavalla, se vain nopeuttaa asioita kun iso osa BVH-puusta voidaan pitää paikallisessa välimuistissa eikä hakea aina muistista, se säästää kaistaa, energiaa ja aikaa.
Eikä se NVIDIAllakaan mitenkään "ilmaiseksi" tule, vaan CUDA-ytimiä käytetään niiden sädetehtävien lähettämiseen RT-ytimelle sekä tietenkin tulosten varjostamiseen.
 
Nyt on kyllä sellaista sillisalaattia teksti että tiedätkö nyt yhtään itsekään mistä puhut?
Kummallakin hoidetaan BVH:n törmäystarkistukset sekä törmäysten ajoitusten järjestely erillisellä yksiköllä. Se missä ratkaisut eroaa, on BVH-puussa eteneminen, mikä tehdään AMD:lla streamprosessoreilla ja NVIDIAlla erillisessä yksikössä. Se ei kuitenkaan varaa AMD:lla niitä streamprosessoreita mihinkään, vaan se on vain yksi niillä suoritettava tehtävä muiden joukossa. Siihen ei riitä mututuntuma, että voi heittää sen vaikutuksen olevan merkittävä, vaan tarvitsee dataa taakseen, mikä osoittaa eron aiheuttajan.
Infinity Cache ei liity asiaan millään tavalla, se vain nopeuttaa asioita kun iso osa BVH-puusta voidaan pitää paikallisessa välimuistissa eikä hakea aina muistista, se säästää kaistaa, energiaa ja aikaa.
Eikä se NVIDIAllakaan mitenkään "ilmaiseksi" tule, vaan CUDA-ytimiä käytetään niiden sädetehtävien lähettämiseen RT-ytimelle sekä tietenkin tulosten varjostamiseen.
Voin olla ilomielin väärässäkin, ei siinä ole ongelmaa.

Kyllä minusta suoritusyky kertoo kaiken olennaisen tuosta teknisen toteutuksen paremmuudesta.


Ja onko suorituskykyvertailu reilu jos RT tavaraa on samassa pelissä eri määrä eri raudalla? :)
 
Voin olla ilomielin väärässäkin, ei siinä ole ongelmaa.

Kyllä minusta suoritusyky kertoo kaiken olennaisen tuosta teknisen toteutuksen paremmuudesta.

Ja onko suorituskykyvertailu reilu jos RT tavaraa on samassa pelissä eri määrä eri raudalla? :)
Kyllähän NVIDIAlla enemmän sitä RT-suorituskykyä on, mutta siihen ruudulla näkyvään suorituskykyyn vaikuttaa moni asia.

Mistä sinä nyt yhtäkkiä keksit että RT tavaraa olisi samassa pelissä eri määrä eri raudalla? Tietenkin samoilla asetuksilla tulee sama määrä tavaraa ruudulle. Bugeja on vielä yksittäisissä peleissä, mitkä voivat johtua joko pelistä tai ajureista, mutta eipä tuo NVIDIAnkaan RT ulkomuistista ole aina "vain toiminut" eikä se että on bugeja tarkoita että siellä kortti olisi vähemmän töitä tehnyt.
 
Bugeja on vielä yksittäisissä peleissä, mitkä voivat johtua joko pelistä tai ajureista, mutta eipä tuo NVIDIAnkaan RT ulkomuistista ole aina "vain toiminut" eikä se että on bugeja tarkoita että siellä kortti olisi vähemmän töitä tehnyt.

Nyt jomman kumman ulkomuisti varmaan pettää, mutta mulla on aina RT toiminut heittämällä oikein.
 
Kyllähän NVIDIAlla enemmän sitä RT-suorituskykyä on, mutta siihen ruudulla näkyvään suorituskykyyn vaikuttaa moni asia.

Mistä sinä nyt yhtäkkiä keksit että RT tavaraa olisi samassa pelissä eri määrä eri raudalla? Tietenkin samoilla asetuksilla tulee sama määrä tavaraa ruudulle. Bugeja on vielä yksittäisissä peleissä, mitkä voivat johtua joko pelistä tai ajureista, mutta eipä tuo NVIDIAnkaan RT ulkomuistista ole aina "vain toiminut" eikä se että on bugeja tarkoita että siellä kortti olisi vähemmän töitä tehnyt.
Eikö näitä side-by-side videoita ja kuvia ole tässä ketjussa esitelty jo aivan tarpeeksi?

Sitten kun ajetaan benchmarkki jossa ei päästä mielivaltaisesti päättämään että mitä rendataan niin se näyttää tältä:
(Radeon RX 6800 & RX 6800 XT Review: AMD’s Back With Big Navi - Page 2)

1606150145283.png


Minusta tuo menee täysin 1:1 sen mukaan miten esim raytrace minecraft toimii ilman DLSS:ää amd vs nvidia.

Suorituskyvyn hyödyntäminen on sitten se missä pelinkehittäjät voi onnistua tai epäonnistua, mutta tässä tämä pohja-asetelma.
 
Eikö näitä side-by-side videoita ja kuvia ole tässä ketjussa esitelty jo aivan tarpeeksi?

Sitten kun ajetaan benchmarkki jossa ei päästä mielivaltaisesti päättämään että mitä rendataan niin se näyttää tältä:
(Radeon RX 6800 & RX 6800 XT Review: AMD’s Back With Big Navi - Page 2)

1606150145283.png


Minusta tuo menee täysin 1:1 sen mukaan miten esim raytrace minecraft toimii ilman DLSS:ää amd vs nvidia.

Suorituskyvyn hyödyntäminen on sitten se missä pelinkehittäjät voi onnistua tai epäonnistua, mutta tässä tämä pohja-asetelma.

Eihän sitä ole kukaan väittänytkään ettei puhdas RT-olisi välttämättä parempi AMD:llä. Mutta ei sekään ole suoraan totta, että AMD:n ratkaisu RT:lle on huonompi hybridipeleissä. Vaikka sen RT-osuuden laskisi hieman hitaammin, voi kokonaisuus toimia paremmin kuin vaikka RTX 3070:llä kun rasterointi toteutuu merkittävästi nopeammin. Onko silloin RT-ON asetuksilla suurempi FPS huononpi toteutus, vaikka RT-efektien laskeminen tapahtuu hitaammin?
 

Uusimmat viestit

Statistiikka

Viestiketjuista
297 572
Viestejä
5 072 284
Jäsenet
81 344
Uusin jäsen
jamittaja

Hinta.fi

Back
Ylös Bottom