Virallinen: NVIDIA vs AMD (vs Intel) keskustelu- ja väittelyketju

  • Keskustelun aloittaja Keskustelun aloittaja Sampsa
  • Aloitettu Aloitettu
Puhuminen optimoinnista Nvidialle ja AMD:lle erikseen on vain lammikon samentamista. Säteenseurantaa ajetaan yhteisen rajapinnan päällä. Valmistajakohtainen "optimointi" on tällä hetkellä sitä, että kun toisella on relevanttia laskentatehoa merkittävästi vähemmän, säteenseurantaa yksinkertaisesti vain käytetään vähemmän, jos kehittäjätuki tulee punaisesta leiristä.
Ei ihan noin suoraviivaisesti näytä menevän. RT-peleistä löytyy sekä Nvidian että AMD:n virityksiäkin pelistä riippuen. Esim. Godfallista löytyy amdrtshadows.dll -niminen tiedosto, jonka nimestä voi päätellä mihin liittyy. Watch Dogsissa puolestaan käytetään denoiseria, joka on Nvidian käsialaa ja sille pari .dll tiedostoa pelin kansiossa myöskin.
 
Muutamia taitaa olla lähempänä ja kaikkia yhdistää sama UE4-pelimoottori muistaakseni


Ihan samat asiat ne tekee valmistajasta riippumatta. Mikäli tuossa ei ole kyse pelin tai ajureiden bugista, niin kyse on ollut pelintekijän valinnasta tai ihan siitä että kun lasketaan miten ne varjot käyttäytyy oikein. Otithan myös sen huomioon, että ilman RT:tä ne varjot eivät välttämättä mene niin kuin kuuluisi?
Ei tässä kyllä ainakaan pikaisella vilkaisulla tule oloa että puuttuisi yhtä ainutta varjoa:


Tuossa toisessa klipissä puuttui about kaikkien puiden/lehtien varjot RT on-asetuksella, jotain siellä bugaa kyllä.
 
Vaan tässäpä ei tarvi suurennuslasia virheiden tai tavallaan RT opsien puuttumisen havaitsemiseen.
No ei tarvi ei, mutta tuskin on muusta kuin pelintekijästä kiinni. Sulla on kunnon salaliitot pystyssä ja syylliset pölkyllä ilman mitään todisteita. Todistetusti ne AMD:nkin CU:t osaa säteenjällitystä tehdä kovalla suorituskyvyllä.
 
Tuossa esim. 1.15 eteenpäin RT OFF -kuvassa pylväiden ja porttien varjot näyttävät melko uskottavilta suhteeessa aurinkoon. RT ON -kuvassa nämä varjot puuttuvat kokonaan, ja ainoa varjoja heittävä valonlähde näyttää olevan lähes suoraan yläpuolella, mikä ei mätsää ollenkaan ruudulla näkyvään aurinkoon.
 
Koska kyseessä on AMD:n kruununjalokivi!
Mikä ihmeen "AMD:n kruununjalokivi"? Tuo on multiplattaripeli, jolle PS5 on pääalusta.

Joka tapauksessa, kuten jo todettua, se että optimoidaan sekoittamalla RT:tä ja rasteroituja efektejä on ihan normaalia kaikissa RT-peleissä, poislukien ne pathtrace-erikoisuudet.'
Tuossa videossa todennäköisesti bugaa jokin, koska noita GodFall DXR -videoita löytyy enemmänkin missä ei ole viitteitä että puuttuisi varjoja tms
 
No ei tarvi ei, mutta tuskin on muusta kuin pelintekijästä kiinni. Sulla on kunnon salaliitot pystyssä ja syylliset pölkyllä ilman mitään todisteita. Todistetusti ne AMD:nkin CU:t osaa säteenjällitystä tehdä kovalla suorituskyvyllä.
Ei suinkaan, minua vain häiritsee AMDelusional meininki ympäri internettiä. RX6000 sarja on pitkästä aikaa kova tuote punaiselta leiriltä MUTTA säteenjäljitysvääntö on korkeintaan hieman RTX2000 sarjaa alla. ja mitään skaalaustekkiä ei ole edes PoC vaiheessa vielä.

AMD:n CU:t nimenomaan ei kykene siihen kaikista keskeisimpään asiaan jos halutaan suorittaa säteenjäljitystä dynaamisessa ympäristössä eli BVH puun uudelleenlaskentaan samalla kun tehdään muuta renderöintiä.

(muoks: typo iski)
 
Viimeksi muokattu:
Ei suinkaan, minua vain häiritsee AMDelusional meininki ympäri internettiä. RX6000 sarja on pitkästä aikaa kova tuote punaiselta leiriltä MUTTA säteenjäljitysvääntö on korkeintaan hieman RTX2000 sarjaa alla. ja mitään skaalaustekkiä ei ole edes PoC vaiheessa vielä.
Mitä tarkoitat "RTX 2000 sarjaa alla" - että RX 6800 -sarjan säteenseurantasuorituskyky olisi heikompi kuin RTX 2000 -sarjalla? Voi olla taatusti joissain tilanteissa, mutta jopa NVIDIAn ratkaisuille suunnitelluissa peleissä näyttäisi XT pyörivän useimmin siellä 2080 Ti:n tasolla ja päällekin.

AMD:n CU:t nimenomaan ei kykene siihen kaikista keskeisimpään asiaan jos halutaan suorittaa säteenjäljitystä dynaamisessa ympäristössä eli BHV puun uudelleenlaskentaan samalla kun tehdään muuta renderöintiä.
Mistäs tämän keksit?
 
AMD:n CU:t nimenomaan ei kykene siihen kaikista keskeisimpään asiaan jos halutaan suorittaa säteenjäljitystä dynaamisessa ympäristössä eli BHV puun uudelleenlaskentaan samalla kun tehdään muuta renderöintiä.
Ja sitten olis hyvä olla ne lähteet.

RX6000 sarja on pitkästä aikaa kova tuote punaiselta leiriltä MUTTA säteenjäljitysvääntö on korkeintaan hieman RTX2000 sarjaa alla.
Ja tähän kans. Ihan hyvin pyörii vaikka se spiderman 4k resolla 36 CU:n voimin. Odottaisin ainakin hetken uusia pelejä markkinoille ennen moisen väitteen esittämistä totuutena. Lisäksi ”RTX2000 sarjaa alla.” tarkoittaisi kirjaimellisesti tulkittuna että suorituskyky olisi 6900xt:llä mielestäsi huonompi kuin RTX2060:lla - ei kuulosta kovin vahvalta argumentilta.
 
Ja sitten olis hyvä olla ne lähteet.
Kannattaa lukaista noita RDNA2 deep dive artikkeleita ja patentteja aiheesta, lyhykäisyydessään siinä missä nvidialla on turinassa ja amperessa rasterointia hoitavista shadereista erillinen yksikkö millä BVH tarkastelu suoritetaan, RDNA2 kanssa käytetään simd yksiköitä eli shadereita ja ne eivät amd:llä kykene hoitamaan kumpaakin asiaa yhtä aikaa. Ja jos en aivan väärin ymmärtänyt niin infinity cache on keskeinen asia tämän rajoittuneisuuden kiertämisess.

Nvidialla tavallaan tuo säteenjäljityksen kiihdytys tulee ilmaiseksi rasteroinnin ohessa. Toki siihen palaa jonkun verran piipinta-alaa ja transistoreita.

(muoks: unohtui infinity cache)

Ja tähän kans. Ihan hyvin pyörii vaikka se spiderman 4k resolla 36 CU:n voimin. Odottaisin ainakin hetken uusia pelejä markkinoille ennen moisen väitteen esittämistä totuutena. Lisäksi ”RTX2000 sarjaa alla.” tarkoittaisi kirjaimellisesti tulkittuna että suorituskyky olisi 6900xt:llä mielestäsi huonompi kuin RTX2060:lla - ei kuulosta kovin vahvalta argumentilta.
Tässä pääsee siihen että paljonko noita voi vertailla jos mielivaltaisesti vain vähennetään RT:llä tehtäviä tehosteita.


Tai voi, katsotaan miten RT minecraft tai quake pyörii... ja noh :D AMD tarvii sen oman DLSS:n ja nopeasti.
 
Viimeksi muokattu:
Kannattaa lukaista noita RDNA2 deep dive artikkeleita ja patentteja aiheesta, lyhykäisyydessään siinä missä nvidialla on turinassa ja amperessa rasterointia hoitavista shadereista erillinen yksikkö millä BVH tarkastelu suoritetaan, RDNA2 kanssa käytetään simd yksiköitä eli shadereita ja ne eivät amd:llä kykene hoitamaan kumpaakin asiaa yhtä aikaa. Nvidialla tavallaan tuo säteenjäljityksen kiihdytys tulee ilmaiseksi rasteroinnin ohessa. Toki sihen palaa jonkun verran piipinta-alaa ja transistoreita.
Ei se näytä kovin ilmaiseksi tulevan nvidialla, kun fps tippuu vaikka jossain controllissa kolmannekseen.

Aiemmassa viestissä puhuit BVH puun rakentamisesta, nyt sen läpikäymisestä, vissiin et ole itsekkään varma siitä että mitä kaikkea on milläkin alustalla kiihdytetty raudalla.
 
Ei se näytä kovin ilmaiseksi tulevan nvidialla, kun fps tippuu vaikka jossain controllissa kolmannekseen.

Aiemmassa viestissä puhuit BVH puun rakentamisesta, nyt sen läpikäymisestä, vissiin et ole itsekkään varma siitä että mitä kaikkea on milläkin alustalla kiihdytetty raudalla.
Joo, en ole grafiikka-alan ammattilainen ja terminologiani ei ole varmasti ole joka asiassa täysin kunnossa. Mutta se ei estä lukemasta ja jollain tasolla ymmärtämästäkin noita perin mielenkiintoisia artikkeleita aiheesta.

Ja ymmärtänet että ilmainen on aina suhteellinen käsite, 2000 sarjan RT vääntö oli haiseva tuhnu mutta noin teknologiademona aivan siisti. Nyt 3000 sarja alkaa olla siellä missä siitä on iloa.
 
Kannattaa lukaista noita RDNA2 deep dive artikkeleita ja patentteja aiheesta, lyhykäisyydessään siinä missä nvidialla on turinassa ja amperessa rasterointia hoitavista shadereista erillinen yksikkö millä BVH tarkastelu suoritetaan, RDNA2 kanssa käytetään simd yksiköitä eli shadereita ja ne eivät amd:llä kykene hoitamaan kumpaakin asiaa yhtä aikaa. Ja jos en aivan väärin ymmärtänyt niin infinity cache on keskeinen asia tämän rajoittuneisuuden kiertämisess.

Nvidialla tavallaan tuo säteenjäljityksen kiihdytys tulee ilmaiseksi rasteroinnin ohessa. Toki siihen palaa jonkun verran piipinta-alaa ja transistoreita.
Nyt on kyllä sellaista sillisalaattia teksti että tiedätkö nyt yhtään itsekään mistä puhut?
Kummallakin hoidetaan BVH:n törmäystarkistukset sekä törmäysten ajoitusten järjestely erillisellä yksiköllä. Se missä ratkaisut eroaa, on BVH-puussa eteneminen, mikä tehdään AMD:lla streamprosessoreilla ja NVIDIAlla erillisessä yksikössä. Se ei kuitenkaan varaa AMD:lla niitä streamprosessoreita mihinkään, vaan se on vain yksi niillä suoritettava tehtävä muiden joukossa. Siihen ei riitä mututuntuma, että voi heittää sen vaikutuksen olevan merkittävä, vaan tarvitsee dataa taakseen, mikä osoittaa eron aiheuttajan.
Infinity Cache ei liity asiaan millään tavalla, se vain nopeuttaa asioita kun iso osa BVH-puusta voidaan pitää paikallisessa välimuistissa eikä hakea aina muistista, se säästää kaistaa, energiaa ja aikaa.
Eikä se NVIDIAllakaan mitenkään "ilmaiseksi" tule, vaan CUDA-ytimiä käytetään niiden sädetehtävien lähettämiseen RT-ytimelle sekä tietenkin tulosten varjostamiseen.
 
Nyt on kyllä sellaista sillisalaattia teksti että tiedätkö nyt yhtään itsekään mistä puhut?
Kummallakin hoidetaan BVH:n törmäystarkistukset sekä törmäysten ajoitusten järjestely erillisellä yksiköllä. Se missä ratkaisut eroaa, on BVH-puussa eteneminen, mikä tehdään AMD:lla streamprosessoreilla ja NVIDIAlla erillisessä yksikössä. Se ei kuitenkaan varaa AMD:lla niitä streamprosessoreita mihinkään, vaan se on vain yksi niillä suoritettava tehtävä muiden joukossa. Siihen ei riitä mututuntuma, että voi heittää sen vaikutuksen olevan merkittävä, vaan tarvitsee dataa taakseen, mikä osoittaa eron aiheuttajan.
Infinity Cache ei liity asiaan millään tavalla, se vain nopeuttaa asioita kun iso osa BVH-puusta voidaan pitää paikallisessa välimuistissa eikä hakea aina muistista, se säästää kaistaa, energiaa ja aikaa.
Eikä se NVIDIAllakaan mitenkään "ilmaiseksi" tule, vaan CUDA-ytimiä käytetään niiden sädetehtävien lähettämiseen RT-ytimelle sekä tietenkin tulosten varjostamiseen.
Voin olla ilomielin väärässäkin, ei siinä ole ongelmaa.

Kyllä minusta suoritusyky kertoo kaiken olennaisen tuosta teknisen toteutuksen paremmuudesta.


Ja onko suorituskykyvertailu reilu jos RT tavaraa on samassa pelissä eri määrä eri raudalla? :)
 
Voin olla ilomielin väärässäkin, ei siinä ole ongelmaa.

Kyllä minusta suoritusyky kertoo kaiken olennaisen tuosta teknisen toteutuksen paremmuudesta.

Ja onko suorituskykyvertailu reilu jos RT tavaraa on samassa pelissä eri määrä eri raudalla? :)
Kyllähän NVIDIAlla enemmän sitä RT-suorituskykyä on, mutta siihen ruudulla näkyvään suorituskykyyn vaikuttaa moni asia.

Mistä sinä nyt yhtäkkiä keksit että RT tavaraa olisi samassa pelissä eri määrä eri raudalla? Tietenkin samoilla asetuksilla tulee sama määrä tavaraa ruudulle. Bugeja on vielä yksittäisissä peleissä, mitkä voivat johtua joko pelistä tai ajureista, mutta eipä tuo NVIDIAnkaan RT ulkomuistista ole aina "vain toiminut" eikä se että on bugeja tarkoita että siellä kortti olisi vähemmän töitä tehnyt.
 
Bugeja on vielä yksittäisissä peleissä, mitkä voivat johtua joko pelistä tai ajureista, mutta eipä tuo NVIDIAnkaan RT ulkomuistista ole aina "vain toiminut" eikä se että on bugeja tarkoita että siellä kortti olisi vähemmän töitä tehnyt.

Nyt jomman kumman ulkomuisti varmaan pettää, mutta mulla on aina RT toiminut heittämällä oikein.
 
Kyllähän NVIDIAlla enemmän sitä RT-suorituskykyä on, mutta siihen ruudulla näkyvään suorituskykyyn vaikuttaa moni asia.

Mistä sinä nyt yhtäkkiä keksit että RT tavaraa olisi samassa pelissä eri määrä eri raudalla? Tietenkin samoilla asetuksilla tulee sama määrä tavaraa ruudulle. Bugeja on vielä yksittäisissä peleissä, mitkä voivat johtua joko pelistä tai ajureista, mutta eipä tuo NVIDIAnkaan RT ulkomuistista ole aina "vain toiminut" eikä se että on bugeja tarkoita että siellä kortti olisi vähemmän töitä tehnyt.
Eikö näitä side-by-side videoita ja kuvia ole tässä ketjussa esitelty jo aivan tarpeeksi?

Sitten kun ajetaan benchmarkki jossa ei päästä mielivaltaisesti päättämään että mitä rendataan niin se näyttää tältä:
(Radeon RX 6800 & RX 6800 XT Review: AMD’s Back With Big Navi - Page 2)

1606150145283.png


Minusta tuo menee täysin 1:1 sen mukaan miten esim raytrace minecraft toimii ilman DLSS:ää amd vs nvidia.

Suorituskyvyn hyödyntäminen on sitten se missä pelinkehittäjät voi onnistua tai epäonnistua, mutta tässä tämä pohja-asetelma.
 
Eikö näitä side-by-side videoita ja kuvia ole tässä ketjussa esitelty jo aivan tarpeeksi?

Sitten kun ajetaan benchmarkki jossa ei päästä mielivaltaisesti päättämään että mitä rendataan niin se näyttää tältä:
(Radeon RX 6800 & RX 6800 XT Review: AMD’s Back With Big Navi - Page 2)

1606150145283.png


Minusta tuo menee täysin 1:1 sen mukaan miten esim raytrace minecraft toimii ilman DLSS:ää amd vs nvidia.

Suorituskyvyn hyödyntäminen on sitten se missä pelinkehittäjät voi onnistua tai epäonnistua, mutta tässä tämä pohja-asetelma.

Eihän sitä ole kukaan väittänytkään ettei puhdas RT-olisi välttämättä parempi AMD:llä. Mutta ei sekään ole suoraan totta, että AMD:n ratkaisu RT:lle on huonompi hybridipeleissä. Vaikka sen RT-osuuden laskisi hieman hitaammin, voi kokonaisuus toimia paremmin kuin vaikka RTX 3070:llä kun rasterointi toteutuu merkittävästi nopeammin. Onko silloin RT-ON asetuksilla suurempi FPS huononpi toteutus, vaikka RT-efektien laskeminen tapahtuu hitaammin?
 
Nyt jomman kumman ulkomuisti varmaan pettää, mutta mulla on aina RT toiminut heittämällä oikein.
Jaa, miksi sitten esimerkiksi Minecraftissa on tiedossa olevia bugeja, minkä vuoksi RT ei käyttäydy oikein kaikissa tilanteissa? Minecraft with RTX Beta Known Issues List
Ajureissakin vissiin korjailtu vain olemattomia DXR-bugeja ja se nyt on vaan luonnollista että CoDissa vähän sokaistuu RT-päällä molempien valmistajien korteilla. Bugeja on sekä ajureissa että peleissä.

Eikö näitä side-by-side videoita ja kuvia ole tässä ketjussa esitelty jo aivan tarpeeksi?
Pari bugista peliä on esitetty, kaikkia yhdistänyt muistaakseni sama pelimoottori UE4. Se, että toteutuksessa on bugeja ei tarkoita, että kortti olisi tehnyt vähempää töitä välttämättä, se nähdään kun bugit korjataan.
Sitten kun ajetaan benchmarkki jossa ei päästä mielivaltaisesti päättämään että mitä rendataan niin se näyttää tältä:
(Radeon RX 6800 & RX 6800 XT Review: AMD’s Back With Big Navi - Page 2)

1606150145283.png


Minusta tuo menee täysin 1:1 sen mukaan miten esim raytrace minecraft toimii ilman DLSS:ää amd vs nvidia.

Suorituskyvyn hyödyntäminen on sitten se missä pelinkehittäjät voi onnistua tai epäonnistua, mutta tässä tämä pohja-asetelma.
Ihan samalla tavalla tuossa voisi "mielivaltaisesti päättää mitä rendataan", mutta sinulla nyt vaikuttaa olevan joku vankkumaton usko siihen että AMD vaan kusettaa oli mikä oli.
 
Ihan samalla tavalla tuossa voisi "mielivaltaisesti päättää mitä rendataan", mutta sinulla nyt vaikuttaa olevan joku vankkumaton usko siihen että AMD vaan kusettaa oli mikä oli.
Kyseenalaistin vain sen että reiluako on mitata säteenjäljitystä hyödyntävän pelin suorituskykyä jos valmistajat mielivaltaisesti saa päättää ja "optimoida" pelin niin että pelin visuaalinen ilme muuttuu. Tämä koskee aivan kaikkia valmistajia tasapuolisesti. En usko pelibenchmarkkeja ennen kuin "bugit" on korjattu.
 
Kyseenalaistin vain sen että reiluako on mitata säteenjäljitystä hyödyntävän pelin suorituskykyä jos valmistajat mielivaltaisesti saa päättää ja "optimoida" pelin niin että pelin visuaalinen ilme muuttuu. Tämä koskee aivan kaikkia valmistajia tasapuolisesti. En usko pelibenchmarkkeja ennen kuin "bugit" on korjattu.
Sinä voit uskoa tai olla uskomatta mitä haluat, mutta edelleen suurin osa peleistä vaikuttaisi toimivan ihan niin kuin kuuluukin.
 
Sinä voit uskoa tai olla uskomatta mitä haluat, mutta edelleen suurin osa peleistä vaikuttaisi toimivan ihan niin kuin kuuluukin.
Vähän kuten sekin että suurimmassa osassa pelitilanteista nvidian DLSS tuottaa lähes täydellistä jälkeä ja peli toimii kuten kuuluukin huomattavalla suorituskykylisällä 4k näyttöresoluutiolla?


Miksi tämmöinen kasinaismoralismi kuvanlaatuasioissa? Kaikki, jopa täysin erilainen lopputulos kelpaa kun kyseessä on AMD.
 
Vähän kuten sekin että suurimmassa osassa pelitilanteista nvidian DLSS tuottaa lähes täydellistä jälkeä ja peli toimii kuten kuuluukin huomattavalla suorituskykylisällä 4k näyttöresoluutiolla?

Miksi tämmöinen kasinaismoralismi kuvanlaatuasioissa? Kaikki, jopa täysin erilainen lopputulos kelpaa kun kyseessä on AMD.
Mikä ihmeen kaksinaismoralismi? Kyse on selkeistä bugeista parissa pelissä, oli ne bugit sitten AMD:n ajureissa tai niissä peleissä, ei mistään "kuvanlaatuoptimoinneista".
DLSS 2.0 tuottaa niitä tyyppiartifaktejaan ihan jok'ikisessä toteutuksessa tähän asti, minkä lisäksi on tietenkin vielä pelikohtaisiakin bugeja
 
Mikä ihmeen kaksinaismoralismi? Kyse on selkeistä bugeista parissa pelissä, oli ne bugit sitten AMD:n ajureissa tai niissä peleissä, ei mistään "kuvanlaatuoptimoinneista".
Jotain lähdettä tälle että ovat oikeasti budeja? Vai onko se vain uskossa päätetty asia?
 
Kyseenalaistin vain sen että reiluako on mitata säteenjäljitystä hyödyntävän pelin suorituskykyä jos valmistajat mielivaltaisesti saa päättää ja "optimoida" pelin niin että pelin visuaalinen ilme muuttuu. Tämä koskee aivan kaikkia valmistajia tasapuolisesti. En usko pelibenchmarkkeja ennen kuin "bugit" on korjattu.
Ihan aidosti luulet että AMD on tahallaan rikkonut DXR:n osalta ajurinsa, jotta suorituskyky olisi parempi ja olettavat että kukaan ei asiaa huomaisi? Henkilökohtaisesti kuulostaa paljon todennäköisemmältä sellainen ajatus, että niillä on ollu hoppu ajureiden kanssa ja kaikki ei vaan vielä yksinkertaisesti toimi oikein. Rikkinäiset ajurit on harvoin myyntivaltti...
 
Ihan aidosti luulet että AMD on tahallaan rikkonut DXR:n osalta ajurinsa, jotta suorituskyky olisi parempi ja olettavat että kukaan ei asiaa huomaisi? Henkilökohtaisesti kuulostaa paljon todennäköisemmältä sellainen ajatus, että niillä on ollu hoppu ajureiden kanssa ja kaikki ei vaan vielä yksinkertaisesti toimi oikein. Rikkinäiset ajurit on harvoin myyntivaltti...
Kyllähän minä tämänkin vaihtoehdon toin ilmi jo useita viestejä sitten. Tämä jos mikähän on AMD tuotteissa aivan tavallista. Julkaistaan uusi rauta ja sitten ehkä puolen vuoden päästä on käyttökelpoinen ajuri tai muu softa, esim bios jakelussa.

Ja voi se vilpitön bugikin aiheuttaa sen ettei esim. RT operaattiona ajetakaan kaikkea mitä peli pyytää sillä seurauksella että suoritusykykin on korkeampi kuin sen pitäisi olla jos peli renderöidään kuten pelin suunnittelija sen halusi.

Oli miten oli. niin kauan kun kuvanlaadussa on selkeitä epämääräisyyksiä niin tuollaiset benchmarkit ei ole rehellisiä.
 
Nvidia kehittää teknologioita ainoastaan siitä syystä että saisivat lonkeronsa entistä syvemmälle ja kaikki lukittua omaan suljettuun ekosysteemiinsä. Mitään muuta intressiä nvidialla ei ole. Ja tuo on pitkässä juoksussa sellainen jota yhdenkään kuluttajan ei kannata toivoa että se toteutuu, koska silloin meille on tarjolla vain yhden valmistajan varteenotettavia näytönohjaimia ja ne on brändätty nvidian nimellä.

Milloin viimeeksi nvidia on kehittänyt jotain avointa?
- Nvidia pyöritti OpenGL työryhmää käytännössä yksin monet vuodet.

- Nvidia tekee hemmetisti duunia sen eteen että Vulkan versiot on tuettuna heidän raudallaan heti ekana päivänä, ja että Vulkaniin saadaan feature parity DX12 ultimaten kanssa. Valta-osa siitä duunista mitä tapahtuu Vulkanin parantamiseksi tänäpäivänä on Nvidian heppujen duunia.

- Vulkanin ekat debuggerit ja profilerit olivat Nvidian käsialaa.

- Vulkanin C++ binderit on nekin Nvidia käsialaa.

- Vulkanin tänään ratifioidut ray tracing speksit ovat nekin suurilta osin Nvidian kyhäämiä (toki yhteistyössä mm. AMD:n, ARM:n, Epicin, Samsungin, ja muiden firmojen heppujen kanssa) ja Nvidia tarjoaa niiden käyttöönottoon Nsight työkalut jotta devit pääsevät nopeammin kärryille.

Jos katotaan tuon ratifioidun Vulkan ray tracingin dokumentaatiota, niin huomataan että suurilta osin kyseessä on Nvidian jo kauan kyhäämä VK_NV_ray_tracing pienillä lisäyksillä ja muutoksilla.

Nvidia on opportunistinen firma, ja he tukevat avoimia ratkaisuja silloin kun niistä on heille hyötyä. Vulkanin ja OpenGL:n osalta kyseessä on halu päästä irti Microsoftin ja DirectX:n kynsistä, ja halu on ollut olemassa parikymmentä vuotta kun ottaa huomioon sen miten paljon Nvidia puski OpenGL:ää eteenpäin 2000-luvun alusta alkaen. Jos avoimista ratkaisuista ei ole Nvidialle hyötyä, he keksivät oman ja pitävät huolen siitä että tuotteet ja teknologiat toimivat kuten pitääkin. G-sync on tästä hyvä esimerkki.
 
Viimeksi muokattu:
Kyllähän minä tämänkin vaihtoehdon toin ilmi jo useita viestejä sitten. Tämä jos mikähän on AMD tuotteissa aivan tavallista. Julkaistaan uusi rauta ja sitten ehkä puolen vuoden päästä on käyttökelpoinen ajuri tai muu softa, esim bios jakelussa.

Ja voi se vilpitön bugikin aiheuttaa sen ettei esim. RT operaattiona ajetakaan kaikkea mitä peli pyytää sillä seurauksella että suoritusykykin on korkeampi kuin sen pitäisi olla jos peli renderöidään kuten pelin suunnittelija sen halusi.
huoh

Oli miten oli. niin kauan kun kuvanlaadussa on selkeitä epämääräisyyksiä niin tuollaiset benchmarkit ei ole rehellisiä.
Ja joku on väittänyt että rikkinäistä peli+ajurit komboa pitäisi käyttää suorituskykytesteissä?
 
Ja joku on väittänyt että rikkinäistä peli+ajurit komboa pitäisi käyttää suorituskykytesteissä?
Erittäin sujuvasti on sivuutettu usean eri arvostelijan toimesta kuvanlaadun analysointi. Vaikkei väitetä mitään niin teot puhuu toista kieltä.
 
Erittäin sujuvasti on sivuutettu usean eri arvostelijan toimesta kuvanlaadun analysointi. Vaikkei väitetä mitään niin teot puhuu toista kieltä.
No roskiin sellaset arvostelijat, jos peleissä on aidosti jotain rikki ja verrataan ruudunpäivitysnopeuksia ynnä tehdään niiden pohjalta ostosuosituksia.

Itse en ole moiseen roska-arvosteluun vielä törmännyt.
 
Vähän kuten sekin että suurimmassa osassa pelitilanteista nvidian DLSS tuottaa lähes täydellistä jälkeä ja peli toimii kuten kuuluukin huomattavalla suorituskykylisällä 4k näyttöresoluutiolla?


Miksi tämmöinen kasinaismoralismi kuvanlaatuasioissa? Kaikki, jopa täysin erilainen lopputulos kelpaa kun kyseessä on AMD.

DLLS:n turvin 2x kilpailijan tehot samalla tai paremmalla kuvanlaadulla, kun mahdollistaa vielä tulevaisuudessakin ultra pelailun samalla kun toisella siirrytään low asetuksiin. Turha näistä väitellä, kun eivät ole edes kokeneet tekoälyn hurmaa. :cigar:
 
DLLS:n turvin 2x kilpailijan tehot samalla tai paremmalla kuvanlaadulla, kun mahdollistaa vielä tulevaisuudessakin ultra pelailun samalla kun toisella siirrytään low asetuksiin. Turha näistä väitellä, kun eivät ole edes kokeneet tekoälyn hurmaa. :cigar:
Vaikea kokeilla kun ei niitä kortteja saa mistään ;)
Ehkä sit juhannuksena on jo ajankohtainen pointti sulla käsissäs.
 
No roskiin sellaset arvostelijat, jos peleissä on aidosti jotain rikki ja verrataan ruudunpäivitysnopeuksia ynnä tehdään niiden pohjalta ostosuosituksia.

Itse en ole moiseen roska-arvosteluun vielä törmännyt.
Minusta tuo on vähän huvittavaa kun noita selkeitä RT virheitä näkyy jopa AMD:n omissa demovideoissa. Joko softa on todella kesken tai sitten tuo on se nopeus tuolla laadulla mihin rauta kykenee.
 
Minusta tuo on vähän huvittavaa kun noita selkeitä RT virheitä näkyy jopa AMD:n omissa demovideoissa. Joko softa on todella kesken tai sitten tuo on se nopeus tuolla laadulla mihin rauta kykenee.

Ei se virheellinen laskentatapa ole välttämättä yhtään sen nopeampi kuin oikea.
 
Jotain lähdettä tälle että ovat oikeasti budeja? Vai onko se vain uskossa päätetty asia?
Epäsäännöllisiä virheitä renderöinnissä parissa satunnaisessa pelissä, joista yksi on vielä listattuna AMD:n ajureiden tiedossa olevissa ongelmissa. Suurin osa RT-peleistä toimii täysin normaalisti ja ongelmitta. Mitäpä lottoat?
Minusta tuo on vähän huvittavaa kun noita selkeitä RT virheitä näkyy jopa AMD:n omissa demovideoissa. Joko softa on todella kesken tai sitten tuo on se nopeus tuolla laadulla mihin rauta kykenee.
Missä AMD:n omissa demovideoissa?

Nvidia on opportunistinen firma, ja he tukevat avoimia ratkaisuja silloin kun niistä on heille hyötyä. Vulkanin ja OpenGL:n osalta kyseessä on halu päästä irti Microsoftin ja DirectX:n kynsistä, ja halu on ollut olemassa parikymmentä vuotta kun ottaa huomioon sen miten paljon Nvidia puski OpenGL:ää eteenpäin 2000-luvun alusta alkaen. Jos avoimista ratkaisuista ei ole Nvidialle hyötyä, he keksivät oman ja pitävät huolen siitä että tuotteet ja teknologiat toimivat kuten pitääkin. G-sync on tästä hyvä esimerkki.
Ja silti Vulkan rakennettiin AMD:n Mantle-rajapinnan pohjalta :interested:

DLLS:n turvin 2x kilpailijan tehot samalla tai paremmalla kuvanlaadulla, kun mahdollistaa vielä tulevaisuudessakin ultra pelailun samalla kun toisella siirrytään low asetuksiin. Turha näistä väitellä, kun eivät ole edes kokeneet tekoälyn hurmaa. :cigar:
DLSS heikentää kuvanlaatua täysin poikkeuksetta, sillä ei saada "samaa tai parempaa kuvanlaatua".
Kuvaa huonontamalla suorituskykyä saa helposti lisää monella muullakin tavalla.
Ja edelleen jos ajattelee esiopetetun neuroverkon käyttämisen referenssinä skaalatessa kuvaa parin ruudun datoista olevan "tekoälyä" niin aika löyhät määritelmät on, mutta kai sen sellaiseksikin voi halutessaan laskea.
(ps. AMD:lla on niin ikään kaikensortin tekoälytehtäviin optimoitua teknologiaa mukana noissa (etenkin 8:1 INT4 ja 4:1 INT8), ja jos joku noista kuvanhuononnuskekkereistä pitää niin vastaava "tekoäly" skaalauskikkailu sieltäkin on tulossa)
 
DLSS heikentää kuvanlaatua täysin poikkeuksetta, sillä ei saada "samaa tai parempaa kuvanlaatua".

Ei nyt ihan yksiselitteisesti niinkään. Joskus DLSS on joissain aspekteissa parempi, kuin natiiviresoluutio. Syynä on pelien vaihtelevanlaatuiset TAA-toteutukset.
 
Nvidialla on historiaa kuvanlaadun selvästä huonontamisesta ajureilla suorituskyvyn parantamiseksi... "LOD Bias"...

DLLS:n turvin 2x kilpailijan tehot samalla tai paremmalla kuvanlaadulla, kun mahdollistaa vielä tulevaisuudessakin ultra pelailun samalla kun toisella siirrytään low asetuksiin. Turha näistä väitellä, kun eivät ole edes kokeneet tekoälyn hurmaa.

Tieten jos tykkää ringring artifakteista ja moire efektistä niin kai se aikalaista hurmaa on...

Aika rajallista on DLSS2.0 käyttö peleissä. Voi olla että tulevissa peleissä on sitten tuki AMD:n käyttämälle avoimelle FidelityFX: Super Resolution ominaisuudelle... Toivottavasti näin onkin eikä Nvidia lahjo pelitaloja käyttämään suljettua vain niiden korteilla toimivaa DLSS:ää...
 
Ei nyt ihan yksiselitteisesti niinkään. Joskus DLSS on joissain aspekteissa parempi, kuin natiiviresoluutio. Syynä on pelien vaihtelevanlaatuiset TAA-toteutukset.
Joissain aspekteissa se voi olla paikoin parempi, mutta sillä on ne tyyppivikansa kuitenkin siellä aina. Eihän ne kaikkia häiritse, mutta joitain kyllä.

Aika rajallista on DLSS2.0 käyttö peleissä. Voi olla että tulevissa peleissä on sitten tuki AMD:n käyttämälle avoimelle FidelityFX: Super Resolution ominaisuudelle... Toivottavasti näin onkin eikä Nvidia lahjo pelitaloja käyttämään suljettua vain niiden korteilla toimivaa DLSS:ää...
AMD ei ole kehittämässä tuota yksin, siellä on tiettävästi ainakin Microsoft mukana eli eiköhän tukea tule löytymään jos noita haluaa käyttää.
 
AMD ei ole kehittämässä tuota yksin, siellä on tiettävästi ainakin Microsoft mukana eli eiköhän tukea tule löytymään jos noita haluaa käyttää.

Juurikin tuosta syystä sanoinkin että AMD:n käyttämälle... Jos tuollainen skaalaustekniikka pitää peliin saada niin paras vaihtoehto on käyttää avointa tekniikkaa jota voi sitten halutessaan käyttää oli sitten AMD, Nvidia tai vaikka Intel näytönohjain.
Tuskin tulee molempia DLSS ja SuperResolution löytymään samasta pelistä. Voisi kuvitella että tuo avoin on houkuttelevampi pelitaloille kun sitä voi käyttää sitten myös konsoleilla...
 
Uudessa CoDissa oli näköjään RT efektit Ultra-asetuksilla ja DLSS Qualityllä automaattisesti ekalla käynnistyksellä, kun koneessa RTX 3080 kiinni. Eli kaippa RT päällä voi olla ihan default asetus pelissä, eikä mikään erikseen päälle kytkettävä lisä, jolla jotkut täällä ovat perustelleet, miksi pelejä ei pitäisi benchmarkata vain RT päällä.
 
Uudessa CoDissa oli näköjään RT efektit Ultra-asetuksilla ja DLSS Qualityllä automaattisesti ekalla käynnistyksellä, kun koneessa RTX 3080 kiinni. Eli kaippa RT päällä voi olla ihan default asetus pelissä, eikä mikään erikseen päälle kytkettävä lisä, jolla jotkut täällä ovat perustelleet, miksi pelejä ei pitäisi benchmarkata vain RT päällä.
Itseä ei niinkään haittaa millä asetuksilla pelit testaillaan, kunhan se on aina samat asetukset eri raudalle ja lukee selkeästi, mitkä ne käytetyt asetukset ovat ja mikä on muu kone, mitä käytettiin testeissä. Esim. jos lukee, kuten suurimmassa osassa testejä, että testattu ultra asetuksilla, mutta RT-off se on ok näin. Mikä taas ei ole ok on, jos jossain lukee testattu max asetuksilla ja ei mainita, että RT olikin pois päältä. Niin kauan, kun testit tehdään myös RT päällä RT-off lisäksi ei tiedosta pitäisi tulla puutetta ja jokainen voi tehdä lopputuloksesta omat mietinnät.
 
RT on vielä niin niche hommaa että se kyllä luokitellaan extra ominaisuudeksi, ei pelin defaultti asetussettiin kuuluvaksi ominaisuudeksi. Tuskin yhdessäkään pelissä ne pelin asetus presetit asettaa RT on.
Katsellaan joskus parin vuoden päästä tilannetta uudestaan, jos sitten olis jo niin tukevaa RT rautaa että se RT:n päällelaitto ei tankkaa merkittävästi suorituskykyä ja pelivalikoima alkaa olla sillä tasolla että se on tuettuna lähes kaikissa peleissä.



Nvidia kehittää teknologioita ainoastaan siitä syystä että saisivat lonkeronsa entistä syvemmälle ja kaikki lukittua omaan suljettuun ekosysteemiinsä. Mitään muuta intressiä nvidialla ei ole. Ja tuo on pitkässä juoksussa sellainen jota yhdenkään kuluttajan ei kannata toivoa että se toteutuu, koska silloin meille on tarjolla vain yhden valmistajan varteenotettavia näytönohjaimia ja ne on brändätty nvidian nimellä.

Milloin viimeeksi nvidia on kehittänyt jotain avointa?



Vai että oikein vuosikymmeniä. :D Ei kannata uskoa kaikkea mitä markkinointi sedät sinulle uskottelee.
Mites sitten toi RTX korttien alleen paskominen noissa AMD vetoisissa peleissä?

Voiskohan syynä olla se että AMD:n kortit näyttää todellisuutta huonommilta NYT koska niitä on testattu pääasiassa nvidia vetoisilla peleillä? Itte en esim. hetkeäkään epäile etteikö nvidia saisi esim Dirt 5 lisää suorituskykyä myöhemmin. Ja veikkaan että AMD:n raudalle voidaan saada MYÖS tehoa lisää noihin nvidia vetoisiin peleihin sikäli mikäli pelinkehittäjiä enää kiinnostaa noihin vanhoihin peleihin panostaa.



Eli miten se on AMD:n vika? Nvidian rahalla kehitetty peli, eiköhän siellä ole sopparissa pykät että keskitytään MEIDÄN rautaan, ei kaverin vaikka kaveri haluaisikin bileisiin mukaan.



Kyllä suuresti epäilen että parissa viikossa olisi RT väkerretty BF5:n. Jotain on toki siinä ajassa saatu väkerrettyä mutta koko toteukseen kyllä on kulunut kuukausia.



Tekstuurimuistin määrä on hiukan eri asia. Nvidia päätti porata kuluttajia kakkoseen julkaisemalla tuhnulla muistimäärällä kortit. Onhan se tietty bisneksen kannalta hyvä asia kun voidaan sama kortti myydä samalle kaverille kahteen kertaan. Ensin tuhnulla muistimäärällä ja puolen vuoden päästä tuplamäärällä.



ROCm on opencl korvike, ei pelkästään tekoäly juttuihin tehty kikotin, sillä voidaan tehdä paljon muutakin.
Sitten intel duunaa OneAPI:a, eli kohta on tilanne että laskenta/tekoäly puolella on Cuda, ROCm ja OneAPI. 2 noista on avoimia, yksi suljettu. Joten mitenköhän tulevaisuudessa käy?



quake-ii-rtx-4k.png

quake-ii-rtx-1440p.png



Eli missä se tupla nopeus oikein on? RTX3090 toi ei tietenkään ole, mutta DF:n testeissä 3090 johto 2080Ti:n jäi alta 70% 1440p resolla.

Toki jos otetaan tuolta RTX2060 ja verrataan sitä 3080 niin kyllä! Olet oikeassa sieltä saataan jopa kolminkertainen ero aikaiseksi!

3080 on käytännössä tuplasti nopeampi RT:ssä, kun perus 2080.
 
We’re happy and excited to announce that we are partnering with Intel to provide the best possible performance and optimization for our PC players in HITMAN 3.

Together with Intel, we are working to optimize the game for launch and beyond, with updates, tweaks and improvements coming throughout 2021 that will improve the experience of playing on a high-end PC and multi-core CPUs.

These optimizations include enhancing HITMAN 3 for PC players with 8+ core CPUs, for example you’ll be able to spot more crowds in Dubai or experience more complex destructibility in Dartmoor. We’re also introducing Variable Rate Shading (VRS), a technique that allows us to prioritize GPU resources where they have the biggest impact. On top of that, we will also implement Ray Tracing after the launch of the game, later in 2021.

We’re excited to continue our partnership with Intel and look forward to sharing more details of what PC players can look forward to with HITMAN 3.
Sieltä saadaan sitten kolmannelle arkkitehtuurille optimoitua säteenseurantaa :interested:
 
Voisi kuvitella että tuo avoin on houkuttelevampi pelitaloille kun sitä voi käyttää sitten myös konsoleilla...

Kyllä, tuo voisi myös olla aika iso ase Microsoftille konsolitaistelussa Sonya vastaan. Toki joku huhu oli ennen PS5 -launchia, että PS työskentelisi jonkun oman versionsa kanssa myös. Videocarzin mukaan tuo Super Resolution pohjautuisi Microsoftin Direct ML:ään (Direct Machine learning), jonka parissa Microsoft on työskennellyt jo useamman vuoden. 2018 demosivat tuota ideaa jossain messuilla. Microsoftin sivuilta poimittua:

Direct Machine Learning (DirectML) is a low-level API for machine learning (ML). Hardware-accelerated machine learning primitives (called operators) are the building blocks of DirectML. From those building blocks, you can develop such machine learning techniques as upscaling, anti-aliasing, and style transfer, to name but a few. Denoising and super-resolution, for example, allow you to achieve impressive raytraced effects with fewer rays per pixel.

Eli tuolle voisi opettaa ylöspäin skaalausta, anti-aliasingeja yms. Ja Denoising + Super-resoluutio mahdollistaisi säteenseuranta efektejä vähemmillä säteillä per/pikseli. Vähän tönkkö käännös, joku asiaan enemmän vihkiytynyt voi heittää paremman version. Mutta joo, saa nähdä mitä sieltä tulee. Toivottavasti ei mitään suljettuja systeemejä, johon otetaan mukaan vain harvoja ja valittuja..

Eli kaippa RT päällä voi olla ihan default asetus pelissä, eikä mikään erikseen päälle kytkettävä lisä, jolla jotkut täällä ovat perustelleet, miksi pelejä ei pitäisi benchmarkata vain RT päällä.

Koska vain RT-päällä tehdyt benchmarkit ei kertoisi kuluttajille, mitä se suorituskyky on ilman RT:tä, ja usko tai älä, mutta aika moni haluaa tietää senkin. Kuluttajien kannalta aina parempi, mitä enemmän testejä on tehty. Testaajille tämä toki aiheuttaa lisätyötä.

Suurin osa kuluttajista ei tule hankkimaan nyt julkaistuja näytönohjaimia, vaan ne jotka hankkii RT-kortteja, hankkii jotain ''entry level'' -kortteja tyyliin RTX 3060, ja noilla korteilla se RT tulee olemaan monissa peleissä todella raskasta menoa. Ja raskasta se meno on nyt julkaistuilla high-end -ohjaimillakin monissa peleissä.
 
Kyseenalaistin vain sen että reiluako on mitata säteenjäljitystä hyödyntävän pelin suorituskykyä jos valmistajat mielivaltaisesti saa päättää ja "optimoida" pelin niin että pelin visuaalinen ilme muuttuu.

Ai niinkuin se DLSS?
 
Upeaa vänkäämistä. @Kaotik vois kaivaa nyt noihin AMD:n videoihin sen saman suurennuslasin, jolla totesi DLSS2:n käyttökelvottomaksi.
Taisi kyse kuitenkin olla dlss1 mikä ei ollut näin hyvä kuin dlss2.

Vaikka rt on varmasti näyttävä, niin kuinka monta hyvää peliä on RT:llä ? Monta tuntia siitä irtoaa iloa? Yleensä kun ostan jonkun tuotteen lasken mutulla hinta/tunti suhdetta, koska se on ainoa mittari mikä on itselle konkreettinen. ( Edit. En tiedä onko kysymys oikeassa ketjussa)
 
Viimeksi muokattu:
Olenko sokea vai eikö tässä vielä ollut vertailupätkää godfallista nvidialla, jossa säteenseurantaa ei ole "optimoitu" väärin? :tdown:
 
Olenko sokea vai eikö tässä vielä ollut vertailupätkää godfallista nvidialla, jossa säteenseurantaa ei ole "optimoitu" väärin? :tdown:
Ei ole kun nvidian korteilla se ei toimi vielä. Nvidia sais panostaa vähän enemmän pelitukeen.

Kohta joku tähän heittää että se on AMD:n vika, että tukea ei ole, mutta toisaalta nvidian sponssaamissa peleissä se on myös AMD:n vika että tukea ei löydy AMD:n korteille. :confused:
 
Tässä kun väitellään RT:stä mikä on edelleen alkutekijöissään, kun katsotaan sitten AMD:n ja Nvidian RT nopeuksia kun suurinosa peleistä on täysin RT:llä toteutettu kuten nyt ne Minecraftin ja Quake 2:n RTX versiot.
Ennen kuin päästään nykypelejä grafiikka tasolle RT:llä, niin siihen menee vielä vuosia ja vuosia. Kun tämä nykyiset "RT-pelit" ovat vaan purkalla päälle liimattuja heijastus ja varjo juttuja, mitkä ovat olleet ilmankin RT:täkin ihan riittävän hienoja.
Kun itse en ainakaan jää peleissä graffoja niin tuijottamaan että huomaisin eroa, joten painoarvo näille kikkailuille täys 0.

Mutta mukavaa että AMD pääsi taas mukaan high-end näytönohjain kisaan ettei Nvidia voi vai jatkuvasti pökittää hintoja ylöspäin. Tosin onhan nuo AMD:n kortitkin aivan liian kalliita itselleni.
Ja hauska nähdä Nvidia fanit täällä heti "muokkaamassa" testejä että saadaan vaikka väkisin "oma" lemppari firman kortti ykköseksi :rofl:
Muuta voi sanoa että hemmetin typerää fanittaa jotain firmaa, jonka tehtävä on kerätä rahat sinulta pois.

Jos taas vihaa jotain firmaa kun se on toiminut typerästi, niin yksilönä helpoin ja ainoa tapa näyttää mieltään on olla ostamatta kyseisen firman tuotoksia.
Itselläni tämmöisiä firmoja ovat Apple, EA, Nvidia sekä Ubisoft.
 
Viimeksi muokattu:
Itse veikkaan että RT tulee olemaan muutenkin vaikea testattava. Aivan erilaisesta toteutuksesta johtuen voi olla että osaan peleistä tulee säteenseurantarutiinitkin erikseen molemmille korteille. Optimointeja kun todennäköisesti joutuu tekemään molempiin suuntiin ettei suorituskyky romahda liian pahasti ja toisaalta avoimen ratkaisun puute DLSS:ää vastaavan tekniikan osalta aika lailla pakottaakin siihen osittain. Enkä siis tarkoita että AMD olisi ainoa jota pitäisi optimoida, vaan että NVIDIA joutuu todennäköisesti myös tekemään kovasti töitä että pelit pyörivät yhtä hyvin kuin AMD:n raudalla.

Vanhempiin peleihin ei ilman jotain definite version tyylistä päivitystä RT:tä välttämättä kauheasti päivitellä. Eihän noihin DLSS 1.0 peleihinkään ole tullut päivitystä uudempaan versioon niin tuskin niiden RT toteutustakaan lähdetään optimoimaan ellei peli sitten uudelleen julkaista konsoleilla tms. (jolloin AMD voisi optimointia saada osakseen).
 

Statistiikka

Viestiketjuista
257 193
Viestejä
4 472 162
Jäsenet
73 896
Uusin jäsen
halfbrite

Hinta.fi

Back
Ylös Bottom