Eikö näitä side-by-side videoita ja kuvia ole tässä ketjussa esitelty jo aivan tarpeeksi?
Sitten kun ajetaan benchmarkki jossa ei päästä mielivaltaisesti päättämään että mitä rendataan niin se näyttää tältä:
(
Radeon RX 6800 & RX 6800 XT Review: AMD’s Back With Big Navi - Page 2)
Minusta tuo menee täysin 1:1 sen mukaan miten esim raytrace minecraft toimii ilman DLSS:ää amd vs nvidia.
Suorituskyvyn hyödyntäminen on sitten se missä pelinkehittäjät voi onnistua tai epäonnistua, mutta tässä tämä pohja-asetelma.
En nyt hirveästi laittaisi painoarvoa millekkään RT testille kun hommat on ihan levällään. EIköhän se toi 3dmarkin testikin ole nvidia vetoisesti tehty kun muuta ei ole ollut silloin mahdollista käyttää.
- Nvidia pyöritti OpenGL työryhmää käytännössä yksin monet vuodet.
3DLabs kun alkoi tippua kelkasta niin pakkohan niiden oli.
- Nvidia tekee hemmetisti duunia sen eteen että Vulkan versiot on tuettuna heidän raudallaan heti ekana päivänä, ja että Vulkaniin saadaan feature parity DX12 ultimaten kanssa. Valta-osa siitä duunista mitä tapahtuu Vulkanin parantamiseksi tänäpäivänä on Nvidian heppujen duunia.
- Vulkanin ekat debuggerit ja profilerit olivat Nvidian käsialaa.
- Vulkanin C++ binderit on nekin Nvidia käsialaa.
- Vulkanin
tänään ratifioidut ray tracing speksit ovat nekin suurilta osin Nvidian kyhäämiä (toki yhteistyössä mm. AMD:n, ARM:n, Epicin, Samsungin, ja muiden firmojen heppujen kanssa) ja Nvidia tarjoaa niiden käyttöönottoon Nsight työkalut jotta devit pääsevät nopeammin kärryille.
Jos katotaan tuon ratifioidun Vulkan ray tracingin dokumentaatiota, niin huomataan että suurilta osin kyseessä on Nvidian jo kauan kyhäämä VK_NV_ray_tracing pienillä lisäyksillä ja muutoksilla.
Ja missähän koko Vulkanin juuret on? AMD kehitti Mantlen ja luovutti sen sitten Kronokselle ja nyt meillä on Vulkan. Se on toki hienoa että nvidia on alkanut osallistua Vulkanin kehitykseen.
Nvidia on opportunistinen firma, ja he tukevat avoimia ratkaisuja silloin kun niistä on heille hyötyä. Vulkanin ja OpenGL:n osalta kyseessä on halu päästä irti Microsoftin ja DirectX:n kynsistä, ja halu on ollut olemassa parikymmentä vuotta kun ottaa huomioon sen miten paljon Nvidia puski OpenGL:ää eteenpäin 2000-luvun alusta alkaen. Jos avoimista ratkaisuista ei ole Nvidialle hyötyä, he keksivät oman ja pitävät huolen siitä että tuotteet ja teknologiat toimivat kuten pitääkin. G-sync on tästä hyvä esimerkki.
G-Sync on hieno esimerkki siitä kuinka yritetään lukita kuluttajat omaan suljettuun ekosysteemiin. Onneksi Nvidia tuon ottelun on jo myöntänyt hävinneensä. Se tapahtui sinä päivänä kun alkoivat vihdoinkin tukemaan avointa stantardia.
Meillä on tälläkin forumilla useita jotka nyt olisi olleet halukkaita ostamaan AMD:n kortin, mutta kun ruutu on vanha G-Sync eikä sitä olla valmiita päivittämään, niin joutuu ostamaan edelleen nvidian kortin.
3080 on käytännössä tuplasti nopeampi RT:ssä, kun perus 2080.
Ja jos verrataan RTX2060 niin ainakin kolminkertainen. Hienosti se Jensenin aivopesu on kyllä uponnut. Edelleen, verrattuna RTX2080Ti vs RTX3090 ei todellakaan ole ero 2x ja toi 3090 on aikalailla se maksimi mitä tuosta sirusta saadaan irti, eli vaikka sieltä tulisi 3080Ti niin ei se tule tuomaan sitä 2x eroa.
Vanhempiin peleihin ei ilman jotain definite version tyylistä päivitystä RT:tä välttämättä kauheasti päivitellä. Eihän noihin DLSS 1.0 peleihinkään ole tullut päivitystä uudempaan versioon niin tuskin niiden RT toteutustakaan lähdetään optimoimaan ellei peli sitten uudelleen julkaista konsoleilla tms. (jolloin AMD voisi optimointia saada osakseen).
Tämä juuri tuntuu unohtuvan monelta. Kun ei ole ollut mielenkiintoa edes DLSS päivittää niin tuskin on hirveästi motivaatiota alkaa enää vanhan pelin RT toteutuksen kanssa pelehtimään, ellei sitten AMD käy kippaamassa kotikarryllistä seteleitä pelifirman aulaan ja tote että laittakaas kuntoon.
Tämän hetken tilanne on kuitenkin se, että NVIDIA on isolla erolla edellä RT hommissa ja sillä on hyvin todennäköisesti vaikutusta parin vuoden sisään tulevissa AAA peleissä, joissa RT on käytössä. Pahimmillaan AMD:n korteilla on minimiasetukset RT:ssä ja silti mennään alle 60 FPS 1440p resolla, kun DLSS vastinetta ei ole. 2080Ti:llä RT oli/on käytettävä (yli 60 FPS) vain oikeastaan 1080p resolla, jos DLSS:a ei ole käytettävissä. AMD:n RT nopeushan on niillä 2080Ti hoodeilla noissa hybriditoteutuksissa.
Se on isolla erolla edellä toteutuksissa jotka on tehty täysin heidän rahoittamana ja heidän raudalle. Mitäs jos otettaisiin happea ja katsottaisiin vaikka puoli vuotta että mihin tää koko homma lähtee kehittymään. Nyt on aivan liian aikaista tehdä mitään suuria päätelmiä. Se tiedetään lähes täysin varmasti että nvidia on jonkin verran edellä, mutta se etumatka tuskin on noin valtava mitä se jossain tilanteissa nyt on.
Lähinnä itteäni ärsyttää se että täällä ringissä onanoidaan nvidian ylivoimalle ja ummistetaan silmät ja korvat täysin siltä mahdollisuudelta että ne nykyiset toteutukset ei välttämättä vielä toimi optimaalisesti AMD:n raudalla, kuten ei varmasti joku Dirt 5 pyöri optimaalisesti nvidian raudalla.
Sen sijaan että tunnistettaisiin realiteetit, täällä vain kliimaksissa juhlitaan nvidian ylivertaisuutta.
Tää AMD:n RT toteutus kuitenkin poikkeaa paljon nvidian toteutuksesta ja se on devaajillekkin uusi juttu.
3080/3090 on varmin paketti 3-5 vuoden aikajänteellä. Ja jos ei ole kiire, niin 3080:nkin voi kevättalvesta jostain saada. 3070:n en usko jaksavan noin pitkään ilman merkittäviä kompromisseja, ja AMD:n 6000-sarjaan liittyy isoja epävarmuustekijöitä RT/SR-sektorilla.
Aika rohkeaa kyllä alkaa 5v päähän katsomaan että 10G muistia on riittävästi. Kuten HUB videollaan totesi, niin jo nyt 8G alkaa käydä ahtaaksi joissain peleissä. Kun ylitys on gigan verran, niin se ei vielä juurikaan vaikuta suorituskykyyn, jotain visuaalista alkaa näkymään eli popuppeja. Mutta kun mennään tuon gigan ylitte, niin sitten alkaa nylkytys.
10G on varmaan pariksi vuodeksi ihan ok.