Virallinen: NVIDIA vs AMD (vs Intel) keskustelu- ja väittelyketju

  • Keskustelun aloittaja Keskustelun aloittaja Sampsa
  • Aloitettu Aloitettu
Nyt jomman kumman ulkomuisti varmaan pettää, mutta mulla on aina RT toiminut heittämällä oikein.
Jaa, miksi sitten esimerkiksi Minecraftissa on tiedossa olevia bugeja, minkä vuoksi RT ei käyttäydy oikein kaikissa tilanteissa? Minecraft with RTX Beta Known Issues List
Ajureissakin vissiin korjailtu vain olemattomia DXR-bugeja ja se nyt on vaan luonnollista että CoDissa vähän sokaistuu RT-päällä molempien valmistajien korteilla. Bugeja on sekä ajureissa että peleissä.

Eikö näitä side-by-side videoita ja kuvia ole tässä ketjussa esitelty jo aivan tarpeeksi?
Pari bugista peliä on esitetty, kaikkia yhdistänyt muistaakseni sama pelimoottori UE4. Se, että toteutuksessa on bugeja ei tarkoita, että kortti olisi tehnyt vähempää töitä välttämättä, se nähdään kun bugit korjataan.
Sitten kun ajetaan benchmarkki jossa ei päästä mielivaltaisesti päättämään että mitä rendataan niin se näyttää tältä:
(Radeon RX 6800 & RX 6800 XT Review: AMD’s Back With Big Navi - Page 2)

1606150145283.png


Minusta tuo menee täysin 1:1 sen mukaan miten esim raytrace minecraft toimii ilman DLSS:ää amd vs nvidia.

Suorituskyvyn hyödyntäminen on sitten se missä pelinkehittäjät voi onnistua tai epäonnistua, mutta tässä tämä pohja-asetelma.
Ihan samalla tavalla tuossa voisi "mielivaltaisesti päättää mitä rendataan", mutta sinulla nyt vaikuttaa olevan joku vankkumaton usko siihen että AMD vaan kusettaa oli mikä oli.
 
Ihan samalla tavalla tuossa voisi "mielivaltaisesti päättää mitä rendataan", mutta sinulla nyt vaikuttaa olevan joku vankkumaton usko siihen että AMD vaan kusettaa oli mikä oli.
Kyseenalaistin vain sen että reiluako on mitata säteenjäljitystä hyödyntävän pelin suorituskykyä jos valmistajat mielivaltaisesti saa päättää ja "optimoida" pelin niin että pelin visuaalinen ilme muuttuu. Tämä koskee aivan kaikkia valmistajia tasapuolisesti. En usko pelibenchmarkkeja ennen kuin "bugit" on korjattu.
 
Kyseenalaistin vain sen että reiluako on mitata säteenjäljitystä hyödyntävän pelin suorituskykyä jos valmistajat mielivaltaisesti saa päättää ja "optimoida" pelin niin että pelin visuaalinen ilme muuttuu. Tämä koskee aivan kaikkia valmistajia tasapuolisesti. En usko pelibenchmarkkeja ennen kuin "bugit" on korjattu.
Sinä voit uskoa tai olla uskomatta mitä haluat, mutta edelleen suurin osa peleistä vaikuttaisi toimivan ihan niin kuin kuuluukin.
 
Sinä voit uskoa tai olla uskomatta mitä haluat, mutta edelleen suurin osa peleistä vaikuttaisi toimivan ihan niin kuin kuuluukin.
Vähän kuten sekin että suurimmassa osassa pelitilanteista nvidian DLSS tuottaa lähes täydellistä jälkeä ja peli toimii kuten kuuluukin huomattavalla suorituskykylisällä 4k näyttöresoluutiolla?


Miksi tämmöinen kasinaismoralismi kuvanlaatuasioissa? Kaikki, jopa täysin erilainen lopputulos kelpaa kun kyseessä on AMD.
 
Vähän kuten sekin että suurimmassa osassa pelitilanteista nvidian DLSS tuottaa lähes täydellistä jälkeä ja peli toimii kuten kuuluukin huomattavalla suorituskykylisällä 4k näyttöresoluutiolla?

Miksi tämmöinen kasinaismoralismi kuvanlaatuasioissa? Kaikki, jopa täysin erilainen lopputulos kelpaa kun kyseessä on AMD.
Mikä ihmeen kaksinaismoralismi? Kyse on selkeistä bugeista parissa pelissä, oli ne bugit sitten AMD:n ajureissa tai niissä peleissä, ei mistään "kuvanlaatuoptimoinneista".
DLSS 2.0 tuottaa niitä tyyppiartifaktejaan ihan jok'ikisessä toteutuksessa tähän asti, minkä lisäksi on tietenkin vielä pelikohtaisiakin bugeja
 
Mikä ihmeen kaksinaismoralismi? Kyse on selkeistä bugeista parissa pelissä, oli ne bugit sitten AMD:n ajureissa tai niissä peleissä, ei mistään "kuvanlaatuoptimoinneista".
Jotain lähdettä tälle että ovat oikeasti budeja? Vai onko se vain uskossa päätetty asia?
 
Kyseenalaistin vain sen että reiluako on mitata säteenjäljitystä hyödyntävän pelin suorituskykyä jos valmistajat mielivaltaisesti saa päättää ja "optimoida" pelin niin että pelin visuaalinen ilme muuttuu. Tämä koskee aivan kaikkia valmistajia tasapuolisesti. En usko pelibenchmarkkeja ennen kuin "bugit" on korjattu.
Ihan aidosti luulet että AMD on tahallaan rikkonut DXR:n osalta ajurinsa, jotta suorituskyky olisi parempi ja olettavat että kukaan ei asiaa huomaisi? Henkilökohtaisesti kuulostaa paljon todennäköisemmältä sellainen ajatus, että niillä on ollu hoppu ajureiden kanssa ja kaikki ei vaan vielä yksinkertaisesti toimi oikein. Rikkinäiset ajurit on harvoin myyntivaltti...
 
Ihan aidosti luulet että AMD on tahallaan rikkonut DXR:n osalta ajurinsa, jotta suorituskyky olisi parempi ja olettavat että kukaan ei asiaa huomaisi? Henkilökohtaisesti kuulostaa paljon todennäköisemmältä sellainen ajatus, että niillä on ollu hoppu ajureiden kanssa ja kaikki ei vaan vielä yksinkertaisesti toimi oikein. Rikkinäiset ajurit on harvoin myyntivaltti...
Kyllähän minä tämänkin vaihtoehdon toin ilmi jo useita viestejä sitten. Tämä jos mikähän on AMD tuotteissa aivan tavallista. Julkaistaan uusi rauta ja sitten ehkä puolen vuoden päästä on käyttökelpoinen ajuri tai muu softa, esim bios jakelussa.

Ja voi se vilpitön bugikin aiheuttaa sen ettei esim. RT operaattiona ajetakaan kaikkea mitä peli pyytää sillä seurauksella että suoritusykykin on korkeampi kuin sen pitäisi olla jos peli renderöidään kuten pelin suunnittelija sen halusi.

Oli miten oli. niin kauan kun kuvanlaadussa on selkeitä epämääräisyyksiä niin tuollaiset benchmarkit ei ole rehellisiä.
 
Nvidia kehittää teknologioita ainoastaan siitä syystä että saisivat lonkeronsa entistä syvemmälle ja kaikki lukittua omaan suljettuun ekosysteemiinsä. Mitään muuta intressiä nvidialla ei ole. Ja tuo on pitkässä juoksussa sellainen jota yhdenkään kuluttajan ei kannata toivoa että se toteutuu, koska silloin meille on tarjolla vain yhden valmistajan varteenotettavia näytönohjaimia ja ne on brändätty nvidian nimellä.

Milloin viimeeksi nvidia on kehittänyt jotain avointa?
- Nvidia pyöritti OpenGL työryhmää käytännössä yksin monet vuodet.

- Nvidia tekee hemmetisti duunia sen eteen että Vulkan versiot on tuettuna heidän raudallaan heti ekana päivänä, ja että Vulkaniin saadaan feature parity DX12 ultimaten kanssa. Valta-osa siitä duunista mitä tapahtuu Vulkanin parantamiseksi tänäpäivänä on Nvidian heppujen duunia.

- Vulkanin ekat debuggerit ja profilerit olivat Nvidian käsialaa.

- Vulkanin C++ binderit on nekin Nvidia käsialaa.

- Vulkanin tänään ratifioidut ray tracing speksit ovat nekin suurilta osin Nvidian kyhäämiä (toki yhteistyössä mm. AMD:n, ARM:n, Epicin, Samsungin, ja muiden firmojen heppujen kanssa) ja Nvidia tarjoaa niiden käyttöönottoon Nsight työkalut jotta devit pääsevät nopeammin kärryille.

Jos katotaan tuon ratifioidun Vulkan ray tracingin dokumentaatiota, niin huomataan että suurilta osin kyseessä on Nvidian jo kauan kyhäämä VK_NV_ray_tracing pienillä lisäyksillä ja muutoksilla.

Nvidia on opportunistinen firma, ja he tukevat avoimia ratkaisuja silloin kun niistä on heille hyötyä. Vulkanin ja OpenGL:n osalta kyseessä on halu päästä irti Microsoftin ja DirectX:n kynsistä, ja halu on ollut olemassa parikymmentä vuotta kun ottaa huomioon sen miten paljon Nvidia puski OpenGL:ää eteenpäin 2000-luvun alusta alkaen. Jos avoimista ratkaisuista ei ole Nvidialle hyötyä, he keksivät oman ja pitävät huolen siitä että tuotteet ja teknologiat toimivat kuten pitääkin. G-sync on tästä hyvä esimerkki.
 
Viimeksi muokattu:
Kyllähän minä tämänkin vaihtoehdon toin ilmi jo useita viestejä sitten. Tämä jos mikähän on AMD tuotteissa aivan tavallista. Julkaistaan uusi rauta ja sitten ehkä puolen vuoden päästä on käyttökelpoinen ajuri tai muu softa, esim bios jakelussa.

Ja voi se vilpitön bugikin aiheuttaa sen ettei esim. RT operaattiona ajetakaan kaikkea mitä peli pyytää sillä seurauksella että suoritusykykin on korkeampi kuin sen pitäisi olla jos peli renderöidään kuten pelin suunnittelija sen halusi.
huoh

Oli miten oli. niin kauan kun kuvanlaadussa on selkeitä epämääräisyyksiä niin tuollaiset benchmarkit ei ole rehellisiä.
Ja joku on väittänyt että rikkinäistä peli+ajurit komboa pitäisi käyttää suorituskykytesteissä?
 
Ja joku on väittänyt että rikkinäistä peli+ajurit komboa pitäisi käyttää suorituskykytesteissä?
Erittäin sujuvasti on sivuutettu usean eri arvostelijan toimesta kuvanlaadun analysointi. Vaikkei väitetä mitään niin teot puhuu toista kieltä.
 
Erittäin sujuvasti on sivuutettu usean eri arvostelijan toimesta kuvanlaadun analysointi. Vaikkei väitetä mitään niin teot puhuu toista kieltä.
No roskiin sellaset arvostelijat, jos peleissä on aidosti jotain rikki ja verrataan ruudunpäivitysnopeuksia ynnä tehdään niiden pohjalta ostosuosituksia.

Itse en ole moiseen roska-arvosteluun vielä törmännyt.
 
Vähän kuten sekin että suurimmassa osassa pelitilanteista nvidian DLSS tuottaa lähes täydellistä jälkeä ja peli toimii kuten kuuluukin huomattavalla suorituskykylisällä 4k näyttöresoluutiolla?


Miksi tämmöinen kasinaismoralismi kuvanlaatuasioissa? Kaikki, jopa täysin erilainen lopputulos kelpaa kun kyseessä on AMD.

DLLS:n turvin 2x kilpailijan tehot samalla tai paremmalla kuvanlaadulla, kun mahdollistaa vielä tulevaisuudessakin ultra pelailun samalla kun toisella siirrytään low asetuksiin. Turha näistä väitellä, kun eivät ole edes kokeneet tekoälyn hurmaa. :cigar:
 
DLLS:n turvin 2x kilpailijan tehot samalla tai paremmalla kuvanlaadulla, kun mahdollistaa vielä tulevaisuudessakin ultra pelailun samalla kun toisella siirrytään low asetuksiin. Turha näistä väitellä, kun eivät ole edes kokeneet tekoälyn hurmaa. :cigar:
Vaikea kokeilla kun ei niitä kortteja saa mistään ;)
Ehkä sit juhannuksena on jo ajankohtainen pointti sulla käsissäs.
 
No roskiin sellaset arvostelijat, jos peleissä on aidosti jotain rikki ja verrataan ruudunpäivitysnopeuksia ynnä tehdään niiden pohjalta ostosuosituksia.

Itse en ole moiseen roska-arvosteluun vielä törmännyt.
Minusta tuo on vähän huvittavaa kun noita selkeitä RT virheitä näkyy jopa AMD:n omissa demovideoissa. Joko softa on todella kesken tai sitten tuo on se nopeus tuolla laadulla mihin rauta kykenee.
 
Minusta tuo on vähän huvittavaa kun noita selkeitä RT virheitä näkyy jopa AMD:n omissa demovideoissa. Joko softa on todella kesken tai sitten tuo on se nopeus tuolla laadulla mihin rauta kykenee.

Ei se virheellinen laskentatapa ole välttämättä yhtään sen nopeampi kuin oikea.
 
Jotain lähdettä tälle että ovat oikeasti budeja? Vai onko se vain uskossa päätetty asia?
Epäsäännöllisiä virheitä renderöinnissä parissa satunnaisessa pelissä, joista yksi on vielä listattuna AMD:n ajureiden tiedossa olevissa ongelmissa. Suurin osa RT-peleistä toimii täysin normaalisti ja ongelmitta. Mitäpä lottoat?
Minusta tuo on vähän huvittavaa kun noita selkeitä RT virheitä näkyy jopa AMD:n omissa demovideoissa. Joko softa on todella kesken tai sitten tuo on se nopeus tuolla laadulla mihin rauta kykenee.
Missä AMD:n omissa demovideoissa?

Nvidia on opportunistinen firma, ja he tukevat avoimia ratkaisuja silloin kun niistä on heille hyötyä. Vulkanin ja OpenGL:n osalta kyseessä on halu päästä irti Microsoftin ja DirectX:n kynsistä, ja halu on ollut olemassa parikymmentä vuotta kun ottaa huomioon sen miten paljon Nvidia puski OpenGL:ää eteenpäin 2000-luvun alusta alkaen. Jos avoimista ratkaisuista ei ole Nvidialle hyötyä, he keksivät oman ja pitävät huolen siitä että tuotteet ja teknologiat toimivat kuten pitääkin. G-sync on tästä hyvä esimerkki.
Ja silti Vulkan rakennettiin AMD:n Mantle-rajapinnan pohjalta :interested:

DLLS:n turvin 2x kilpailijan tehot samalla tai paremmalla kuvanlaadulla, kun mahdollistaa vielä tulevaisuudessakin ultra pelailun samalla kun toisella siirrytään low asetuksiin. Turha näistä väitellä, kun eivät ole edes kokeneet tekoälyn hurmaa. :cigar:
DLSS heikentää kuvanlaatua täysin poikkeuksetta, sillä ei saada "samaa tai parempaa kuvanlaatua".
Kuvaa huonontamalla suorituskykyä saa helposti lisää monella muullakin tavalla.
Ja edelleen jos ajattelee esiopetetun neuroverkon käyttämisen referenssinä skaalatessa kuvaa parin ruudun datoista olevan "tekoälyä" niin aika löyhät määritelmät on, mutta kai sen sellaiseksikin voi halutessaan laskea.
(ps. AMD:lla on niin ikään kaikensortin tekoälytehtäviin optimoitua teknologiaa mukana noissa (etenkin 8:1 INT4 ja 4:1 INT8), ja jos joku noista kuvanhuononnuskekkereistä pitää niin vastaava "tekoäly" skaalauskikkailu sieltäkin on tulossa)
 
DLSS heikentää kuvanlaatua täysin poikkeuksetta, sillä ei saada "samaa tai parempaa kuvanlaatua".

Ei nyt ihan yksiselitteisesti niinkään. Joskus DLSS on joissain aspekteissa parempi, kuin natiiviresoluutio. Syynä on pelien vaihtelevanlaatuiset TAA-toteutukset.
 
Nvidialla on historiaa kuvanlaadun selvästä huonontamisesta ajureilla suorituskyvyn parantamiseksi... "LOD Bias"...

DLLS:n turvin 2x kilpailijan tehot samalla tai paremmalla kuvanlaadulla, kun mahdollistaa vielä tulevaisuudessakin ultra pelailun samalla kun toisella siirrytään low asetuksiin. Turha näistä väitellä, kun eivät ole edes kokeneet tekoälyn hurmaa.

Tieten jos tykkää ringring artifakteista ja moire efektistä niin kai se aikalaista hurmaa on...

Aika rajallista on DLSS2.0 käyttö peleissä. Voi olla että tulevissa peleissä on sitten tuki AMD:n käyttämälle avoimelle FidelityFX: Super Resolution ominaisuudelle... Toivottavasti näin onkin eikä Nvidia lahjo pelitaloja käyttämään suljettua vain niiden korteilla toimivaa DLSS:ää...
 
Ei nyt ihan yksiselitteisesti niinkään. Joskus DLSS on joissain aspekteissa parempi, kuin natiiviresoluutio. Syynä on pelien vaihtelevanlaatuiset TAA-toteutukset.
Joissain aspekteissa se voi olla paikoin parempi, mutta sillä on ne tyyppivikansa kuitenkin siellä aina. Eihän ne kaikkia häiritse, mutta joitain kyllä.

Aika rajallista on DLSS2.0 käyttö peleissä. Voi olla että tulevissa peleissä on sitten tuki AMD:n käyttämälle avoimelle FidelityFX: Super Resolution ominaisuudelle... Toivottavasti näin onkin eikä Nvidia lahjo pelitaloja käyttämään suljettua vain niiden korteilla toimivaa DLSS:ää...
AMD ei ole kehittämässä tuota yksin, siellä on tiettävästi ainakin Microsoft mukana eli eiköhän tukea tule löytymään jos noita haluaa käyttää.
 
AMD ei ole kehittämässä tuota yksin, siellä on tiettävästi ainakin Microsoft mukana eli eiköhän tukea tule löytymään jos noita haluaa käyttää.

Juurikin tuosta syystä sanoinkin että AMD:n käyttämälle... Jos tuollainen skaalaustekniikka pitää peliin saada niin paras vaihtoehto on käyttää avointa tekniikkaa jota voi sitten halutessaan käyttää oli sitten AMD, Nvidia tai vaikka Intel näytönohjain.
Tuskin tulee molempia DLSS ja SuperResolution löytymään samasta pelistä. Voisi kuvitella että tuo avoin on houkuttelevampi pelitaloille kun sitä voi käyttää sitten myös konsoleilla...
 
Uudessa CoDissa oli näköjään RT efektit Ultra-asetuksilla ja DLSS Qualityllä automaattisesti ekalla käynnistyksellä, kun koneessa RTX 3080 kiinni. Eli kaippa RT päällä voi olla ihan default asetus pelissä, eikä mikään erikseen päälle kytkettävä lisä, jolla jotkut täällä ovat perustelleet, miksi pelejä ei pitäisi benchmarkata vain RT päällä.
 
Uudessa CoDissa oli näköjään RT efektit Ultra-asetuksilla ja DLSS Qualityllä automaattisesti ekalla käynnistyksellä, kun koneessa RTX 3080 kiinni. Eli kaippa RT päällä voi olla ihan default asetus pelissä, eikä mikään erikseen päälle kytkettävä lisä, jolla jotkut täällä ovat perustelleet, miksi pelejä ei pitäisi benchmarkata vain RT päällä.
Itseä ei niinkään haittaa millä asetuksilla pelit testaillaan, kunhan se on aina samat asetukset eri raudalle ja lukee selkeästi, mitkä ne käytetyt asetukset ovat ja mikä on muu kone, mitä käytettiin testeissä. Esim. jos lukee, kuten suurimmassa osassa testejä, että testattu ultra asetuksilla, mutta RT-off se on ok näin. Mikä taas ei ole ok on, jos jossain lukee testattu max asetuksilla ja ei mainita, että RT olikin pois päältä. Niin kauan, kun testit tehdään myös RT päällä RT-off lisäksi ei tiedosta pitäisi tulla puutetta ja jokainen voi tehdä lopputuloksesta omat mietinnät.
 
RT on vielä niin niche hommaa että se kyllä luokitellaan extra ominaisuudeksi, ei pelin defaultti asetussettiin kuuluvaksi ominaisuudeksi. Tuskin yhdessäkään pelissä ne pelin asetus presetit asettaa RT on.
Katsellaan joskus parin vuoden päästä tilannetta uudestaan, jos sitten olis jo niin tukevaa RT rautaa että se RT:n päällelaitto ei tankkaa merkittävästi suorituskykyä ja pelivalikoima alkaa olla sillä tasolla että se on tuettuna lähes kaikissa peleissä.



Nvidia kehittää teknologioita ainoastaan siitä syystä että saisivat lonkeronsa entistä syvemmälle ja kaikki lukittua omaan suljettuun ekosysteemiinsä. Mitään muuta intressiä nvidialla ei ole. Ja tuo on pitkässä juoksussa sellainen jota yhdenkään kuluttajan ei kannata toivoa että se toteutuu, koska silloin meille on tarjolla vain yhden valmistajan varteenotettavia näytönohjaimia ja ne on brändätty nvidian nimellä.

Milloin viimeeksi nvidia on kehittänyt jotain avointa?



Vai että oikein vuosikymmeniä. :D Ei kannata uskoa kaikkea mitä markkinointi sedät sinulle uskottelee.
Mites sitten toi RTX korttien alleen paskominen noissa AMD vetoisissa peleissä?

Voiskohan syynä olla se että AMD:n kortit näyttää todellisuutta huonommilta NYT koska niitä on testattu pääasiassa nvidia vetoisilla peleillä? Itte en esim. hetkeäkään epäile etteikö nvidia saisi esim Dirt 5 lisää suorituskykyä myöhemmin. Ja veikkaan että AMD:n raudalle voidaan saada MYÖS tehoa lisää noihin nvidia vetoisiin peleihin sikäli mikäli pelinkehittäjiä enää kiinnostaa noihin vanhoihin peleihin panostaa.



Eli miten se on AMD:n vika? Nvidian rahalla kehitetty peli, eiköhän siellä ole sopparissa pykät että keskitytään MEIDÄN rautaan, ei kaverin vaikka kaveri haluaisikin bileisiin mukaan.



Kyllä suuresti epäilen että parissa viikossa olisi RT väkerretty BF5:n. Jotain on toki siinä ajassa saatu väkerrettyä mutta koko toteukseen kyllä on kulunut kuukausia.



Tekstuurimuistin määrä on hiukan eri asia. Nvidia päätti porata kuluttajia kakkoseen julkaisemalla tuhnulla muistimäärällä kortit. Onhan se tietty bisneksen kannalta hyvä asia kun voidaan sama kortti myydä samalle kaverille kahteen kertaan. Ensin tuhnulla muistimäärällä ja puolen vuoden päästä tuplamäärällä.



ROCm on opencl korvike, ei pelkästään tekoäly juttuihin tehty kikotin, sillä voidaan tehdä paljon muutakin.
Sitten intel duunaa OneAPI:a, eli kohta on tilanne että laskenta/tekoäly puolella on Cuda, ROCm ja OneAPI. 2 noista on avoimia, yksi suljettu. Joten mitenköhän tulevaisuudessa käy?



quake-ii-rtx-4k.png

quake-ii-rtx-1440p.png



Eli missä se tupla nopeus oikein on? RTX3090 toi ei tietenkään ole, mutta DF:n testeissä 3090 johto 2080Ti:n jäi alta 70% 1440p resolla.

Toki jos otetaan tuolta RTX2060 ja verrataan sitä 3080 niin kyllä! Olet oikeassa sieltä saataan jopa kolminkertainen ero aikaiseksi!

3080 on käytännössä tuplasti nopeampi RT:ssä, kun perus 2080.
 
We’re happy and excited to announce that we are partnering with Intel to provide the best possible performance and optimization for our PC players in HITMAN 3.

Together with Intel, we are working to optimize the game for launch and beyond, with updates, tweaks and improvements coming throughout 2021 that will improve the experience of playing on a high-end PC and multi-core CPUs.

These optimizations include enhancing HITMAN 3 for PC players with 8+ core CPUs, for example you’ll be able to spot more crowds in Dubai or experience more complex destructibility in Dartmoor. We’re also introducing Variable Rate Shading (VRS), a technique that allows us to prioritize GPU resources where they have the biggest impact. On top of that, we will also implement Ray Tracing after the launch of the game, later in 2021.

We’re excited to continue our partnership with Intel and look forward to sharing more details of what PC players can look forward to with HITMAN 3.
Sieltä saadaan sitten kolmannelle arkkitehtuurille optimoitua säteenseurantaa :interested:
 
Voisi kuvitella että tuo avoin on houkuttelevampi pelitaloille kun sitä voi käyttää sitten myös konsoleilla...

Kyllä, tuo voisi myös olla aika iso ase Microsoftille konsolitaistelussa Sonya vastaan. Toki joku huhu oli ennen PS5 -launchia, että PS työskentelisi jonkun oman versionsa kanssa myös. Videocarzin mukaan tuo Super Resolution pohjautuisi Microsoftin Direct ML:ään (Direct Machine learning), jonka parissa Microsoft on työskennellyt jo useamman vuoden. 2018 demosivat tuota ideaa jossain messuilla. Microsoftin sivuilta poimittua:

Direct Machine Learning (DirectML) is a low-level API for machine learning (ML). Hardware-accelerated machine learning primitives (called operators) are the building blocks of DirectML. From those building blocks, you can develop such machine learning techniques as upscaling, anti-aliasing, and style transfer, to name but a few. Denoising and super-resolution, for example, allow you to achieve impressive raytraced effects with fewer rays per pixel.

Eli tuolle voisi opettaa ylöspäin skaalausta, anti-aliasingeja yms. Ja Denoising + Super-resoluutio mahdollistaisi säteenseuranta efektejä vähemmillä säteillä per/pikseli. Vähän tönkkö käännös, joku asiaan enemmän vihkiytynyt voi heittää paremman version. Mutta joo, saa nähdä mitä sieltä tulee. Toivottavasti ei mitään suljettuja systeemejä, johon otetaan mukaan vain harvoja ja valittuja..

Eli kaippa RT päällä voi olla ihan default asetus pelissä, eikä mikään erikseen päälle kytkettävä lisä, jolla jotkut täällä ovat perustelleet, miksi pelejä ei pitäisi benchmarkata vain RT päällä.

Koska vain RT-päällä tehdyt benchmarkit ei kertoisi kuluttajille, mitä se suorituskyky on ilman RT:tä, ja usko tai älä, mutta aika moni haluaa tietää senkin. Kuluttajien kannalta aina parempi, mitä enemmän testejä on tehty. Testaajille tämä toki aiheuttaa lisätyötä.

Suurin osa kuluttajista ei tule hankkimaan nyt julkaistuja näytönohjaimia, vaan ne jotka hankkii RT-kortteja, hankkii jotain ''entry level'' -kortteja tyyliin RTX 3060, ja noilla korteilla se RT tulee olemaan monissa peleissä todella raskasta menoa. Ja raskasta se meno on nyt julkaistuilla high-end -ohjaimillakin monissa peleissä.
 
Kyseenalaistin vain sen että reiluako on mitata säteenjäljitystä hyödyntävän pelin suorituskykyä jos valmistajat mielivaltaisesti saa päättää ja "optimoida" pelin niin että pelin visuaalinen ilme muuttuu.

Ai niinkuin se DLSS?
 
Upeaa vänkäämistä. @Kaotik vois kaivaa nyt noihin AMD:n videoihin sen saman suurennuslasin, jolla totesi DLSS2:n käyttökelvottomaksi.
Taisi kyse kuitenkin olla dlss1 mikä ei ollut näin hyvä kuin dlss2.

Vaikka rt on varmasti näyttävä, niin kuinka monta hyvää peliä on RT:llä ? Monta tuntia siitä irtoaa iloa? Yleensä kun ostan jonkun tuotteen lasken mutulla hinta/tunti suhdetta, koska se on ainoa mittari mikä on itselle konkreettinen. ( Edit. En tiedä onko kysymys oikeassa ketjussa)
 
Viimeksi muokattu:
Olenko sokea vai eikö tässä vielä ollut vertailupätkää godfallista nvidialla, jossa säteenseurantaa ei ole "optimoitu" väärin? :tdown:
 
Olenko sokea vai eikö tässä vielä ollut vertailupätkää godfallista nvidialla, jossa säteenseurantaa ei ole "optimoitu" väärin? :tdown:
Ei ole kun nvidian korteilla se ei toimi vielä. Nvidia sais panostaa vähän enemmän pelitukeen.

Kohta joku tähän heittää että se on AMD:n vika, että tukea ei ole, mutta toisaalta nvidian sponssaamissa peleissä se on myös AMD:n vika että tukea ei löydy AMD:n korteille. :confused:
 
Tässä kun väitellään RT:stä mikä on edelleen alkutekijöissään, kun katsotaan sitten AMD:n ja Nvidian RT nopeuksia kun suurinosa peleistä on täysin RT:llä toteutettu kuten nyt ne Minecraftin ja Quake 2:n RTX versiot.
Ennen kuin päästään nykypelejä grafiikka tasolle RT:llä, niin siihen menee vielä vuosia ja vuosia. Kun tämä nykyiset "RT-pelit" ovat vaan purkalla päälle liimattuja heijastus ja varjo juttuja, mitkä ovat olleet ilmankin RT:täkin ihan riittävän hienoja.
Kun itse en ainakaan jää peleissä graffoja niin tuijottamaan että huomaisin eroa, joten painoarvo näille kikkailuille täys 0.

Mutta mukavaa että AMD pääsi taas mukaan high-end näytönohjain kisaan ettei Nvidia voi vai jatkuvasti pökittää hintoja ylöspäin. Tosin onhan nuo AMD:n kortitkin aivan liian kalliita itselleni.
Ja hauska nähdä Nvidia fanit täällä heti "muokkaamassa" testejä että saadaan vaikka väkisin "oma" lemppari firman kortti ykköseksi :rofl:
Muuta voi sanoa että hemmetin typerää fanittaa jotain firmaa, jonka tehtävä on kerätä rahat sinulta pois.

Jos taas vihaa jotain firmaa kun se on toiminut typerästi, niin yksilönä helpoin ja ainoa tapa näyttää mieltään on olla ostamatta kyseisen firman tuotoksia.
Itselläni tämmöisiä firmoja ovat Apple, EA, Nvidia sekä Ubisoft.
 
Viimeksi muokattu:
Itse veikkaan että RT tulee olemaan muutenkin vaikea testattava. Aivan erilaisesta toteutuksesta johtuen voi olla että osaan peleistä tulee säteenseurantarutiinitkin erikseen molemmille korteille. Optimointeja kun todennäköisesti joutuu tekemään molempiin suuntiin ettei suorituskyky romahda liian pahasti ja toisaalta avoimen ratkaisun puute DLSS:ää vastaavan tekniikan osalta aika lailla pakottaakin siihen osittain. Enkä siis tarkoita että AMD olisi ainoa jota pitäisi optimoida, vaan että NVIDIA joutuu todennäköisesti myös tekemään kovasti töitä että pelit pyörivät yhtä hyvin kuin AMD:n raudalla.

Vanhempiin peleihin ei ilman jotain definite version tyylistä päivitystä RT:tä välttämättä kauheasti päivitellä. Eihän noihin DLSS 1.0 peleihinkään ole tullut päivitystä uudempaan versioon niin tuskin niiden RT toteutustakaan lähdetään optimoimaan ellei peli sitten uudelleen julkaista konsoleilla tms. (jolloin AMD voisi optimointia saada osakseen).
 
Tässä kun väitellään RT:stä mikä on edelleen alkutekijöissään, kun katsotaan sitten AMD:n ja Nvidian RT nopeuksia kun suurinosa peleistä on täysin RT:llä toteutettu kuten nyt ne Minecraftin ja Quake 2:n RTX versiot.
Ennen kuin päästään nykypelejä grafiikka tasolle RT:llä, niin siihen menee vielä vuosia ja vuosia. Kun tämä nykyiset "RT-pelit" ovat vaan purkalla päälle liimattuja heijastus ja varjo juttuja, mitkä ovat olleet ilmankin RT:täkin ihan riittävän hienoja.
Kun itse en ainakaan jää peleissä graffoja niin tuijottamaan että huomaisin eroa, joten painoarvo näille kikkailuille täys 0.

Mutta mukavaa että AMD pääsi taas mukaan high-end näytönohjain kisaan ettei Nvidia voi vai jatkuvasti pökittää hintoja ylöspäin. Tosin onhan nuo AMD:n kortitkin aivan liian kalliita itselleni.
Ja hauska nähdä Nvidia fanit täällä heti "muokkaamassa" testejä että saadaan vaikka väkisin "oma" lemppari firman kortti ykköseksi :rofl:
Muuta voi sanoa että hemmetin typerää fanittaa jotain firmaa, jonka tehtävä on kerätä rahat sinulta pois.

Jos taas vihaa jotain firmaa kun se on toiminut typerästi, niin yksilönä helpoin ja ainoa tapa näyttää mieltään on olla ostamatta kyseisen firman tuotoksia.
Itselläni tämmöisiä firmoja ovat Apple, EA, Nvidia sekä Ubisoft.

En usko, että kukaan on täällä ollut sen takia mitään testitapoja muuttamassa, että saadaan NVIDIA ykköseksi.

Vaikka itselle on ihan sama sinänsä, että onko ne RT testit erillisiä, niin vähän harmittaa ko. puolen ylimalkainen käsittely ja se heitetään monissa eri saittien testeissä rooliin, "Pieni huomautus sivulauseessa". Samalla maalaillaan ruusuista kuvaa AMD:n tulevasta vahvasta asemasta ja suorituskyvystä RT hommissa, vaikka mitään takeita semmoisesta ei oikeasti ole, vaikka hyvin mahdollistahan se on.

Tämän hetken tilanne on kuitenkin se, että NVIDIA on isolla erolla edellä RT hommissa ja sillä on hyvin todennäköisesti vaikutusta parin vuoden sisään tulevissa AAA peleissä, joissa RT on käytössä. Pahimmillaan AMD:n korteilla on minimiasetukset RT:ssä ja silti mennään alle 60 FPS 1440p resolla, kun DLSS vastinetta ei ole. 2080Ti:llä RT oli/on käytettävä (yli 60 FPS) vain oikeastaan 1080p resolla, jos DLSS:a ei ole käytettävissä. AMD:n RT nopeushan on niillä 2080Ti hoodeilla noissa hybriditoteutuksissa.

RT on asia, mikä tulee koko ajan ajankohtaisemmaksi, ja kyllä ensi vuonna julkaistavassa AAA peleissä on varmaan suurimmassa osassa jo RT jossain muodossa käytössä. Aika todennäköisesti DLSS on monessa uutuuspelissä mukana myös, varsinkin jos siihen tulee RT toteutus.
 
Kannattaa lukaista noita RDNA2 deep dive artikkeleita ja patentteja aiheesta, lyhykäisyydessään siinä missä nvidialla on turinassa ja amperessa rasterointia hoitavista shadereista erillinen yksikkö millä BVH tarkastelu suoritetaan, RDNA2 kanssa käytetään simd yksiköitä eli shadereita ja ne eivät amd:llä kykene hoitamaan kumpaakin asiaa yhtä aikaa.

Kyllä pystyvät hoitamaan kumpaakin asiaa yhtä aikaa.

Jokaisella shader-ytimellä (DCUlla) on
1) monta laskentayksikköä, mm.
1a) 4 x 32-leveää SIMD-arraytä jotka tekee normaalin laskennan
1b) 4 * skalaariyksikköä jotka laskee osoitteita ja indeksejä jne
1c) 2 * 4-leveä TMU, jotka tekevät JOKO tekstuurioperaatioita TAI säteenjäljitystä
1d) jotain normaaleita lataus- tallennusyksiköitä

2) Frontend, joka lukee sisään käskyjä neljästä säikeestä yhtä aikaa

3) Jonot ja rekisterit sille, että siellä voi olla neljän suorituksessa olevan säikeen lisäksi muistaakseni 60? säiettä valmiina suoritukseen.


Eli siis, siellä voi siis joka ytimellä samalla kellojaksolla aloittaa käskyn suoritus suoritus neljästä säikeestä, siten että esim. 2 säiettä tekee säteenjäljitystä ja 2 säiettä jotka tekeee mitä tahansa muuta, Säteenjäljitys korkeintaan pudottaa "muun tekemisen" suorituskyvyn puoleen, ei estä sen tekemistä yhtä aikaa, mikäli se "muu asia" ei tarvi tekstuuriyksiköitä.

Ja jos siihen säteenjäljitykseen tulee mikä tahansa stalli jonka takia sitä ei voida tehdä täydellä teholla, sitten voidaan heti suorittaa normalia laskentaa neljällä säikeellä, neljällä laskentayksiköllä.

Tai, jos säteenjäljitysyksiköiden rajapinta(käskykanta) on sellainen, että yhdellä käskyllä pystytään syöttämään sille enemmän laskettavaaa kuin mitä se yhdessä kellojaksossa laskee, esim. jos vaikka kolmiotestikäsky pystyy ottamaan useamman kolmion (kaikki yhden laatikon kolmiot) kerralla parametrina ja rouskuttelee niitä useamman kellojakson ajan(tiedetään että tarkastaa yhden kolmion kellojaksossa), tai laatikkotestikäskyille on tuettu myös esim. radix8-puut joiden testit lasketaan kahdessa kellojaksossa (tiedetän että kykenee 4 laatikkotestiin kellojaksossa) sillon sillä seuraavalla kellojaksolla kun se säteenjäljitysyksikkö on täystyöllistetty voidaankin silläkin liukuhihnalla suorittaa normaalia shader-koodia jostain toisesta säikeestä. Eli suorittaessa kaksi kellojaksoa kestäviä "isompia operaatiota" pystytään muuta shader-koodia suorittamaan keskimäärin n. 75% suorituskyvyllä.

En kuitenkaan tiedä varmaksi, onko siellä mitään käskyjä joiden thoughput on enemmän kuin yksi kellojakso/käsky, RDNA2n käskykantamanuaali ei taida olla vielä pihalla? Kaikista aiemmista arkkitehtuureistaanhan AMD on julkaissut tarkat käskykantaspeksit(toisin kuin nVidia, joka ei julkaise mitään muuta kuin PTX-välikielen speksin), varmaan tulee tällekin pian.


Summa summarum: se säteenjäljitys ainoastaan

1) Estää tekemästä tekstuurihakuja yhtä aikaa. Enkä keksi, mihin BVH-puun rakennus tarvisi teksturointia; Siellä on kuitenkin normalit LSUt niiden lisäksi.
2) Maksimissaan puolittaa sen "muun shadereilla tehtävän laskennan" suorituskyvyn samaan aikaan tehtynä (jos se siis ei tee tekstuurihakuja). Ja usein hitti on ehkä selvästi vähemmän kuin puolitus.

edit:

Mutta: törmäystarkastusyksiköiden tehdessä törmäystarkastuksia shadereilla tyypillisesti ajetaan shader-koodia jolla tehdään siitä koko säteenjäljityshommasta muita osia kuin sitä törmäystarkastusta. Lasketaan sitä, mihin suuntaan pitäisi laukoa toisiosäteitä, lasketaan pikselin väriarvoa toisiosäteiden perusteella jne. Ja näissä kyllä tekstuurihakuja on kohtalaisesti, eli siinä tulee AMDllä hidastusta siitä että tekstuurihakuyksiskkö ja säteenjäljitysyksikkö jakaa rautaa.
 
Viimeksi muokattu:
Itse veikkaan että RT tulee olemaan muutenkin vaikea testattava. Aivan erilaisesta toteutuksesta johtuen voi olla että osaan peleistä tulee säteenseurantarutiinitkin erikseen molemmille korteille

Kun käytetään yleisiä rajapintoja eikä jotain nVidian suljettua rajapintaa, ei se toteutuksen ero vaikuta mitenkään oleellisesti siihen, miten softa sitä kutsuu, toteutuksen suurin ero on vain siinä, miten ne yksiköt on kytketty ja ryhmitelty piirillä.

Se, että (Ampere-sukupolvessa) nVidian kolmiotestien nopeus on puolet laatikkotesteistä ja AMDllä neljäsosa vaikuttaa hiukan siihen, millainen BVH-puu on kummallekin optimaalinen, mutta tämä rakennetaan kuitenkin ajurien toimesta. (AMD haluaa käyttää pienempiä lehtitason laatikoita jotta kolmioiden testit saadaan minimoitua, nVidia halunnee Amperella tunkea vähintään kaksi kolmiota joka lehtilaatikkoon jotta ei tule tilanteita joissa rt-ydin tekee vain yhtä kolmiotestiä kerrallaan).

Oleellinen laatuun ja nopeuten liittyvä kysymys on se, että montako sädettä/pikseli lauotaan, ja millaista kohinanvaimennusta käytetään, mutta käsittääkseni tämän toteutus on softan itsensä vastuulla eikä näyttiksen tai näyttisajurin.

Nykykorteilla säteenjälityksen nopeus ei siis käytännössä kunnolla riitä moneen primäärisäteeseen/pikseli, ja polunjäljitystä käyttäessä tämä johtaa triviaalitoteutuksella kohinaiseen kuvaan. Joten pitää tehdä jonkinlainen kohinanvaimennus jossa pikselin väliarvoa lasketaan sekä pikselin itsensä että
1) viereisten pikselien perusteella
2) saman pikselin edellisen framen väriarvon perusteella (vaatii sen, että etsitään se pikseli, joka oli samassa paikassa maailmaa edellisellä framella, tämä kuitenkin aiheuttaa viivettä esim. liikkuvien valojen ja varjojen tapauksessa)

Ja eri algoritmeja tähän kohinanvaimennukseen on paljon ja niille erilaisia konfigurointiparametreja. nVidia yritti jossain vaiheessa myös tuputtaa tensoriyksiköillään tehtävää neuroverkkopohjaista kohinanvaimennusta.

Teoriassa voisi tehdä sitäkin, että adaptiivisesti vaihtelee sitä sädemäärää/pikseli eri pikselien välillä sen mukaan
1) Onko pikseli "tärkeä", eli esim. keskelle kuvaa käytettäisiin enemmän säteitä/pikseli
2) Onko samasta pikselin paikasta olemassa väridataa edelliseltä framelta vai ei


Eli odotellaan sitä, koska pelien asetusruudut alkaa täyttyä optioilla joilla tähän liittyviä juttuja säädetään.
 
Viimeksi muokattu:
Ei ole kun nvidian korteilla se ei toimi vielä. Nvidia sais panostaa vähän enemmän pelitukeen.

Kohta joku tähän heittää että se on AMD:n vika, että tukea ei ole, mutta toisaalta nvidian sponssaamissa peleissä se on myös AMD:n vika että tukea ei löydy AMD:n korteille. :confused:
Siis kyllähän se ilmeisesti toimii muuttamalla rivin kaksi ini-tiedostossa. Kehittäjä on tietoisesti sulkenut ominaisuuden Nvidian korteilta syystä X.
 
Tämäkin se vanha legenda jaksaa edelleen elää vahvana, mutta kumpi näistä skenaarioista lienee todennäköisempi:
-ATi huijasi tarkoituksella ja kun se huomattiin löysi sopivasti heti seuraaviin ajureihin korjauksen, jolla laatu on sitä mitä pitääkin ilman että suorituskyky muuttui huijaukseen verrattuna
-Kyseessä oli bugi ajureissa, joka korjattiin seuraavassa julkaisussa
?

Vastaan viestiin samalla linkillä kuin joskus aikaisemminkin (ehkä muroaikoina):
 
Siis kyllähän se ilmeisesti toimii muuttamalla rivin kaksi ini-tiedostossa. Kehittäjä on tietoisesti sulkenut ominaisuuden Nvidian korteilta syystä X.
Joo ja joku oli jo testannut, että laittamalla päälle nvidialla tulee lisää fps, että nyt kyllä jotain legendaarista bullshittiä menossa. Amd on näköjään liittynyt nyt viimeistään pimeälle puolelle gimppaamaan partner pelejä kilpailijan hardwarelle. Toivottavasti tämä paska ei yleisty lisää....
 
Aivan noviisina näissä piireissä, mitkä asiat lukeutuvat edukseen AMD näyttiksissä ja mitkä taas sataa Nvidian laariin? Mitä kannattaa ottaa huomioon näyttistä valitessa?

Aikeissa hankkia tuoreimmasta linjastosta 3070/3080/6800xt, sittenkun ensi vuonna niitä on saatavilla... En aio ylikellottaa tms. Rauta koneeseen ja kovaa ajoa.
 
Aivan noviisina näissä piireissä, mitkä asiat lukeutuvat edukseen AMD näyttiksissä ja mitkä taas sataa Nvidian laariin? Mitä kannattaa ottaa huomioon näyttistä valitessa?

Aikeissa hankkia tuoreimmasta linjastosta 3070/3080/6800xt, sittenkun ensi vuonna niitä on saatavilla... En aio ylikellottaa tms. Rauta koneeseen ja kovaa ajoa.

Näillä näkymin AMD jos pelaat 1080/1440p resoluutiolla ja pääsääntöisesti pelejä ilman RT:tä.

Nvidia jos pelaat 4k pelejä ja haluat enemmän FPS RT-peleissä. Ehkä myös pieni etu VR:ssä.

Toisaalta, aivan sama jos ostat ensimmäisen mainitsemistasi korteista minkä saat käsiisi. Et pety.
 
Jos striimaaminen kiinnostaa kannattaa ehkä harkita tuota AMD:n hankkimista :asif:
 
Aivan noviisina näissä piireissä, mitkä asiat lukeutuvat edukseen AMD näyttiksissä ja mitkä taas sataa Nvidian laariin? Mitä kannattaa ottaa huomioon näyttistä valitessa?

Aikeissa hankkia tuoreimmasta linjastosta 3070/3080/6800xt, sittenkun ensi vuonna niitä on saatavilla... En aio ylikellottaa tms. Rauta koneeseen ja kovaa ajoa.

AMD:lla enemmän näyttömuistia, paremmat frametimet ja ovat hellempiä virtalähteille (pienemmät piikit). Nvidialla parempi softapaketti rtx voice, streamaus, dlss ja säteenseuranta on tällä hetkellä parempi (vain 3080 ja ylöspäin).

Frametimen voi ajatella vaikka näin, jos molemmat vetää avg täsmälleen 120fps, niin toinen vetää vaikka 90-150 ja toinen 110-130 välillä. Ei ole ongelma, kun on synkronoiva näyttö ja matkaa 60fps lukemaan.

Näyttömuisti on vähän kysymysmerkki, computerbasen testeissä on muutamissa peleissä saatu jo rajat paukkumaan. Ei näy avg. fps, mutta codissa tuli nvidialla teksturepopuppia horisonttiin mitä AMD:lla/3090:lla ei ollut isoilla resoilla ja wildlandissa nvidian frametimet heitti paljon enemmän 3080:lla mitä 3090/6800xt. Sanoisin, ettei tule olemaan ongelma, ellet pelaa 4K:lla. Silläkin voi tiputtaa tekstuureja pykälän alaspäin.

Nvidialla on kovemma resurssit, joten se saa lobattua/tuettua omaa säteenseurantapainosta ja DLSS:ää paremmin AAA peleihin, eli se on ihan selkeä valtti. Eikä AMD:n super resolution (niiden versio DLSS:tä) ole vielä valmis. Se voi olla hyvä, tai sitten aika meeh. Ajuripuolesta on paha sanoa, AMD on panostanut siihen aika tavalla viime aikoina. Niissä ei välttättä ole enää eroa.

Saatavuus on ihan kauhea kummallakin.
 
Aivan noviisina näissä piireissä, mitkä asiat lukeutuvat edukseen AMD näyttiksissä ja mitkä taas sataa Nvidian laariin? Mitä kannattaa ottaa huomioon näyttistä valitessa?

Aikeissa hankkia tuoreimmasta linjastosta 3070/3080/6800xt, sittenkun ensi vuonna niitä on saatavilla... En aio ylikellottaa tms. Rauta koneeseen ja kovaa ajoa.
6800-sarjan etuna se, että huomenna alkaa AIB-korttien (Asus, MSI, Powercolor jne.) myynti eli jonkunlaiset mahikset saada kortti koneeseen jo täksi viikonlopuksi.

3070-kortteja oli tosin myöskin eilen hyvän aikaa hyllyssä Jimmsillä, että niitäkin kyllä saattaa saada jo ennen ensi vuotta.

edit: itseasiassa siellä on muutama 3070 hyllyssä Jimssillä tälläkin hetkellä.
 
Viimeksi muokattu:
Kiitos vastauksista. Ajatuksissa olisi ostaa 1440p näyttö ja puolet peleistä pelata sillä ja puolet 4k telkkarilla.
Vaikuttaisi että Nvidia olisi ray tracingillä ja dlss:llä parempi sijoitus tulevaisuuteen? Jos katsotaan 3-5 vuoden päähän


Mitä pitäisi sitten ottaa huomioon ostaessa? Kaikista malleista tuntuu olevan tuhat erilaista versiota: tuf, evga, msi....
 
Vastaan viestiin samalla linkillä kuin joskus aikaisemminkin (ehkä muroaikoina):
Ja minä luultavasti samaan tapaan kuin ennenkin, eli ongelma oli korjattu seuraavissa ajureissa ilman suorituskykytappiota.
 
Onko muuten näyttiksen valinnassa väliä mikä prossu tulee käyttöön? Vaikuttaisi AMD:n prosessori olevan voittajan valinta niin toimisiko amd+amd paremmin kuin amd+nvidia?
 
Nvidialla on kovemma resurssit, joten se saa lobattua/tuettua omaa säteenseurantapainosta ja DLSS:ää paremmin AAA peleihin, eli se on ihan selkeä valtti. Eikä AMD:n super resolution (niiden versio DLSS:tä) ole vielä valmis. Se voi olla hyvä, tai sitten aika meeh. Ajuripuolesta on paha sanoa, AMD on panostanut siihen aika tavalla viime aikoina. Niissä ei välttättä ole enää eroa.
AMD ei tosin tiettävästi ole yksin tuossa veneessä omine lompakoineen, vaan ainakin toinen konsolivalmistaja (Microsoft) on tiettävästi mukana kehittämässä tuota ja taatusti lobbaa tukea Xboxin puolelle. AMD:n Super Resolution tulee olemaan tuttuun tapaan myös avoin.
Onko muuten näyttiksen valinnassa väliä mikä prossu tulee käyttöön? Vaikuttaisi AMD:n prosessori olevan voittajan valinta niin toimisiko amd+amd paremmin kuin amd+nvidia?
Tällä hetkellä AMD+AMD-kombolla, jos ne on Ryzen 5000 + Radeon RX 6000, saa käyttöön SAM:n, mistä on hyötyä pelistä riippuen muutamia prosentteja, mutta NVIDIA aikoo saada saman PCIe:n Resizable BAR -tuen käyttöön myös omilla näyttiksillään, jolloin tuo ero katoaisi. Muuten ei ole merkitystä vaan AMD+NVIDIA toimii siinä missä AMD+AMD
 
Ja minä luultavasti samaan tapaan kuin ennenkin, eli ongelma oli korjattu seuraavissa ajureissa ilman suorituskykytappiota.

Ja jos en väärin muista niin Nvidia tuohon aikaan teki "pienen" optimoinnin ajureihinsa koskien silloista 3dmarkia (oisko ollut 3dmark03???). Eli kortti jätti rendaamatta taustalta kaiken kun ATI:n kortit rendas kaiken normaalisti.
Tämä oli sitä aikaa kun ATI laitto Nvidian koville ja Nvidia otti kaikki keinot käyttöön että pärjäsi jollain tavoin.

Eikä ne "optimoinnit" koskeneet ainoastaan 3dmarkia vaan suosituissa benchmark peleissä myös kikkailivat minkä kerkesivät ja jäivät kiinni. Kun porukka alko ihmettelemään kun Geforcen tuottama kuvanlaatu on paljon surkeampi kuin Radeoneitten.
 
Kiitos vastauksista. Ajatuksissa olisi ostaa 1440p näyttö ja puolet peleistä pelata sillä ja puolet 4k telkkarilla.
Vaikuttaisi että Nvidia olisi ray tracingillä ja dlss:llä parempi sijoitus tulevaisuuteen? Jos katsotaan 3-5 vuoden päähän


Mitä pitäisi sitten ottaa huomioon ostaessa? Kaikista malleista tuntuu olevan tuhat erilaista versiota: tuf, evga, msi....

3080/3090 on varmin paketti 3-5 vuoden aikajänteellä. Ja jos ei ole kiire, niin 3080:nkin voi kevättalvesta jostain saada. 3070:n en usko jaksavan noin pitkään ilman merkittäviä kompromisseja, ja AMD:n 6000-sarjaan liittyy isoja epävarmuustekijöitä RT/SR-sektorilla.
 

Statistiikka

Viestiketjuista
297 496
Viestejä
5 070 236
Jäsenet
81 336
Uusin jäsen
jamero

Hinta.fi

Back
Ylös Bottom