Virallinen: NVIDIA vs AMD (vs Intel) keskustelu- ja väittelyketju

  • Keskustelun aloittaja Keskustelun aloittaja Sampsa
  • Aloitettu Aloitettu
Kyllä se isompi ero 3080 vs 3090 on kun 10% 4k. Sen takia mainitsin mieluiten ylikellotettu 3090, että erot olisi oikeasti todella huomattavia. 3090 strix 480w power limitillä vs joku perus 3080. Vaikkapa tuo sun zotac. Sitä kun vertaa kellotettuun 3090 strixiin niin kyllä voidaan varmaan puhua 20%+ eroista. No en mä nyt tiedä onko yläkanttiin lukuja. 2080 ti perus 4k 60 fps kortti. 3080 1440p beast. 4k 3090 (mieluiten kellotettu) kun asetukset optimoitu peli kun peli 100 fps vaikka RTX ON. Niin ja 2080 ti strix vs 3090 strix noin 50% ero. DLSS päällä tarkoitin. Mutta sehän on nvidian etu.
Kyllä nyt on aika pahasti hukassa se todellisuus, ei tuohon juuri muuta voi todeta (ps. edes sillä 480W power limitillä 3090 Strix OC:sta ei ole saatu revikoissa (Guru3D, TPU) edes 10% parannusta pelisuorituskykyyn vrt referenssi-3090).

ps. RX 6800 XT on myös NVIDIA-optimoiduissa (koska silloin ei muuta PC-RT-rautaa ollut) RT-peleissä näyttänyt olevan usein 2080 Ti:tä nopeampi.

Mikään kortti ei selviä 4K säteenseurannassa juuri missään pelissä oikein mitenkään. DLSS erikseen, mutta silloin renderöintiresoluutio tapaa olla jossain 2560x1440-3200x1800 haarukassa.
Taitaa nuo 4K DLSS -tilat olla pääsääntöisesti max 1440 ja usein alle, liekö yhdessäkään pelissä yli?

Yksi ensimmäisistä RT-peleistä mikä on suunniteltu muulle kuin NVIDIAn raudalle on "viimeinen oljenkorsi"? :confused:
Jos homma menee loppujenlopuksi siihen, että RT-suorituskyvyssä pidemmän korren vetää aina kortti, jonka firma sponssasi peliä, niin sitten jatkossa vertaillaan sponssattujen pelien määriä noiden keskinäisen paremmuuden määrittelemiseksi. Taitaa NVidialta löytyä pari pennosta enemmän tuollaisiin hupeihin.
Voi löytyä pari pennosta enemmän kuin AMD:lta, mutta unohdit sen että siellä on myös Sony ja Microsoft pelissä AMD:n raudalla ;)
 
Tämä taas herättää hiukan kysymysmerkkejä siitä että onko siellä kuitenkin DXR:n lisäksi jotain nvidian omaa kiisseliä.
Denoiser ei käsittääkseni ole DXR kamaa, joten kai tuo säteenseuranta aina vaatii vähän muutakin kiisseliä kuin pelkkää DXR koodia.

Ehkä denoiser on joskus ihan standardia DX12 koodia, jolloin toimisi automaattisesti kaikilla DX12 raudoilla, en tiedä, mutta esim. Watch Dogsissa oli joku Nvidian oma uusi denoiser ja sitä varten erillinen .dll tiedosto pelin asennuskansiossa. Voi olla että samantyyppinen ratkaisu käytössä Cyberpunkissa.

Toki aivan perseestä kuluttajille, jos tässä tuen viivästymisessä on joku AMD vs Nvidian keskinäinen kilvoittelu takana eikä oikeasti tekniset syyt.
 
Viimeksi muokattu:
Ja kukaan ei varmaankaan toivo että tällaiseen kisaan ryhdyttäisiin että kuka maksaa eniten pelifirmalle?

Ei toki, mutta se voi olla karu todellisuus.

CP ei ilmeisesti jullkkarissa edes tue AMD:n korteilla RT:tä vaan tuki on tulossa myöhemmin. Tämä taas herättää hiukan kysymysmerkkejä siitä että onko siellä kuitenkin DXR:n lisäksi jotain nvidian omaa kiisseliä.

Ehkä. Tai ehkä eivät vaan saaneet AMD:n ajuria toimimaan ja tuki enabloidaan jos se joskus alkaa toimimaan. Muuten tulee vaan turhaa ruuhkaa tekniseen tukeen. Onhan noita fiboja kai jo raportoitu olemassaolevistakin peleistä.

Ei mun hyväntekeväisyys taivu ostamaan rojua vain tukeakseni jotain altavastaajafirmaa. Jos NVidialla RT pyörii jatkossakin keskimäärin merkittävästi paremmin, niin ei siihen oikein vaikuta se, miten siihen paremmuuteen on päästy. Vaikka näpäyttäisinkin NVidiaa ostamalla AMD:tä protestina, niin se on hiekanjyvä saharassa. Mikään ei sillä muutu. Sitten on hitaampi kortti koneessa ja "hyvä mieli" kun vähän moraalisäteili.
 
Taitaa nuo 4K DLSS -tilat olla pääsääntöisesti max 1440 ja usein alle, liekö yhdessäkään pelissä yli?

Hankala löytää noita lukuja. Olen jostain ollut siinä käsityksessä, että performance 1080p, balanced 1440p, quality 1800p. Jos quality onkin 1440p, niin olen entistä vaikuttuneempi. Ehkä enemmänkin kuitenkin sen takia, että TAA-skaalauksella jälki on vain verrannollisesti huonoa. Ei kuitenkaan ole järkeviä vaihtoehtoja DLSS:n lisäksi. FXAA ja SMAA ovat aivan riittämättömiä antialiasointiin.

Voi löytyä pari pennosta enemmän kuin AMD:lta, mutta unohdit sen että siellä on myös Sony ja Microsoft pelissä AMD:n raudalla ;)

Tarvinneeko Sonyn ja Mikkisoftan sponssata RT:tä mihinkään, kun konsoleissa on se yksi näytönohjain joka tapauksessa. Ainakin Watch Dogsissa RT-implementointi viimeisimmällä konsolisukupolvella on aika nerffattu PC-versioon verrattuna. Jos RT:n lähitulevaisuus AMD:n rajoitteiden takia on tuo, niin harmi.
 
Eikö tähän ole pelinkehittäjällä säätövaraa?
Ei ilmeisesti muuten kuin lukita noita pois. Control tähän poikkeus, jossa käyttäjä voi itse laittaa conffitiedostoon minkä tahansa resoluution haluaakin ja hyvin toimii aina 93% asti jonka jälkeen kuva alkaa tuottamaan virheitä. Eli mahdollisesti ihan typeriä keinotekoisia rajoitteita nämä.

Unohtui edellisestä se uusi Ultra perfomance, joka on 33%. Nvidian UE4 DLSS branchin dokumentaatiossa esiintyy myös "ultra quality" mode, mutta se ei ole ainakaan vielä toiminnassa eikä näy viitteitä siitä mikä reso tuo olisi.
 
Unohtui edellisestä se uusi Ultra perfomance, joka on 33%. Nvidian UE4 DLSS branchin dokumentaatiossa esiintyy myös "ultra quality" mode, mutta se ei ole ainakaan vielä toiminnassa eikä näy viitteitä siitä mikä reso tuo olisi.
Ultra Quality voisi olla se alun perin jo luvattu DLSS2X eli ainoa mikä ei ole automaagisesti kuvanhuononnustekniikka, renderöintireso on DLSS2X:llä natiiviresoluutio (eli siis se valittu resoluutio millä kuva tulee näytölle, siinä ei skaalata kuvaa)
 
Ultra Quality voisi olla se alun perin jo luvattu DLSS2X eli ainoa mikä ei ole automaagisesti kuvanhuononnustekniikka, renderöintireso on DLSS2X:llä natiiviresoluutio (eli siis se valittu resoluutio millä kuva tulee näytölle, siinä ei skaalata kuvaa)
Ehkä, vähän kyllä Controlin tapaus rikkoontuvasta kuvasta liian korkealla input resolla herättää epäilyksiä siitä onko DLSS 2.0 ylipäätään kykeneväinen tuottamaan 1:1 kuvaa.

Control on tosin vähän outolintu DLSS 2.x maailmassa. Muissa peleissä voi vaihdella nvngx_dlss.dll tiedostoa keskenään, mutta Controlissa DLSS toimii kunnolla vain pelin omalla .dll tiedostolla.
 
Kyllä nyt on aika pahasti hukassa se todellisuus, ei tuohon juuri muuta voi todeta (ps. edes sillä 480W power limitillä 3090 Strix OC:sta ei ole saatu revikoissa (Guru3D, TPU) edes 10% parannusta pelisuorituskykyyn vrt referenssi-3090).

ps. RX 6800 XT on myös NVIDIA-optimoiduissa (koska silloin ei muuta PC-RT-rautaa ollut) RT-peleissä näyttänyt olevan usein 2080 Ti:tä nopeampi.


Taitaa nuo 4K DLSS -tilat olla pääsääntöisesti max 1440 ja usein alle, liekö yhdessäkään pelissä yli?


Yksi ensimmäisistä RT-peleistä mikä on suunniteltu muulle kuin NVIDIAn raudalle on "viimeinen oljenkorsi"? :confused:

Voi löytyä pari pennosta enemmän kuin AMD:lta, mutta unohdit sen että siellä on myös Sony ja Microsoft pelissä AMD:n raudalla ;)
Tänään testattu:
tombraider3090.png

Sampsan testissä vaikkapa tuffi jne:
sampsa3090.png

Onhan nyt noissa eroa enemmän kuin 10%. Sitten testattu tänään myös huvikseen ylikellotettu 2080 ti strix, mutta siitä ei kuvaa. Keskimääräinen fps oli 69. Kaikki testit ajettu samoilla TAA, highest asetuksilla. Prossuna oli 9900 5 ghz nopeudella.
Niin ja rtx testi tehty myös optimaalisilla asetuksilla. Ei nyt ihan 100 fps mutta melkein:
tombraiderrtxon.png

Edit: rtx testissä dlss päällä ja rtx high. 3090 strix oc 480w vs 3090 tuf oc: 17% parempi avg fps.
 
Viimeksi muokattu:
Tarvinneeko Sonyn ja Mikkisoftan sponssata RT:tä mihinkään, kun konsoleissa on se yksi näytönohjain joka tapauksessa. Ainakin Watch Dogsissa RT-implementointi viimeisimmällä konsolisukupolvella on aika nerffattu PC-versioon verrattuna. Jos RT:n lähitulevaisuus AMD:n rajoitteiden takia on tuo, niin harmi.

Niin voihan kyynel.

Sulla tuntuu tunturi taas keulivan aika rankasti. Toki sinne konsoleihin olis voitu heittää paljon kovempaakin rautaa, mutta sille olisi tullut paljon suurempi hintalappu. Montahan konsolia menisi kaupaksi jos hinta olisi päälle tonnin? Monessa perheessä jo nykyinen hinta hirvittää kun pennut vinkuu uutta konsolia.
 
Niin voihan kyynel.

Ei mua konsolit kiinnostaneet muuten kuin siltä kantilta, että jos AMD:ssä ei riitä potku parempaan PC-puolellakaan kun FPS-vaatimukset on vähintään tuplat, niin harmi jos se PC-puolen RT jätettäisiin konsolitasolle, jotta AMD pysyisi kelkassa. Mutta eiköhän PC-puolella nosteta konsoleihin verrrattuna asetuksia myös RT:n osalta, ihan kuten muidenkin grafiikka-asetusten osalta on tapana. En pelkää sen puolesta, vaan enemmänkin että AMD:t hyydähtää kun sille tielle lähdetään.
 
Ei mua konsolit kiinnostaneet muuten kuin siltä kantilta, että jos AMD:ssä ei riitä potku parempaan PC-puolellakaan kun FPS-vaatimukset on vähintään tuplat, niin harmi jos se PC-puolen RT jätettäisiin konsolitasolle, jotta AMD pysyisi kelkassa. Mutta eiköhän PC-puolella nosteta konsoleihin verrrattuna asetuksia myös RT:n osalta, ihan kuten muidenkin grafiikka-asetusten osalta on tapana. En pelkää sen puolesta, vaan enemmänkin että AMD:t hyydähtää kun sille tielle lähdetään.

Edelleen varsin aikaista alkaa paukutella henkseleitä että AMD hyytyy kun on vasta kourallinen RT pelejä ja lähes kaikki niistä on nvidia edellä toteutettuja kun silloin ei vielä edes ollut AMD:ltä RT rautaa ulkona.
Edelleen katso se Dirt 5 tulos, ehkä se näyttää vähän suuntaa. Todennäköisesti neutraaleissa toteutuksissa AMD on jäljessä, mutta tuskin kuitenkaan jotain kolminkertaista eroa on kuten nyt jossain räpellyksissä on.
 
Ehkä, vähän kyllä Controlin tapaus rikkoontuvasta kuvasta liian korkealla input resolla herättää epäilyksiä siitä onko DLSS 2.0 ylipäätään kykeneväinen tuottamaan 1:1 kuvaa.
On täysin kykeneväinen. Siinä ei ole algoritmitasolla mitään resoluutioon liittyviä rajotteita. 1:1 tasolla se vastaa peristeisempiä TAA toteutuksia samplausmäärältään.
 
Tää 6000-sarjan ray tracing-keskustelu alkaa jo muistuttamaan Vegaa ja sen luvattuja superduperominaisuuksia.

"Kyl sieltä kohta tulee se jeesusajuri joka korjaa kaiken, odota vaan!"
 
Control on mulla ainoa peli, jossa on säteenseuranta ja sitä nyt olen testaillut tuolla 6800XT:llä on/off, enkä kyllä vieläkään osaa sanoa onko siitä säteenseurannasta mitään iloa.
 
Jaahas,

Vuosisadan peli tulossa julkistuukseen ja AMD:llä siitä ei pääse nauttimaan säteenseurauksen ja tekoälykiihdytyksen avulla. On kyllä täysi farssi jos joku tuon AMD hypetyksen nieli ja meni tätä peliä varten tuollaisen välttävän RADEON ohjaimen koneeseen hommaamaan.
 
Jaahas,

Vuosisadan peli tulossa julkistuukseen ja AMD:llä siitä ei pääse nauttimaan säteenseurauksen ja tekoälykiihdytyksen avulla. On kyllä täysi farssi jos joku tuon AMD hypetyksen nieli ja meni tätä peliä varten tuollaisen välttävän RADEON ohjaimen koneeseen hommaamaan.
Vai vuosisadan peli :asif:
Kolmannen osapuolen pelinkehittäjä failaa rajoittamalla tukea vaikka väittää käyttävänsä vain standardia DXR:ää ja se on jotenkin AMD:n vika?
Mitään tekoälykiihdytystähän tuossa pelissä ei ole.
 
Vai vuosisadan peli :asif:
Kolmannen osapuolen pelinkehittäjä failaa rajoittamalla tukea vaikka väittää käyttävänsä vain standardia DXR:ää ja se on jotenkin AMD:n vika?
Mitään tekoälykiihdytystähän tuossa pelissä ei ole.
No on se suurin julkasu sit 2018 vuoden RDR2:en, ihan sama mitä oot ite asiasta sinällänsä mieltä :asif:

Siitä paha sanoa miksei AMD:n korteilla saada RT ominaisuuksia päälle. Suurella todennäkösyydellä nVidian kanssa on tosta diiliä päällä, eikös tuo julkasussa heti tule GeForce Nowiin yms. Eli voi olla rajotettu ihan vaan rajottamisen ilosta, ei niinkään sen takia etteikö se toimis.
 
Vai vuosisadan peli :asif:
Kolmannen osapuolen pelinkehittäjä failaa rajoittamalla tukea vaikka väittää käyttävänsä vain standardia DXR:ää ja se on jotenkin AMD:n vika?
Mitään tekoälykiihdytystähän tuossa pelissä ei ole.

Ei se varmaan sitä pelaajaa/kuluttajaa kiinnosta tai lämmitä kenen vika se on, Osti hypetyksestä johtuen kuitenkin näytönohjaimen joka todellisuudessa tarjoaa vain välttävää 2000-luvun alkupuolen graafista nautintoa.

Ja kyllä Nvidialla on tekoälykiihdytys, joka auttaa varsinpaljon esim. 4k resoluutiolla kun kaikki karkkiherkut on tapissa.
 
Ei se varmaan sitä pelaajaa/kuluttajaa kiinnosta tai lämmitä kenen vika se on, Osti hypetyksestä johtuen kuitenkin näytönohjaimen joka todellisuudessa tarjoaa vain välttävää 2000-luvun alkupuolen graafista nautintoa.

Ja kyllä Nvidialla on tekoälykiihdytys, joka auttaa varsinpaljon esim. 4k resoluutiolla kun kaikki karkkiherkut on tapissa.
Ei ole tekoälykiihdytystä.
Siinä on tensoriytimiä, jotka laskevat nopeasti tietyntyyppisiä matriisilaskuja. DLSS:ssä käytetään esiopetettua neuroverkkoa referenssinä, kun skaalataan pelin muutaman matalan resoluution framen tietojen pohjalta yhtä isomman resoluution ruutua. Tämä hyödyntää tensoriytimiä, mutta ei se mitään "tekoälykiihdytystä" ole.
Lisäksi jos sinulla on DLSS käytössä, se ei ole 4K vaan selvästi matalampi resoluutio, mikä on skaalattu 4K:lle.

Vähän enemmän nyt yritystä, tai tuo rupeaa vaikuttamaan pelkältä trollailulta tietämättömyyden sijasta.
 
Toinen testi:
tombraider30902.png

Ton enempää tosin ei saa ilmalla puristettua tehoa irti rtx 3090 kortista, mutta nyt ero on 19.5 % tuohon Sampsan 3090 tuf ochen. Että kyllä se vaan on aikalailla 2x (19.5 % vs edes 10 %) fps lisäystä siihen verrattuna mitä sanoit. @Kaotik
Jännä nähdä miten 6900xt sitten pärjää kyseiselle kortille.
 
Ei se varmaan sitä pelaajaa/kuluttajaa kiinnosta tai lämmitä kenen vika se on, Osti hypetyksestä johtuen kuitenkin näytönohjaimen joka todellisuudessa tarjoaa vain välttävää 2000-luvun alkupuolen graafista nautintoa.

Ja kyllä Nvidialla on tekoälykiihdytys, joka auttaa varsinpaljon esim. 4k resoluutiolla kun kaikki karkkiherkut on tapissa.
Sovitaanko sitten niin, että jos haluaa pelata cyberpunkkia (jossa suojatiet on tehty peileistä), niin kannattaa ostaa nvidia ja kaikkeen muuhun AMD?
 
Ei ole tekoälykiihdytystä.
Siinä on tensoriytimiä, jotka laskevat nopeasti tietyntyyppisiä matriisilaskuja. DLSS:ssä käytetään esiopetettua neuroverkkoa referenssinä, kun skaalataan pelin muutaman matalan resoluution framen tietojen pohjalta yhtä isomman resoluution ruutua. Tämä hyödyntää tensoriytimiä, mutta ei se mitään "tekoälykiihdytystä" ole.
Lisäksi jos sinulla on DLSS käytössä, se ei ole 4K vaan selvästi matalampi resoluutio, mikä on skaalattu 4K:lle.

Vähän enemmän nyt yritystä, tai tuo rupeaa vaikuttamaan pelkältä trollailulta tietämättömyyden sijasta.

1605982777707.png


Nvidian sivuilta tuon luin, kun tuli sähköpostiin mainos Cyberpunk 2077 peliin liittyen. Ihan tuolla termillä he siitä puhuvat.
 
  • Tykkää
Reactions: aop
1605982777707.png


Nvidian sivuilta tuon luin, kun tuli sähköpostiin mainos Cyberpunk 2077 peliin liittyen. Ihan tuolla termillä he siitä puhuvat.
Kaikkiin mainoksiin ei kannata uskoa sokeasti.
Tensoriyksiköt soveltuvat toki erityisen hyvin tekoälytehtäviin liittyviin laskuihin, mutta aika löyhin perustein mennään IMO jos esiopetetun neuroverkon käyttö referenssinä skaalausoperaatiossa on "tekoälykiihdytystä".
Ja kuten jo todettua, 4K DLSS:llä ei ole 4K:ta lähelläkään, vaan skaalattua matalamman resoluution kuvaa.
 
Ei ole tekoälykiihdytystä.
Siinä on tensoriytimiä, jotka laskevat nopeasti tietyntyyppisiä matriisilaskuja. DLSS:ssä käytetään esiopetettua neuroverkkoa referenssinä, kun skaalataan pelin muutaman matalan resoluution framen tietojen pohjalta yhtä isomman resoluution ruutua. Tämä hyödyntää tensoriytimiä, mutta ei se mitään "tekoälykiihdytystä" ole.
Lisäksi jos sinulla on DLSS käytössä, se ei ole 4K vaan selvästi matalampi resoluutio, mikä on skaalattu 4K:lle.

Vähän enemmän nyt yritystä, tai tuo rupeaa vaikuttamaan pelkältä trollailulta tietämättömyyden sijasta.
Enemmän tuo sun touhus alkaa vaikuttaa trollaamiselta ja tietämättömyydeltä, jos nyt ei tahalliselta väärinymmärtämiseltä.

Jos DLSS 2.0 käyttää neuroverkkoa käyttäjän tietokoneella tapahtuvaan kuvan rekonstruktioon, niin aika vaikea tuota on minään muuna kuin ns. tekoälykiihdytyksenä pitää.
 
Viimeksi muokattu:
Toinen testi:
tombraider30902.png

Ton enempää tosin ei saa ilmalla puristettua tehoa irti rtx 3090 kortista, mutta nyt ero on 19.5 % tuohon Sampsan 3090 tuf ochen. Että kyllä se vaan on aikalailla 2x (19.5 % vs edes 10 %) fps lisäystä siihen verrattuna mitä sanoit. @Kaotik
Jännä nähdä miten 6900xt sitten pärjää kyseiselle kortille.
@Sampsa ei taida käyttää pelin sisäänrakennettua benchmarkkia?
 
Ton enempää tosin ei saa ilmalla puristettua tehoa irti rtx 3090 kortista, mutta nyt ero on 19.5 % tuohon Sampsan 3090 tuf ochen. Että kyllä se vaan on aikalailla 2x (19.5 % vs edes 10 %) fps lisäystä siihen verrattuna mitä sanoit. @Kaotik
Jännä nähdä miten 6900xt sitten pärjää kyseiselle kortille.
@Sampsa ei taida käyttää pelin sisäänrakennettua benchmarkkia?
Ei käytä ei, eli tulos ei ole millään tasolla vertailukelpoinen.
 
Oliko sulla jotain kommentoitavaa noista?

Kyllä. Kun grafiikka-asetuksia lasketaan sopivasti AMD:n eduksi, niin tilanne on tuo. ;)
 
Oliko sulla jotain kommentoitavaa noista?

Kyllä. Kun grafiikka-asetuksia lasketaan sopivasti AMD:n eduksi, niin tilanne on tuo. ;)

Kannattaa vaikka googlata geometrinen keskiarvo ennen kuin kommentoi. Ja alkuperäinen kuvien lisääjä voisi kirjoittaa jotain eikä vain lätkiä kuvia vailla mitään pointtia.
 
Oliko sulla jotain kommentoitavaa noista?

Kyllä. Kun grafiikka-asetuksia lasketaan sopivasti AMD:n eduksi, niin tilanne on tuo. ;)
Täydennystä aiempaan kommenttiini, eli jos haluaa pelata peileistä tehtyjen suojateiden cyberpunkkia niin valitse nvidia, kaikkeen muuhun AMD.
 


Miksi sitten tuossa videossa käyttää jos ei muuten muka? Saa muuten saman 104 fps tulokseksi.

Koska tuo ei ole meidän testiartikkeli.

Lainaten testiartikkelia
Näytönohjainten testimetodit
io-techin näytönohjaintesteissä suorituskykyä mitataan pelaamalla peliä 60 sekunnin ajan ja OCAT-sovelluksen avulla mitataan keskimääräinen ruudunpäivitysnopeus ja minimi, kun 1 % huonoimpia ruutuja jätetään huomioimatta. Kyseessä on tarkemmin ottaen 1. persentiili, kun ruutujen renderöintiajat on muutettu ruudunpäivitysnopeudeksi eli ruutua sekunnissa (FPS, Frame Per Second) ja järjestetty paremmuusjärjestykseen. Tavoitteena on jättää huomioimatta muutama yksittäinen muita hitaammin renderöity ruutu, joka on mahdollisesti poikkeustapaus.
Uusimmassa artikkelissa oli tähän kaksi poikkeusta, joista mainittiin erikseen ja jotka olivat mukana vain 4K-resoluutiolla.
edit: ja ei siinä RT:kään ole sen enempää päällä.
 
Ei se varmaan sitä pelaajaa/kuluttajaa kiinnosta tai lämmitä kenen vika se on, Osti hypetyksestä johtuen kuitenkin näytönohjaimen joka todellisuudessa tarjoaa vain välttävää 2000-luvun alkupuolen graafista nautintoa.

Kiinnostaa paljonkin kuluttajaa. Jos tää nvidian tahallinen voitelu pelintekijän suuntaan niin siinä on taas yksi sulka lisää miksi inhota tuota putiikkia joka ei muuta tee kuin livauttaa kuluttajaa kakkoseen joka ikisessä tilanteessa missä vaan saumaa on ja vaikka ei aina olisikaan niin silti vedellään vaikka kuivana.
Mutta jos peilipelien pelaaminen on se juttu, niin kai sitä nvidian korteilla välttävästi pystyy peilipelejä pelaamaan.

Kuten jo aiemmin olen sanonut niin RT suorituskyky on edelleen niin tuhnua että eipä sillä ole vielä merkitystä. Kattellaan sitten seuraavassa genissä hommaa uusiksi josko saataisiin se 2-3 kertaa tehoa lisää.
Odotin että nvidia olisi amperessa tuonut 2-3 kertaa RT tehoa lisää jonka olisi vaatinut jotta RT alkaisi olla sellainen kova juttu, mutta tuhnuksi jäi. Harmi.
 
Kiinnostaa paljonkin kuluttajaa. Jos tää nvidian tahallinen voitelu pelintekijän suuntaan niin siinä on taas yksi sulka lisää miksi inhota tuota putiikkia joka ei muuta tee kuin livauttaa kuluttajaa kakkoseen joka ikisessä tilanteessa missä vaan saumaa on ja vaikka ei aina olisikaan niin silti vedellään vaikka kuivana.
Mutta jos peilipelien pelaaminen on se juttu, niin kai sitä nvidian korteilla välttävästi pystyy peilipelejä pelaamaan.

Kuten jo aiemmin olen sanonut niin RT suorituskyky on edelleen niin tuhnua että eipä sillä ole vielä merkitystä. Kattellaan sitten seuraavassa genissä hommaa uusiksi josko saataisiin se 2-3 kertaa tehoa lisää.
Odotin että nvidia olisi amperessa tuonut 2-3 kertaa RT tehoa lisää jonka olisi vaatinut jotta RT alkaisi olla sellainen kova juttu, mutta tuhnuksi jäi. Harmi.

Mutta kun se nvidia toi 2x lisää RT tehoa... ;)
 
Se minnuu hieman ihmetyttää, että missään ei kerrota - saati testata - kumpi kortti dekoodaa vikkelämmin H.265 8K VR-videoita kovilla FPS:illä? Ja onko muistin määrällä väliä?

Ihan olennainen jokamiehen kovan näytönohjaimen hankintaperuste, mutta ei kun vaan jotain enkoodausta taikka Photoshoppia. Ei se VHS:kään Betaa kuvanlaadullaan voittanut.
 
Mahtaako se enää pitää paikkansa mitä pelinkehittäjät on vikoneet ennen että siinä missä nvidia tarjoaa pienillekin pelitaloille lainarautaa ja apua pelien koodailuun ja nvidian fiitsöreiden käyttöön amd:llä taas tuntuu olevan vaikea löytää edes yhteystietoa semmoiseen tyyppiin joka voisi auttaa.

Että tavallaan ainakin ennen pelien parempi nvidia tuki ei ole kyllä minusta mitään epäreiluutta. Sitä saa mitä tilaa.
 
Täydennystä aiempaan kommenttiini, eli jos haluaa pelata peileistä tehtyjen suojateiden cyberpunkkia niin valitse nvidia, kaikkeen muuhun AMD.

Jos otetaan kunnon otanta pelejä, kuten TPU ym. niin 1080p reso on ainoa, missä 6800xt on edellä 3090:aa, ja vain jotain pari prossaa nopeampi, kun 3080 1440p resolla. 4k resolla etu sitten onkin jo selkeästi nvidian puolella.
 
Jos otetaan kunnon otanta pelejä, kuten TPU ym. niin 1080p reso on ainoa, missä 6800xt on edellä 3090:aa, ja vain jotain pari prossaa nopeampi, kun 3080 1440p resolla. 4k resolla etu sitten onkin jo selkeästi nvidian puolella.
Oliko toi nyt se testi, jonka ne itsekin myönsivät kämmänneensä?
 
Eiköhän nuo ole ihan maksimiasetuksilla ajettu...

Höpsis, kaikissa RT:tä tukevissa peleissä oli RT pois päältä. Se ei ole mikään "maksimiasetukset". Jos NVidia hyytyisi vaikka maksimi volumetrisillä pilvillä suhteessa enemmän AMD:hen, niin otettaisiinko silloin pilviasetukset pienemmälle, että NVidia näyttäisi paremmalta? No ei tietenkään. Tai laskettaisiinko NVidialla tekstuuriasetusta jos siltä tekstuurimuisti loppuu ja suorituskyky romahtaa, jotta NVidia näyttäisi paremmalta? No ei. Asetukset tappiin kun testataan high-end vehkeitä. Niin ei valitettavasti ole tässä tehty. Tai on parin pelin kohdalla, muttei kaikkien, eikä niitä laskettu keskiarvoihin.

Kannattaa vaikka googlata geometrinen keskiarvo ennen kuin kommentoi.

Ei liity millään tavalla asiaan.
 
Kiinnostaa paljonkin kuluttajaa. Jos tää nvidian tahallinen voitelu pelintekijän suuntaan niin siinä on taas yksi sulka lisää miksi inhota tuota putiikkia joka ei muuta tee kuin livauttaa kuluttajaa kakkoseen joka ikisessä tilanteessa missä vaan saumaa on ja vaikka ei aina olisikaan niin silti vedellään vaikka kuivana.
Mutta jos peilipelien pelaaminen on se juttu, niin kai sitä nvidian korteilla välttävästi pystyy peilipelejä pelaamaan.

Kuten jo aiemmin olen sanonut niin RT suorituskyky on edelleen niin tuhnua että eipä sillä ole vielä merkitystä. Kattellaan sitten seuraavassa genissä hommaa uusiksi josko saataisiin se 2-3 kertaa tehoa lisää.
Odotin että nvidia olisi amperessa tuonut 2-3 kertaa RT tehoa lisää jonka olisi vaatinut jotta RT alkaisi olla sellainen kova juttu, mutta tuhnuksi jäi. Harmi.

Ja mitä ponnistuksia AMD teki saadakseen omansa viriteltyä kuntoon jo julkaisussa saatikka heti kohtakaan? Vihreessä leirissä ainakin panostettiin jo pelin alkumetreillä.
 
Kiinnostaa paljonkin kuluttajaa. Jos tää nvidian tahallinen voitelu pelintekijän suuntaan niin siinä on taas yksi sulka lisää miksi inhota tuota putiikkia joka ei muuta tee kuin livauttaa kuluttajaa kakkoseen joka ikisessä tilanteessa missä vaan saumaa on ja vaikka ei aina olisikaan niin silti vedellään vaikka kuivana.

Ja jos AMD on voidellut Godfallin suuntaan, niin sun pitää ostaa varmaan vain Inteliä jatkossa. Ai niin, mutta ethän sä taida siitäkään tykätä.
 
Mutta kun se nvidia toi 2x lisää RT tehoa... ;)

Omissa dioissaan toki toi.

Mahtaako se enää pitää paikkansa mitä pelinkehittäjät on vikoneet ennen että siinä missä nvidia tarjoaa pienillekin pelitaloille lainarautaa ja apua pelien koodailuun ja nvidian fiitsöreiden käyttöön amd:llä taas tuntuu olevan vaikea löytää edes yhteystietoa semmoiseen tyyppiin joka voisi auttaa.

Että tavallaan ainakin ennen pelien parempi nvidia tuki ei ole kyllä minusta mitään epäreiluutta. Sitä saa mitä tilaa.

Heh.. Eihän tuossa ole mitään muuta takana kuin se että koitetaan niitä omia teknologioita syöttää pelitaloille, sitten kun on saatu homma haltuun niin onkin helppo alkaa lypsämään niillä.
Cudan kanssahan tilanne on jo todella surullinen. Kouluista valmistuu porukkaa jotka ei kykene koodaamaan kuin cudaa.

Ja mitä ponnistuksia AMD teki saadakseen omansa viriteltyä kuntoon jo julkaisussa saatikka heti kohtakaan?

Linkkasin jo sen jutun, on saksaksi muutta google kääntää ihan ymmärrettävään englantiin. Siellä sanotaan että työskenteleevät AMD:n kanssa.

Ja jos AMD on voidellut Godfallin suuntaan, niin sun pitää ostaa varmaan vain Inteliä jatkossa. Ai niin, mutta ethän sä taida siitäkään tykätä.

Inteliltä ei saa dGPU:ta, joten pitää valita se pienempi paha tai pienin.
 
Heh.. Eihän tuossa ole mitään muuta takana kuin se että koitetaan niitä omia teknologioita syöttää pelitaloille, sitten kun on saatu homma haltuun niin onkin helppo alkaa lypsämään niillä.
Cudan kanssahan tilanne on jo todella surullinen. Kouluista valmistuu porukkaa jotka ei kykene koodaamaan kuin cudaa.
No mutta olisihan se aivan typerää jos oikeasti markkinoille haluava yhtiö ei näin toimisi. Etenkin jos näkevät että asiakas ei osaa.

AMDn tulisi petrata ja kovasti.
 

Statistiikka

Viestiketjuista
263 074
Viestejä
4 561 345
Jäsenet
75 104
Uusin jäsen
Bronto Skyleif

Hinta.fi

Back
Ylös Bottom