Virallinen: NVIDIA vs AMD (vs Intel) keskustelu- ja väittelyketju

  • Keskustelun aloittaja Keskustelun aloittaja Sampsa
  • Aloitettu Aloitettu
Tänään testattu: *kuva*

No tuossa on mun perus Zotac 3080 24/7 vakailla kelloilla ja vakio fancurvella. Boosti pyöri jossain 1935-1950mhz suurimman osan ajasta. 16% eroa sun 3090:een.

SOTTR testi.jpg
 
Tää 6000-sarjan ray tracing-keskustelu alkaa jo muistuttamaan Vegaa ja sen luvattuja superduperominaisuuksia.

"Kyl sieltä kohta tulee se jeesusajuri joka korjaa kaiken, odota vaan!"
 
Control on mulla ainoa peli, jossa on säteenseuranta ja sitä nyt olen testaillut tuolla 6800XT:llä on/off, enkä kyllä vieläkään osaa sanoa onko siitä säteenseurannasta mitään iloa.
 
Jaahas,

Vuosisadan peli tulossa julkistuukseen ja AMD:llä siitä ei pääse nauttimaan säteenseurauksen ja tekoälykiihdytyksen avulla. On kyllä täysi farssi jos joku tuon AMD hypetyksen nieli ja meni tätä peliä varten tuollaisen välttävän RADEON ohjaimen koneeseen hommaamaan.
 
Jaahas,

Vuosisadan peli tulossa julkistuukseen ja AMD:llä siitä ei pääse nauttimaan säteenseurauksen ja tekoälykiihdytyksen avulla. On kyllä täysi farssi jos joku tuon AMD hypetyksen nieli ja meni tätä peliä varten tuollaisen välttävän RADEON ohjaimen koneeseen hommaamaan.
Vai vuosisadan peli :asif:
Kolmannen osapuolen pelinkehittäjä failaa rajoittamalla tukea vaikka väittää käyttävänsä vain standardia DXR:ää ja se on jotenkin AMD:n vika?
Mitään tekoälykiihdytystähän tuossa pelissä ei ole.
 
Vai vuosisadan peli :asif:
Kolmannen osapuolen pelinkehittäjä failaa rajoittamalla tukea vaikka väittää käyttävänsä vain standardia DXR:ää ja se on jotenkin AMD:n vika?
Mitään tekoälykiihdytystähän tuossa pelissä ei ole.
No on se suurin julkasu sit 2018 vuoden RDR2:en, ihan sama mitä oot ite asiasta sinällänsä mieltä :asif:

Siitä paha sanoa miksei AMD:n korteilla saada RT ominaisuuksia päälle. Suurella todennäkösyydellä nVidian kanssa on tosta diiliä päällä, eikös tuo julkasussa heti tule GeForce Nowiin yms. Eli voi olla rajotettu ihan vaan rajottamisen ilosta, ei niinkään sen takia etteikö se toimis.
 
Vai vuosisadan peli :asif:
Kolmannen osapuolen pelinkehittäjä failaa rajoittamalla tukea vaikka väittää käyttävänsä vain standardia DXR:ää ja se on jotenkin AMD:n vika?
Mitään tekoälykiihdytystähän tuossa pelissä ei ole.

Ei se varmaan sitä pelaajaa/kuluttajaa kiinnosta tai lämmitä kenen vika se on, Osti hypetyksestä johtuen kuitenkin näytönohjaimen joka todellisuudessa tarjoaa vain välttävää 2000-luvun alkupuolen graafista nautintoa.

Ja kyllä Nvidialla on tekoälykiihdytys, joka auttaa varsinpaljon esim. 4k resoluutiolla kun kaikki karkkiherkut on tapissa.
 
Ei se varmaan sitä pelaajaa/kuluttajaa kiinnosta tai lämmitä kenen vika se on, Osti hypetyksestä johtuen kuitenkin näytönohjaimen joka todellisuudessa tarjoaa vain välttävää 2000-luvun alkupuolen graafista nautintoa.

Ja kyllä Nvidialla on tekoälykiihdytys, joka auttaa varsinpaljon esim. 4k resoluutiolla kun kaikki karkkiherkut on tapissa.
Ei ole tekoälykiihdytystä.
Siinä on tensoriytimiä, jotka laskevat nopeasti tietyntyyppisiä matriisilaskuja. DLSS:ssä käytetään esiopetettua neuroverkkoa referenssinä, kun skaalataan pelin muutaman matalan resoluution framen tietojen pohjalta yhtä isomman resoluution ruutua. Tämä hyödyntää tensoriytimiä, mutta ei se mitään "tekoälykiihdytystä" ole.
Lisäksi jos sinulla on DLSS käytössä, se ei ole 4K vaan selvästi matalampi resoluutio, mikä on skaalattu 4K:lle.

Vähän enemmän nyt yritystä, tai tuo rupeaa vaikuttamaan pelkältä trollailulta tietämättömyyden sijasta.
 
Toinen testi:
tombraider30902.png

Ton enempää tosin ei saa ilmalla puristettua tehoa irti rtx 3090 kortista, mutta nyt ero on 19.5 % tuohon Sampsan 3090 tuf ochen. Että kyllä se vaan on aikalailla 2x (19.5 % vs edes 10 %) fps lisäystä siihen verrattuna mitä sanoit. @Kaotik
Jännä nähdä miten 6900xt sitten pärjää kyseiselle kortille.
 
Ei se varmaan sitä pelaajaa/kuluttajaa kiinnosta tai lämmitä kenen vika se on, Osti hypetyksestä johtuen kuitenkin näytönohjaimen joka todellisuudessa tarjoaa vain välttävää 2000-luvun alkupuolen graafista nautintoa.

Ja kyllä Nvidialla on tekoälykiihdytys, joka auttaa varsinpaljon esim. 4k resoluutiolla kun kaikki karkkiherkut on tapissa.
Sovitaanko sitten niin, että jos haluaa pelata cyberpunkkia (jossa suojatiet on tehty peileistä), niin kannattaa ostaa nvidia ja kaikkeen muuhun AMD?
 
Ei ole tekoälykiihdytystä.
Siinä on tensoriytimiä, jotka laskevat nopeasti tietyntyyppisiä matriisilaskuja. DLSS:ssä käytetään esiopetettua neuroverkkoa referenssinä, kun skaalataan pelin muutaman matalan resoluution framen tietojen pohjalta yhtä isomman resoluution ruutua. Tämä hyödyntää tensoriytimiä, mutta ei se mitään "tekoälykiihdytystä" ole.
Lisäksi jos sinulla on DLSS käytössä, se ei ole 4K vaan selvästi matalampi resoluutio, mikä on skaalattu 4K:lle.

Vähän enemmän nyt yritystä, tai tuo rupeaa vaikuttamaan pelkältä trollailulta tietämättömyyden sijasta.

1605982777707.png


Nvidian sivuilta tuon luin, kun tuli sähköpostiin mainos Cyberpunk 2077 peliin liittyen. Ihan tuolla termillä he siitä puhuvat.
 
  • Tykkää
Reactions: aop
1605982777707.png


Nvidian sivuilta tuon luin, kun tuli sähköpostiin mainos Cyberpunk 2077 peliin liittyen. Ihan tuolla termillä he siitä puhuvat.
Kaikkiin mainoksiin ei kannata uskoa sokeasti.
Tensoriyksiköt soveltuvat toki erityisen hyvin tekoälytehtäviin liittyviin laskuihin, mutta aika löyhin perustein mennään IMO jos esiopetetun neuroverkon käyttö referenssinä skaalausoperaatiossa on "tekoälykiihdytystä".
Ja kuten jo todettua, 4K DLSS:llä ei ole 4K:ta lähelläkään, vaan skaalattua matalamman resoluution kuvaa.
 
Ei ole tekoälykiihdytystä.
Siinä on tensoriytimiä, jotka laskevat nopeasti tietyntyyppisiä matriisilaskuja. DLSS:ssä käytetään esiopetettua neuroverkkoa referenssinä, kun skaalataan pelin muutaman matalan resoluution framen tietojen pohjalta yhtä isomman resoluution ruutua. Tämä hyödyntää tensoriytimiä, mutta ei se mitään "tekoälykiihdytystä" ole.
Lisäksi jos sinulla on DLSS käytössä, se ei ole 4K vaan selvästi matalampi resoluutio, mikä on skaalattu 4K:lle.

Vähän enemmän nyt yritystä, tai tuo rupeaa vaikuttamaan pelkältä trollailulta tietämättömyyden sijasta.
Enemmän tuo sun touhus alkaa vaikuttaa trollaamiselta ja tietämättömyydeltä, jos nyt ei tahalliselta väärinymmärtämiseltä.

Jos DLSS 2.0 käyttää neuroverkkoa käyttäjän tietokoneella tapahtuvaan kuvan rekonstruktioon, niin aika vaikea tuota on minään muuna kuin ns. tekoälykiihdytyksenä pitää.
 
Viimeksi muokattu:
Toinen testi:
tombraider30902.png

Ton enempää tosin ei saa ilmalla puristettua tehoa irti rtx 3090 kortista, mutta nyt ero on 19.5 % tuohon Sampsan 3090 tuf ochen. Että kyllä se vaan on aikalailla 2x (19.5 % vs edes 10 %) fps lisäystä siihen verrattuna mitä sanoit. @Kaotik
Jännä nähdä miten 6900xt sitten pärjää kyseiselle kortille.
@Sampsa ei taida käyttää pelin sisäänrakennettua benchmarkkia?
 
Ton enempää tosin ei saa ilmalla puristettua tehoa irti rtx 3090 kortista, mutta nyt ero on 19.5 % tuohon Sampsan 3090 tuf ochen. Että kyllä se vaan on aikalailla 2x (19.5 % vs edes 10 %) fps lisäystä siihen verrattuna mitä sanoit. @Kaotik
Jännä nähdä miten 6900xt sitten pärjää kyseiselle kortille.
@Sampsa ei taida käyttää pelin sisäänrakennettua benchmarkkia?
Ei käytä ei, eli tulos ei ole millään tasolla vertailukelpoinen.
 
Oliko sulla jotain kommentoitavaa noista?

Kyllä. Kun grafiikka-asetuksia lasketaan sopivasti AMD:n eduksi, niin tilanne on tuo. ;)
 
Ei käytä ei, eli tulos ei ole millään tasolla vertailukelpoinen.
Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.


Miksi sitten tuossa videossa käyttää jos ei muuten muka? Saa muuten saman 104 fps tulokseksi.
 
Oliko sulla jotain kommentoitavaa noista?

Kyllä. Kun grafiikka-asetuksia lasketaan sopivasti AMD:n eduksi, niin tilanne on tuo. ;)

Kannattaa vaikka googlata geometrinen keskiarvo ennen kuin kommentoi. Ja alkuperäinen kuvien lisääjä voisi kirjoittaa jotain eikä vain lätkiä kuvia vailla mitään pointtia.
 
Oliko sulla jotain kommentoitavaa noista?

Kyllä. Kun grafiikka-asetuksia lasketaan sopivasti AMD:n eduksi, niin tilanne on tuo. ;)
Täydennystä aiempaan kommenttiini, eli jos haluaa pelata peileistä tehtyjen suojateiden cyberpunkkia niin valitse nvidia, kaikkeen muuhun AMD.
 
Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.


Miksi sitten tuossa videossa käyttää jos ei muuten muka? Saa muuten saman 104 fps tulokseksi.

Koska tuo ei ole meidän testiartikkeli.

Lainaten testiartikkelia
Näytönohjainten testimetodit
io-techin näytönohjaintesteissä suorituskykyä mitataan pelaamalla peliä 60 sekunnin ajan ja OCAT-sovelluksen avulla mitataan keskimääräinen ruudunpäivitysnopeus ja minimi, kun 1 % huonoimpia ruutuja jätetään huomioimatta. Kyseessä on tarkemmin ottaen 1. persentiili, kun ruutujen renderöintiajat on muutettu ruudunpäivitysnopeudeksi eli ruutua sekunnissa (FPS, Frame Per Second) ja järjestetty paremmuusjärjestykseen. Tavoitteena on jättää huomioimatta muutama yksittäinen muita hitaammin renderöity ruutu, joka on mahdollisesti poikkeustapaus.
Uusimmassa artikkelissa oli tähän kaksi poikkeusta, joista mainittiin erikseen ja jotka olivat mukana vain 4K-resoluutiolla.
edit: ja ei siinä RT:kään ole sen enempää päällä.
 
Ei se varmaan sitä pelaajaa/kuluttajaa kiinnosta tai lämmitä kenen vika se on, Osti hypetyksestä johtuen kuitenkin näytönohjaimen joka todellisuudessa tarjoaa vain välttävää 2000-luvun alkupuolen graafista nautintoa.

Kiinnostaa paljonkin kuluttajaa. Jos tää nvidian tahallinen voitelu pelintekijän suuntaan niin siinä on taas yksi sulka lisää miksi inhota tuota putiikkia joka ei muuta tee kuin livauttaa kuluttajaa kakkoseen joka ikisessä tilanteessa missä vaan saumaa on ja vaikka ei aina olisikaan niin silti vedellään vaikka kuivana.
Mutta jos peilipelien pelaaminen on se juttu, niin kai sitä nvidian korteilla välttävästi pystyy peilipelejä pelaamaan.

Kuten jo aiemmin olen sanonut niin RT suorituskyky on edelleen niin tuhnua että eipä sillä ole vielä merkitystä. Kattellaan sitten seuraavassa genissä hommaa uusiksi josko saataisiin se 2-3 kertaa tehoa lisää.
Odotin että nvidia olisi amperessa tuonut 2-3 kertaa RT tehoa lisää jonka olisi vaatinut jotta RT alkaisi olla sellainen kova juttu, mutta tuhnuksi jäi. Harmi.
 
Kiinnostaa paljonkin kuluttajaa. Jos tää nvidian tahallinen voitelu pelintekijän suuntaan niin siinä on taas yksi sulka lisää miksi inhota tuota putiikkia joka ei muuta tee kuin livauttaa kuluttajaa kakkoseen joka ikisessä tilanteessa missä vaan saumaa on ja vaikka ei aina olisikaan niin silti vedellään vaikka kuivana.
Mutta jos peilipelien pelaaminen on se juttu, niin kai sitä nvidian korteilla välttävästi pystyy peilipelejä pelaamaan.

Kuten jo aiemmin olen sanonut niin RT suorituskyky on edelleen niin tuhnua että eipä sillä ole vielä merkitystä. Kattellaan sitten seuraavassa genissä hommaa uusiksi josko saataisiin se 2-3 kertaa tehoa lisää.
Odotin että nvidia olisi amperessa tuonut 2-3 kertaa RT tehoa lisää jonka olisi vaatinut jotta RT alkaisi olla sellainen kova juttu, mutta tuhnuksi jäi. Harmi.

Mutta kun se nvidia toi 2x lisää RT tehoa... ;)
 
Se minnuu hieman ihmetyttää, että missään ei kerrota - saati testata - kumpi kortti dekoodaa vikkelämmin H.265 8K VR-videoita kovilla FPS:illä? Ja onko muistin määrällä väliä?

Ihan olennainen jokamiehen kovan näytönohjaimen hankintaperuste, mutta ei kun vaan jotain enkoodausta taikka Photoshoppia. Ei se VHS:kään Betaa kuvanlaadullaan voittanut.
 
Mahtaako se enää pitää paikkansa mitä pelinkehittäjät on vikoneet ennen että siinä missä nvidia tarjoaa pienillekin pelitaloille lainarautaa ja apua pelien koodailuun ja nvidian fiitsöreiden käyttöön amd:llä taas tuntuu olevan vaikea löytää edes yhteystietoa semmoiseen tyyppiin joka voisi auttaa.

Että tavallaan ainakin ennen pelien parempi nvidia tuki ei ole kyllä minusta mitään epäreiluutta. Sitä saa mitä tilaa.
 
Täydennystä aiempaan kommenttiini, eli jos haluaa pelata peileistä tehtyjen suojateiden cyberpunkkia niin valitse nvidia, kaikkeen muuhun AMD.

Jos otetaan kunnon otanta pelejä, kuten TPU ym. niin 1080p reso on ainoa, missä 6800xt on edellä 3090:aa, ja vain jotain pari prossaa nopeampi, kun 3080 1440p resolla. 4k resolla etu sitten onkin jo selkeästi nvidian puolella.
 
Jos otetaan kunnon otanta pelejä, kuten TPU ym. niin 1080p reso on ainoa, missä 6800xt on edellä 3090:aa, ja vain jotain pari prossaa nopeampi, kun 3080 1440p resolla. 4k resolla etu sitten onkin jo selkeästi nvidian puolella.
Oliko toi nyt se testi, jonka ne itsekin myönsivät kämmänneensä?
 
Eiköhän nuo ole ihan maksimiasetuksilla ajettu...

Höpsis, kaikissa RT:tä tukevissa peleissä oli RT pois päältä. Se ei ole mikään "maksimiasetukset". Jos NVidia hyytyisi vaikka maksimi volumetrisillä pilvillä suhteessa enemmän AMD:hen, niin otettaisiinko silloin pilviasetukset pienemmälle, että NVidia näyttäisi paremmalta? No ei tietenkään. Tai laskettaisiinko NVidialla tekstuuriasetusta jos siltä tekstuurimuisti loppuu ja suorituskyky romahtaa, jotta NVidia näyttäisi paremmalta? No ei. Asetukset tappiin kun testataan high-end vehkeitä. Niin ei valitettavasti ole tässä tehty. Tai on parin pelin kohdalla, muttei kaikkien, eikä niitä laskettu keskiarvoihin.

Kannattaa vaikka googlata geometrinen keskiarvo ennen kuin kommentoi.

Ei liity millään tavalla asiaan.
 
Kiinnostaa paljonkin kuluttajaa. Jos tää nvidian tahallinen voitelu pelintekijän suuntaan niin siinä on taas yksi sulka lisää miksi inhota tuota putiikkia joka ei muuta tee kuin livauttaa kuluttajaa kakkoseen joka ikisessä tilanteessa missä vaan saumaa on ja vaikka ei aina olisikaan niin silti vedellään vaikka kuivana.
Mutta jos peilipelien pelaaminen on se juttu, niin kai sitä nvidian korteilla välttävästi pystyy peilipelejä pelaamaan.

Kuten jo aiemmin olen sanonut niin RT suorituskyky on edelleen niin tuhnua että eipä sillä ole vielä merkitystä. Kattellaan sitten seuraavassa genissä hommaa uusiksi josko saataisiin se 2-3 kertaa tehoa lisää.
Odotin että nvidia olisi amperessa tuonut 2-3 kertaa RT tehoa lisää jonka olisi vaatinut jotta RT alkaisi olla sellainen kova juttu, mutta tuhnuksi jäi. Harmi.

Ja mitä ponnistuksia AMD teki saadakseen omansa viriteltyä kuntoon jo julkaisussa saatikka heti kohtakaan? Vihreessä leirissä ainakin panostettiin jo pelin alkumetreillä.
 
Kiinnostaa paljonkin kuluttajaa. Jos tää nvidian tahallinen voitelu pelintekijän suuntaan niin siinä on taas yksi sulka lisää miksi inhota tuota putiikkia joka ei muuta tee kuin livauttaa kuluttajaa kakkoseen joka ikisessä tilanteessa missä vaan saumaa on ja vaikka ei aina olisikaan niin silti vedellään vaikka kuivana.

Ja jos AMD on voidellut Godfallin suuntaan, niin sun pitää ostaa varmaan vain Inteliä jatkossa. Ai niin, mutta ethän sä taida siitäkään tykätä.
 
Mutta kun se nvidia toi 2x lisää RT tehoa... ;)

Omissa dioissaan toki toi.

Mahtaako se enää pitää paikkansa mitä pelinkehittäjät on vikoneet ennen että siinä missä nvidia tarjoaa pienillekin pelitaloille lainarautaa ja apua pelien koodailuun ja nvidian fiitsöreiden käyttöön amd:llä taas tuntuu olevan vaikea löytää edes yhteystietoa semmoiseen tyyppiin joka voisi auttaa.

Että tavallaan ainakin ennen pelien parempi nvidia tuki ei ole kyllä minusta mitään epäreiluutta. Sitä saa mitä tilaa.

Heh.. Eihän tuossa ole mitään muuta takana kuin se että koitetaan niitä omia teknologioita syöttää pelitaloille, sitten kun on saatu homma haltuun niin onkin helppo alkaa lypsämään niillä.
Cudan kanssahan tilanne on jo todella surullinen. Kouluista valmistuu porukkaa jotka ei kykene koodaamaan kuin cudaa.

Ja mitä ponnistuksia AMD teki saadakseen omansa viriteltyä kuntoon jo julkaisussa saatikka heti kohtakaan?

Linkkasin jo sen jutun, on saksaksi muutta google kääntää ihan ymmärrettävään englantiin. Siellä sanotaan että työskenteleevät AMD:n kanssa.

Ja jos AMD on voidellut Godfallin suuntaan, niin sun pitää ostaa varmaan vain Inteliä jatkossa. Ai niin, mutta ethän sä taida siitäkään tykätä.

Inteliltä ei saa dGPU:ta, joten pitää valita se pienempi paha tai pienin.
 
Heh.. Eihän tuossa ole mitään muuta takana kuin se että koitetaan niitä omia teknologioita syöttää pelitaloille, sitten kun on saatu homma haltuun niin onkin helppo alkaa lypsämään niillä.
Cudan kanssahan tilanne on jo todella surullinen. Kouluista valmistuu porukkaa jotka ei kykene koodaamaan kuin cudaa.
No mutta olisihan se aivan typerää jos oikeasti markkinoille haluava yhtiö ei näin toimisi. Etenkin jos näkevät että asiakas ei osaa.

AMDn tulisi petrata ja kovasti.
 
Oliko sulla jotain kommentoitavaa noista?

Kyllä. Kun grafiikka-asetuksia lasketaan sopivasti AMD:n eduksi, niin tilanne on tuo. ;)
Mitä yrität sanoa? Grafiikka-asetukset on pyritty asettamaan maksimiin joka pelissä.
 
Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.


Miksi sitten tuossa videossa käyttää jos ei muuten muka? Saa muuten saman 104 fps tulokseksi.

Käytetty benchmarkia, koska se on videolla helpompi esittää kuin Ocatilla 60s pelipätkän testaaminen + videolla on haastettu katsojat esittämään paremmat tulokset, se ei oikein onnistu jollain meidän omaöla testipätkällä
 
No mutta olisihan se aivan typerää jos oikeasti markkinoille haluava yhtiö ei näin toimisi. Etenkin jos näkevät että asiakas ei osaa.

AMDn tulisi petrata ja kovasti.

Mille markkinoille? Meinasit siis että nvidia alkaa pelitaloksi?

Et nyt ilmeisesti tajunnu, nvidia yrittää tuputtaa pelitaloille omia kikkareitaan ja sitten kun on saatu koukkuun, tarjotaan niitä ensin "ilmaiseksi", mutta joskus tulevaisuudessa sopivan hetken tullen muutetaan ehtoja ja aletaan lypsää lisenssimaksuja.
Kun on tarpeeksi syvälle integroitu ne nvidian räpellykset, niin moni kiltisti rupeaa maksamaan koska niistä eroon pääseminen heittäisi takapakkia turhan paljon.
 
Kaikkiin mainoksiin ei kannata uskoa sokeasti.
Tensoriyksiköt soveltuvat toki erityisen hyvin tekoälytehtäviin liittyviin laskuihin, mutta aika löyhin perustein mennään IMO jos esiopetetun neuroverkon käyttö referenssinä skaalausoperaatiossa on "tekoälykiihdytystä".
Ja kuten jo todettua, 4K DLSS:llä ei ole 4K:ta lähelläkään, vaan skaalattua matalamman resoluution kuvaa.

Säteenseuranta ja tekoälykiihdytys on ihan selkolukuisia termejä tavantallaajalle ja nimenomaan tekoälykiihdytyksellä tehty skaalaus on lähes yhtähyvän näköistä kuin korkeampi resoluutio, joten tässäkin pitkällä tähtäimellä saadaan tuotteesta paljon enemmän iloa kuin ilman niitä.
 
En ole utse tommosesta kuullut, mutta tässä esim tech spotin koonnit 16 pelin keskiarvosta.

Screenshot_20201121_212230_com.android.chrome.png


Screenshot_20201121_212244_com.android.chrome.png
TPU tosiaan ajoi testinsä vanhentuneilla systeemeillä ja sen takia nvidia voitti AMD:n. Itsekin sen sittemmin myönsivät, koska heillä oli ainoat sen kaltaiset tulokset. Kaikkien muiden testeissä AMD oli parempi, myös täällä io-techissä.
 
TPU tosiaan ajoi testinsä vanhentuneilla systeemeillä ja sen takia nvidia voitti AMD:n. Itsekin sen sittemmin myönsivät, koska heillä oli ainoat sen kaltaiset tulokset. Kaikkien muiden testeissä AMD oli parempi, myös täällä io-techissä.
Millä vanhentuneilla systeemeilla?
 
Mahtaako se enää pitää paikkansa mitä pelinkehittäjät on vikoneet ennen että siinä missä nvidia tarjoaa pienillekin pelitaloille lainarautaa ja apua pelien koodailuun ja nvidian fiitsöreiden käyttöön amd:llä taas tuntuu olevan vaikea löytää edes yhteystietoa semmoiseen tyyppiin joka voisi auttaa.

Lähdettä tälle? Minä voin kans väittää (kuten aikanaan AMD väitti), että Nvidia aikanaan härskisti sabotoi AMD:ta Witcherin pelikehityksessä, ja että Nvidian gameworks oli yksi työkalu ajaa AMD lopullisesti pois markkinoilta. Monopoli syytösten myötä onneksi luopuivat tuosta. Ja voin väittää että G-sync on Nvidian suljettu järjestelmä jossa rahastetaan kuluttajilta fyrkkaa myymällä ylihintaisia monitoreja G-sync leimalla, eikä noita enabloida AMD:n korteille, jotta kuluttajat pysyy markkinakuninkaan leirissä.

Osa täällä ei tunnu tajuavan, että AMD:n paluu high endiin sataa jopa sinne Nvidialaisten laariin. Kukaan ei halua tilannetta, jossa AMD on ahtaalla, ja että palataan taas johonkin ''4080ti 1500e -hintoihin. Ja tästä vielä jumalauta ylistettiin Nvidiaa, kun leikkasivat hintoja. Kyllä keskiverto kuluttajat on tyhmiä kuin saappaat.
 
Viimeksi muokattu:
Jos RT-efektit on pois päältä niin mun mielestä graffa-asetukset ei silloin ole maksimissa.

Jaa. Aika moni benchmarkien tekijä käyttää edelleen ''Graphics settings maxed'' ja silti RT on/off -testit erikseen. Toivon ettei tuota RT:tä sotketa klassisten grafiikka-asetusten sekaan, koska sitä se ei ole. Kyseessä on poikkeuksellinen asetus monella tapaa.
 
Mille markkinoille? Meinasit siis että nvidia alkaa pelitaloksi?

Et nyt ilmeisesti tajunnu, nvidia yrittää tuputtaa pelitaloille omia kikkareitaan ja sitten kun on saatu koukkuun, tarjotaan niitä ensin "ilmaiseksi", mutta joskus tulevaisuudessa sopivan hetken tullen muutetaan ehtoja ja aletaan lypsää lisenssimaksuja.
Kun on tarpeeksi syvälle integroitu ne nvidian räpellykset, niin moni kiltisti rupeaa maksamaan koska niistä eroon pääseminen heittäisi takapakkia turhan paljon.

Tottakai nvidia neuvoo pelitaloja tekemään temput nvidian raudalla niin että ne toimviat optimaalisesti! Miksi ihmeessä eivät tekisi näin?
 
Lähdettä tälle? Minä voin kans väittää (kuten aikanaan AMD väitti), että Nvidia aikanaan härskisti sabotoi AMD:ta Witcherin pelikehityksessä, ja että Nvidian gameworks oli yksi työkalu ajaa AMD lopullisesti pois markkinoilta. Monopoli syytösten myötä onneksi luopuivat tuosta. Ja voin väittää että G-sync on Nvidian suljettu järjestelmä jossa rahastetaan kuluttajilta fyrkkaa myymällä ylihintaisia monitoreja G-sync leimalla, eikä noita enabloida AMD:n korteille, jotta kuluttajat pysyy markkinakuninkaan leirissä.

Osa täällä ei tunnu tajuavan, että AMD:n paluu high endiin sataa jopa sinne Nvidialaisten laariin. Kukaan ei halua tilannetta, jossa AMD on ahtaalla, ja että palataan taas johonkin 1500e lippulaiva -hintoihin. Ja tästä vielä jumalauta ylistettiin Nvidiaa, kun leikkasivat hintoja. Kyllä keskiverto kuluttajat on tyhmiä kuin saappaat.
Ei tuolle ole olemassa yksittäistä lähdettä mutta pelidevien avautumisia löytyy esim redditistä yllin kyllin.

Tämä sama kaava on toistunut vuodesta toiseen. nVidia käyttää suuret määrät rahaa ja aikaa yhteistyöhön niin devaajien kuin koulujen kuin vaikka autovalmistajien kanssa.

1605988679699.png
 
Mille markkinoille? Meinasit siis että nvidia alkaa pelitaloksi?

Et nyt ilmeisesti tajunnu, nvidia yrittää tuputtaa pelitaloille omia kikkareitaan ja sitten kun on saatu koukkuun, tarjotaan niitä ensin "ilmaiseksi", mutta joskus tulevaisuudessa sopivan hetken tullen muutetaan ehtoja ja aletaan lypsää lisenssimaksuja.
Kun on tarpeeksi syvälle integroitu ne nvidian räpellykset, niin moni kiltisti rupeaa maksamaan koska niistä eroon pääseminen heittäisi takapakkia turhan paljon.
On kummallista miten se syyttävä sormi osoittaa aina Nvidiaa päin kun kyseessähän on ihan tyypillinen teknologisen etumatkan hyödyntäminen bisnesmielessä. On kilpailijoiden vastuulla tarjota devaajille vaihtoehtoja. Nvidia kehittää näitä teknologioita jotta pelit ottaisivat niitä käyttöön ja pelaajat ostaisivat niitä varten tehokkaampaa rautaa. Bisnestä tuo on. Ei Nvidia työnnä pyssyä ohimolle ja pakota yhtäkään deviä mukaan tuohon touhuun, vaan devitkin ovat täysin vapaaehtoisesti mukana touhussa jotta omasta pelistä saadaan paremman näköinen ja saataisiin lisää myyntiä.

Ei Nvidia huvikseen ole vuosikymmeniä kehittänyt omaa implementaatiotaan, ja testeistähän näkee että se on huomattavasti AMD:n räpellystä tehokkaampi. AMD riittää ehkä muutaman hassun lätäkön peilaamiseen, mutta sitten kun siirrytään enemmän ja enemmän kohti full scene raytracingiä niin 6000-sarjalaiset paskoo alleen totaalisesti.

Cyberpunkin eri RT-tasot on takuulla optimoitu Nvidia korttien mukaan koska ne ovat olleet markkinoilla pidemmän aikaa. CDPR:llä on intresseissään pitää huoli siitä että pelaaja joka kytkee RT:n päälle saa jossain määrin hyväksyttävän suorituskyvyn RT:n ollessa päällä. Jos AMD:ltä ei sitä saa, niin sitten se disabloidaan, samalla tavalla kun se disabloidaan Pascal-korttien omistajilta, koska huono suorituskyky heijastuu negatiivisesti myös peliä kohtaan. Sitten kun se on korjattu AMD:n tai CDPR:n tai molempien toimesta, se patchataan käyttöön. Se että Cyberpunk ei tue AMD:n räpellyksiä on tasan tarkkaan AMD:n vika, eikä kenenkään muun.
 
TPU tosiaan ajoi testinsä vanhentuneilla systeemeillä ja sen takia nvidia voitti AMD:n. Itsekin sen sittemmin myönsivät, koska heillä oli ainoat sen kaltaiset tulokset. Kaikkien muiden testeissä AMD oli parempi, myös täällä io-techissä.
Ei ollut AMD kaikkien muiden kuin TPU:n testeissä nopeampi. Katso nyt vaikka ensi alkuun lainaamasi viestin kuvaajat:

6800 XT 1440p resolla 2,6% nopeampi kuin 3080
3080 4K resolla 5,4% nopeampi kuin 6800 XT
 
Jos otetaan kunnon otanta pelejä, kuten TPU ym. niin 1080p reso on ainoa, missä 6800xt on edellä 3090:aa, ja vain jotain pari prossaa nopeampi, kun 3080 1440p resolla. 4k resolla etu sitten onkin jo selkeästi nvidian puolella.
Ei ollut AMD kaikkien muiden kuin TPU:n testeissä nopeampi. Katso nyt vaikka ensi alkuun lainaamasi viestin kuvaajat:

6800 XT 1440p resolla 2,6% nopeampi kuin 3080
3080 4K resolla 5,4% nopeampi kuin 6800 XT
Tuossapa syy kommentille.
 

Statistiikka

Viestiketjuista
297 500
Viestejä
5 070 358
Jäsenet
81 337
Uusin jäsen
jmmaenp

Hinta.fi

Back
Ylös Bottom