- Liittynyt
- 17.10.2016
- Viestejä
- 2 953
Tänään testattu: *kuva*
No tuossa on mun perus Zotac 3080 24/7 vakailla kelloilla ja vakio fancurvella. Boosti pyöri jossain 1935-1950mhz suurimman osan ajasta. 16% eroa sun 3090:een.
Follow along with the video below to see how to install our site as a web app on your home screen.
Huomio: This feature may not be available in some browsers.
Tänään testattu: *kuva*
Vai vuosisadan peliJaahas,
Vuosisadan peli tulossa julkistuukseen ja AMD:llä siitä ei pääse nauttimaan säteenseurauksen ja tekoälykiihdytyksen avulla. On kyllä täysi farssi jos joku tuon AMD hypetyksen nieli ja meni tätä peliä varten tuollaisen välttävän RADEON ohjaimen koneeseen hommaamaan.

No on se suurin julkasu sit 2018 vuoden RDR2:en, ihan sama mitä oot ite asiasta sinällänsä mieltäVai vuosisadan peli
Kolmannen osapuolen pelinkehittäjä failaa rajoittamalla tukea vaikka väittää käyttävänsä vain standardia DXR:ää ja se on jotenkin AMD:n vika?
Mitään tekoälykiihdytystähän tuossa pelissä ei ole.

Vai vuosisadan peli
Kolmannen osapuolen pelinkehittäjä failaa rajoittamalla tukea vaikka väittää käyttävänsä vain standardia DXR:ää ja se on jotenkin AMD:n vika?
Mitään tekoälykiihdytystähän tuossa pelissä ei ole.
Ei ole tekoälykiihdytystä.Ei se varmaan sitä pelaajaa/kuluttajaa kiinnosta tai lämmitä kenen vika se on, Osti hypetyksestä johtuen kuitenkin näytönohjaimen joka todellisuudessa tarjoaa vain välttävää 2000-luvun alkupuolen graafista nautintoa.
Ja kyllä Nvidialla on tekoälykiihdytys, joka auttaa varsinpaljon esim. 4k resoluutiolla kun kaikki karkkiherkut on tapissa.
Sovitaanko sitten niin, että jos haluaa pelata cyberpunkkia (jossa suojatiet on tehty peileistä), niin kannattaa ostaa nvidia ja kaikkeen muuhun AMD?Ei se varmaan sitä pelaajaa/kuluttajaa kiinnosta tai lämmitä kenen vika se on, Osti hypetyksestä johtuen kuitenkin näytönohjaimen joka todellisuudessa tarjoaa vain välttävää 2000-luvun alkupuolen graafista nautintoa.
Ja kyllä Nvidialla on tekoälykiihdytys, joka auttaa varsinpaljon esim. 4k resoluutiolla kun kaikki karkkiherkut on tapissa.
Ei ole tekoälykiihdytystä.
Siinä on tensoriytimiä, jotka laskevat nopeasti tietyntyyppisiä matriisilaskuja. DLSS:ssä käytetään esiopetettua neuroverkkoa referenssinä, kun skaalataan pelin muutaman matalan resoluution framen tietojen pohjalta yhtä isomman resoluution ruutua. Tämä hyödyntää tensoriytimiä, mutta ei se mitään "tekoälykiihdytystä" ole.
Lisäksi jos sinulla on DLSS käytössä, se ei ole 4K vaan selvästi matalampi resoluutio, mikä on skaalattu 4K:lle.
Vähän enemmän nyt yritystä, tai tuo rupeaa vaikuttamaan pelkältä trollailulta tietämättömyyden sijasta.
Kaikkiin mainoksiin ei kannata uskoa sokeasti.![]()
Nvidian sivuilta tuon luin, kun tuli sähköpostiin mainos Cyberpunk 2077 peliin liittyen. Ihan tuolla termillä he siitä puhuvat.
Enemmän tuo sun touhus alkaa vaikuttaa trollaamiselta ja tietämättömyydeltä, jos nyt ei tahalliselta väärinymmärtämiseltä.Ei ole tekoälykiihdytystä.
Siinä on tensoriytimiä, jotka laskevat nopeasti tietyntyyppisiä matriisilaskuja. DLSS:ssä käytetään esiopetettua neuroverkkoa referenssinä, kun skaalataan pelin muutaman matalan resoluution framen tietojen pohjalta yhtä isomman resoluution ruutua. Tämä hyödyntää tensoriytimiä, mutta ei se mitään "tekoälykiihdytystä" ole.
Lisäksi jos sinulla on DLSS käytössä, se ei ole 4K vaan selvästi matalampi resoluutio, mikä on skaalattu 4K:lle.
Vähän enemmän nyt yritystä, tai tuo rupeaa vaikuttamaan pelkältä trollailulta tietämättömyyden sijasta.
@Sampsa ei taida käyttää pelin sisäänrakennettua benchmarkkia?Toinen testi:
![]()
Ton enempää tosin ei saa ilmalla puristettua tehoa irti rtx 3090 kortista, mutta nyt ero on 19.5 % tuohon Sampsan 3090 tuf ochen. Että kyllä se vaan on aikalailla 2x (19.5 % vs edes 10 %) fps lisäystä siihen verrattuna mitä sanoit. @Kaotik
Jännä nähdä miten 6900xt sitten pärjää kyseiselle kortille.
Ton enempää tosin ei saa ilmalla puristettua tehoa irti rtx 3090 kortista, mutta nyt ero on 19.5 % tuohon Sampsan 3090 tuf ochen. Että kyllä se vaan on aikalailla 2x (19.5 % vs edes 10 %) fps lisäystä siihen verrattuna mitä sanoit. @Kaotik
Jännä nähdä miten 6900xt sitten pärjää kyseiselle kortille.
Ei käytä ei, eli tulos ei ole millään tasolla vertailukelpoinen.@Sampsa ei taida käyttää pelin sisäänrakennettua benchmarkkia?
Eiköhän nuo ole ihan maksimiasetuksilla ajettu...Oliko sulla jotain kommentoitavaa noista?
Kyllä. Kun grafiikka-asetuksia lasketaan sopivasti AMD:n eduksi, niin tilanne on tuo.![]()
Ei käytä ei, eli tulos ei ole millään tasolla vertailukelpoinen.
Oliko sulla jotain kommentoitavaa noista?
Kyllä. Kun grafiikka-asetuksia lasketaan sopivasti AMD:n eduksi, niin tilanne on tuo.![]()
Täydennystä aiempaan kommenttiini, eli jos haluaa pelata peileistä tehtyjen suojateiden cyberpunkkia niin valitse nvidia, kaikkeen muuhun AMD.Oliko sulla jotain kommentoitavaa noista?
Kyllä. Kun grafiikka-asetuksia lasketaan sopivasti AMD:n eduksi, niin tilanne on tuo.![]()
Miksi sitten tuossa videossa käyttää jos ei muuten muka? Saa muuten saman 104 fps tulokseksi.
Uusimmassa artikkelissa oli tähän kaksi poikkeusta, joista mainittiin erikseen ja jotka olivat mukana vain 4K-resoluutiolla.Näytönohjainten testimetodit
io-techin näytönohjaintesteissä suorituskykyä mitataan pelaamalla peliä 60 sekunnin ajan ja OCAT-sovelluksen avulla mitataan keskimääräinen ruudunpäivitysnopeus ja minimi, kun 1 % huonoimpia ruutuja jätetään huomioimatta. Kyseessä on tarkemmin ottaen 1. persentiili, kun ruutujen renderöintiajat on muutettu ruudunpäivitysnopeudeksi eli ruutua sekunnissa (FPS, Frame Per Second) ja järjestetty paremmuusjärjestykseen. Tavoitteena on jättää huomioimatta muutama yksittäinen muita hitaammin renderöity ruutu, joka on mahdollisesti poikkeustapaus.
Ei se varmaan sitä pelaajaa/kuluttajaa kiinnosta tai lämmitä kenen vika se on, Osti hypetyksestä johtuen kuitenkin näytönohjaimen joka todellisuudessa tarjoaa vain välttävää 2000-luvun alkupuolen graafista nautintoa.
Kiinnostaa paljonkin kuluttajaa. Jos tää nvidian tahallinen voitelu pelintekijän suuntaan niin siinä on taas yksi sulka lisää miksi inhota tuota putiikkia joka ei muuta tee kuin livauttaa kuluttajaa kakkoseen joka ikisessä tilanteessa missä vaan saumaa on ja vaikka ei aina olisikaan niin silti vedellään vaikka kuivana.
Mutta jos peilipelien pelaaminen on se juttu, niin kai sitä nvidian korteilla välttävästi pystyy peilipelejä pelaamaan.
Kuten jo aiemmin olen sanonut niin RT suorituskyky on edelleen niin tuhnua että eipä sillä ole vielä merkitystä. Kattellaan sitten seuraavassa genissä hommaa uusiksi josko saataisiin se 2-3 kertaa tehoa lisää.
Odotin että nvidia olisi amperessa tuonut 2-3 kertaa RT tehoa lisää jonka olisi vaatinut jotta RT alkaisi olla sellainen kova juttu, mutta tuhnuksi jäi. Harmi.
Täydennystä aiempaan kommenttiini, eli jos haluaa pelata peileistä tehtyjen suojateiden cyberpunkkia niin valitse nvidia, kaikkeen muuhun AMD.
Oliko toi nyt se testi, jonka ne itsekin myönsivät kämmänneensä?Jos otetaan kunnon otanta pelejä, kuten TPU ym. niin 1080p reso on ainoa, missä 6800xt on edellä 3090:aa, ja vain jotain pari prossaa nopeampi, kun 3080 1440p resolla. 4k resolla etu sitten onkin jo selkeästi nvidian puolella.
Eiköhän nuo ole ihan maksimiasetuksilla ajettu...
Kannattaa vaikka googlata geometrinen keskiarvo ennen kuin kommentoi.
Oliko toi nyt se testi, jonka ne itsekin myönsivät kämmänneensä?
Kiinnostaa paljonkin kuluttajaa. Jos tää nvidian tahallinen voitelu pelintekijän suuntaan niin siinä on taas yksi sulka lisää miksi inhota tuota putiikkia joka ei muuta tee kuin livauttaa kuluttajaa kakkoseen joka ikisessä tilanteessa missä vaan saumaa on ja vaikka ei aina olisikaan niin silti vedellään vaikka kuivana.
Mutta jos peilipelien pelaaminen on se juttu, niin kai sitä nvidian korteilla välttävästi pystyy peilipelejä pelaamaan.
Kuten jo aiemmin olen sanonut niin RT suorituskyky on edelleen niin tuhnua että eipä sillä ole vielä merkitystä. Kattellaan sitten seuraavassa genissä hommaa uusiksi josko saataisiin se 2-3 kertaa tehoa lisää.
Odotin että nvidia olisi amperessa tuonut 2-3 kertaa RT tehoa lisää jonka olisi vaatinut jotta RT alkaisi olla sellainen kova juttu, mutta tuhnuksi jäi. Harmi.
Kiinnostaa paljonkin kuluttajaa. Jos tää nvidian tahallinen voitelu pelintekijän suuntaan niin siinä on taas yksi sulka lisää miksi inhota tuota putiikkia joka ei muuta tee kuin livauttaa kuluttajaa kakkoseen joka ikisessä tilanteessa missä vaan saumaa on ja vaikka ei aina olisikaan niin silti vedellään vaikka kuivana.
Mutta kun se nvidia toi 2x lisää RT tehoa...![]()
Mahtaako se enää pitää paikkansa mitä pelinkehittäjät on vikoneet ennen että siinä missä nvidia tarjoaa pienillekin pelitaloille lainarautaa ja apua pelien koodailuun ja nvidian fiitsöreiden käyttöön amd:llä taas tuntuu olevan vaikea löytää edes yhteystietoa semmoiseen tyyppiin joka voisi auttaa.
Että tavallaan ainakin ennen pelien parempi nvidia tuki ei ole kyllä minusta mitään epäreiluutta. Sitä saa mitä tilaa.
Ja mitä ponnistuksia AMD teki saadakseen omansa viriteltyä kuntoon jo julkaisussa saatikka heti kohtakaan?
Ja jos AMD on voidellut Godfallin suuntaan, niin sun pitää ostaa varmaan vain Inteliä jatkossa. Ai niin, mutta ethän sä taida siitäkään tykätä.
No mutta olisihan se aivan typerää jos oikeasti markkinoille haluava yhtiö ei näin toimisi. Etenkin jos näkevät että asiakas ei osaa.Heh.. Eihän tuossa ole mitään muuta takana kuin se että koitetaan niitä omia teknologioita syöttää pelitaloille, sitten kun on saatu homma haltuun niin onkin helppo alkaa lypsämään niillä.
Cudan kanssahan tilanne on jo todella surullinen. Kouluista valmistuu porukkaa jotka ei kykene koodaamaan kuin cudaa.
Mitä yrität sanoa? Grafiikka-asetukset on pyritty asettamaan maksimiin joka pelissä.Oliko sulla jotain kommentoitavaa noista?
Kyllä. Kun grafiikka-asetuksia lasketaan sopivasti AMD:n eduksi, niin tilanne on tuo.![]()
Miksi sitten tuossa videossa käyttää jos ei muuten muka? Saa muuten saman 104 fps tulokseksi.
No mutta olisihan se aivan typerää jos oikeasti markkinoille haluava yhtiö ei näin toimisi. Etenkin jos näkevät että asiakas ei osaa.
AMDn tulisi petrata ja kovasti.
Kaikkiin mainoksiin ei kannata uskoa sokeasti.
Tensoriyksiköt soveltuvat toki erityisen hyvin tekoälytehtäviin liittyviin laskuihin, mutta aika löyhin perustein mennään IMO jos esiopetetun neuroverkon käyttö referenssinä skaalausoperaatiossa on "tekoälykiihdytystä".
Ja kuten jo todettua, 4K DLSS:llä ei ole 4K:ta lähelläkään, vaan skaalattua matalamman resoluution kuvaa.
TPU tosiaan ajoi testinsä vanhentuneilla systeemeillä ja sen takia nvidia voitti AMD:n. Itsekin sen sittemmin myönsivät, koska heillä oli ainoat sen kaltaiset tulokset. Kaikkien muiden testeissä AMD oli parempi, myös täällä io-techissä.En ole utse tommosesta kuullut, mutta tässä esim tech spotin koonnit 16 pelin keskiarvosta.
![]()
![]()
Millä vanhentuneilla systeemeilla?TPU tosiaan ajoi testinsä vanhentuneilla systeemeillä ja sen takia nvidia voitti AMD:n. Itsekin sen sittemmin myönsivät, koska heillä oli ainoat sen kaltaiset tulokset. Kaikkien muiden testeissä AMD oli parempi, myös täällä io-techissä.
Mitä yrität sanoa? Grafiikka-asetukset on pyritty asettamaan maksimiin joka pelissä.
Mahtaako se enää pitää paikkansa mitä pelinkehittäjät on vikoneet ennen että siinä missä nvidia tarjoaa pienillekin pelitaloille lainarautaa ja apua pelien koodailuun ja nvidian fiitsöreiden käyttöön amd:llä taas tuntuu olevan vaikea löytää edes yhteystietoa semmoiseen tyyppiin joka voisi auttaa.
Olikohan sittenkin prossutestit mitä muistelen, mutta niin eeppisen virheen jälkeen kyseisen instanssin arviot ovat arvottomia.Millä vanhentuneilla systeemeilla?
Jos RT-efektit on pois päältä niin mun mielestä graffa-asetukset ei silloin ole maksimissa.
Mille markkinoille? Meinasit siis että nvidia alkaa pelitaloksi?
Et nyt ilmeisesti tajunnu, nvidia yrittää tuputtaa pelitaloille omia kikkareitaan ja sitten kun on saatu koukkuun, tarjotaan niitä ensin "ilmaiseksi", mutta joskus tulevaisuudessa sopivan hetken tullen muutetaan ehtoja ja aletaan lypsää lisenssimaksuja.
Kun on tarpeeksi syvälle integroitu ne nvidian räpellykset, niin moni kiltisti rupeaa maksamaan koska niistä eroon pääseminen heittäisi takapakkia turhan paljon.
Ei tuolle ole olemassa yksittäistä lähdettä mutta pelidevien avautumisia löytyy esim redditistä yllin kyllin.Lähdettä tälle? Minä voin kans väittää (kuten aikanaan AMD väitti), että Nvidia aikanaan härskisti sabotoi AMD:ta Witcherin pelikehityksessä, ja että Nvidian gameworks oli yksi työkalu ajaa AMD lopullisesti pois markkinoilta. Monopoli syytösten myötä onneksi luopuivat tuosta. Ja voin väittää että G-sync on Nvidian suljettu järjestelmä jossa rahastetaan kuluttajilta fyrkkaa myymällä ylihintaisia monitoreja G-sync leimalla, eikä noita enabloida AMD:n korteille, jotta kuluttajat pysyy markkinakuninkaan leirissä.
Osa täällä ei tunnu tajuavan, että AMD:n paluu high endiin sataa jopa sinne Nvidialaisten laariin. Kukaan ei halua tilannetta, jossa AMD on ahtaalla, ja että palataan taas johonkin 1500e lippulaiva -hintoihin. Ja tästä vielä jumalauta ylistettiin Nvidiaa, kun leikkasivat hintoja. Kyllä keskiverto kuluttajat on tyhmiä kuin saappaat.
On kummallista miten se syyttävä sormi osoittaa aina Nvidiaa päin kun kyseessähän on ihan tyypillinen teknologisen etumatkan hyödyntäminen bisnesmielessä. On kilpailijoiden vastuulla tarjota devaajille vaihtoehtoja. Nvidia kehittää näitä teknologioita jotta pelit ottaisivat niitä käyttöön ja pelaajat ostaisivat niitä varten tehokkaampaa rautaa. Bisnestä tuo on. Ei Nvidia työnnä pyssyä ohimolle ja pakota yhtäkään deviä mukaan tuohon touhuun, vaan devitkin ovat täysin vapaaehtoisesti mukana touhussa jotta omasta pelistä saadaan paremman näköinen ja saataisiin lisää myyntiä.Mille markkinoille? Meinasit siis että nvidia alkaa pelitaloksi?
Et nyt ilmeisesti tajunnu, nvidia yrittää tuputtaa pelitaloille omia kikkareitaan ja sitten kun on saatu koukkuun, tarjotaan niitä ensin "ilmaiseksi", mutta joskus tulevaisuudessa sopivan hetken tullen muutetaan ehtoja ja aletaan lypsää lisenssimaksuja.
Kun on tarpeeksi syvälle integroitu ne nvidian räpellykset, niin moni kiltisti rupeaa maksamaan koska niistä eroon pääseminen heittäisi takapakkia turhan paljon.
Ei ollut AMD kaikkien muiden kuin TPU:n testeissä nopeampi. Katso nyt vaikka ensi alkuun lainaamasi viestin kuvaajat:TPU tosiaan ajoi testinsä vanhentuneilla systeemeillä ja sen takia nvidia voitti AMD:n. Itsekin sen sittemmin myönsivät, koska heillä oli ainoat sen kaltaiset tulokset. Kaikkien muiden testeissä AMD oli parempi, myös täällä io-techissä.
Jos otetaan kunnon otanta pelejä, kuten TPU ym. niin 1080p reso on ainoa, missä 6800xt on edellä 3090:aa, ja vain jotain pari prossaa nopeampi, kun 3080 1440p resolla. 4k resolla etu sitten onkin jo selkeästi nvidian puolella.
Tuossapa syy kommentille.Ei ollut AMD kaikkien muiden kuin TPU:n testeissä nopeampi. Katso nyt vaikka ensi alkuun lainaamasi viestin kuvaajat:
6800 XT 1440p resolla 2,6% nopeampi kuin 3080
3080 4K resolla 5,4% nopeampi kuin 6800 XT
Käytämme välttämättömiä evästeitä, jotta tämä sivusto toimisi, ja valinnaisia evästeitä käyttökokemuksesi parantamiseksi.