- Liittynyt
- 13.10.2016
- Viestejä
- 13 840
Mitä yrität sanoa? Grafiikka-asetukset on pyritty asettamaan maksimiin joka pelissä.Oliko sulla jotain kommentoitavaa noista?
Kyllä. Kun grafiikka-asetuksia lasketaan sopivasti AMD:n eduksi, niin tilanne on tuo.![]()
Follow along with the video below to see how to install our site as a web app on your home screen.
Huomio: This feature may not be available in some browsers.
Mitä yrität sanoa? Grafiikka-asetukset on pyritty asettamaan maksimiin joka pelissä.Oliko sulla jotain kommentoitavaa noista?
Kyllä. Kun grafiikka-asetuksia lasketaan sopivasti AMD:n eduksi, niin tilanne on tuo.![]()
Miksi sitten tuossa videossa käyttää jos ei muuten muka? Saa muuten saman 104 fps tulokseksi.
No mutta olisihan se aivan typerää jos oikeasti markkinoille haluava yhtiö ei näin toimisi. Etenkin jos näkevät että asiakas ei osaa.
AMDn tulisi petrata ja kovasti.
Kaikkiin mainoksiin ei kannata uskoa sokeasti.
Tensoriyksiköt soveltuvat toki erityisen hyvin tekoälytehtäviin liittyviin laskuihin, mutta aika löyhin perustein mennään IMO jos esiopetetun neuroverkon käyttö referenssinä skaalausoperaatiossa on "tekoälykiihdytystä".
Ja kuten jo todettua, 4K DLSS:llä ei ole 4K:ta lähelläkään, vaan skaalattua matalamman resoluution kuvaa.
TPU tosiaan ajoi testinsä vanhentuneilla systeemeillä ja sen takia nvidia voitti AMD:n. Itsekin sen sittemmin myönsivät, koska heillä oli ainoat sen kaltaiset tulokset. Kaikkien muiden testeissä AMD oli parempi, myös täällä io-techissä.En ole utse tommosesta kuullut, mutta tässä esim tech spotin koonnit 16 pelin keskiarvosta.
![]()
![]()
Millä vanhentuneilla systeemeilla?TPU tosiaan ajoi testinsä vanhentuneilla systeemeillä ja sen takia nvidia voitti AMD:n. Itsekin sen sittemmin myönsivät, koska heillä oli ainoat sen kaltaiset tulokset. Kaikkien muiden testeissä AMD oli parempi, myös täällä io-techissä.
Mitä yrität sanoa? Grafiikka-asetukset on pyritty asettamaan maksimiin joka pelissä.
Mahtaako se enää pitää paikkansa mitä pelinkehittäjät on vikoneet ennen että siinä missä nvidia tarjoaa pienillekin pelitaloille lainarautaa ja apua pelien koodailuun ja nvidian fiitsöreiden käyttöön amd:llä taas tuntuu olevan vaikea löytää edes yhteystietoa semmoiseen tyyppiin joka voisi auttaa.
Olikohan sittenkin prossutestit mitä muistelen, mutta niin eeppisen virheen jälkeen kyseisen instanssin arviot ovat arvottomia.Millä vanhentuneilla systeemeilla?
Jos RT-efektit on pois päältä niin mun mielestä graffa-asetukset ei silloin ole maksimissa.
Mille markkinoille? Meinasit siis että nvidia alkaa pelitaloksi?
Et nyt ilmeisesti tajunnu, nvidia yrittää tuputtaa pelitaloille omia kikkareitaan ja sitten kun on saatu koukkuun, tarjotaan niitä ensin "ilmaiseksi", mutta joskus tulevaisuudessa sopivan hetken tullen muutetaan ehtoja ja aletaan lypsää lisenssimaksuja.
Kun on tarpeeksi syvälle integroitu ne nvidian räpellykset, niin moni kiltisti rupeaa maksamaan koska niistä eroon pääseminen heittäisi takapakkia turhan paljon.
Ei tuolle ole olemassa yksittäistä lähdettä mutta pelidevien avautumisia löytyy esim redditistä yllin kyllin.Lähdettä tälle? Minä voin kans väittää (kuten aikanaan AMD väitti), että Nvidia aikanaan härskisti sabotoi AMD:ta Witcherin pelikehityksessä, ja että Nvidian gameworks oli yksi työkalu ajaa AMD lopullisesti pois markkinoilta. Monopoli syytösten myötä onneksi luopuivat tuosta. Ja voin väittää että G-sync on Nvidian suljettu järjestelmä jossa rahastetaan kuluttajilta fyrkkaa myymällä ylihintaisia monitoreja G-sync leimalla, eikä noita enabloida AMD:n korteille, jotta kuluttajat pysyy markkinakuninkaan leirissä.
Osa täällä ei tunnu tajuavan, että AMD:n paluu high endiin sataa jopa sinne Nvidialaisten laariin. Kukaan ei halua tilannetta, jossa AMD on ahtaalla, ja että palataan taas johonkin 1500e lippulaiva -hintoihin. Ja tästä vielä jumalauta ylistettiin Nvidiaa, kun leikkasivat hintoja. Kyllä keskiverto kuluttajat on tyhmiä kuin saappaat.
On kummallista miten se syyttävä sormi osoittaa aina Nvidiaa päin kun kyseessähän on ihan tyypillinen teknologisen etumatkan hyödyntäminen bisnesmielessä. On kilpailijoiden vastuulla tarjota devaajille vaihtoehtoja. Nvidia kehittää näitä teknologioita jotta pelit ottaisivat niitä käyttöön ja pelaajat ostaisivat niitä varten tehokkaampaa rautaa. Bisnestä tuo on. Ei Nvidia työnnä pyssyä ohimolle ja pakota yhtäkään deviä mukaan tuohon touhuun, vaan devitkin ovat täysin vapaaehtoisesti mukana touhussa jotta omasta pelistä saadaan paremman näköinen ja saataisiin lisää myyntiä.Mille markkinoille? Meinasit siis että nvidia alkaa pelitaloksi?
Et nyt ilmeisesti tajunnu, nvidia yrittää tuputtaa pelitaloille omia kikkareitaan ja sitten kun on saatu koukkuun, tarjotaan niitä ensin "ilmaiseksi", mutta joskus tulevaisuudessa sopivan hetken tullen muutetaan ehtoja ja aletaan lypsää lisenssimaksuja.
Kun on tarpeeksi syvälle integroitu ne nvidian räpellykset, niin moni kiltisti rupeaa maksamaan koska niistä eroon pääseminen heittäisi takapakkia turhan paljon.
Ei ollut AMD kaikkien muiden kuin TPU:n testeissä nopeampi. Katso nyt vaikka ensi alkuun lainaamasi viestin kuvaajat:TPU tosiaan ajoi testinsä vanhentuneilla systeemeillä ja sen takia nvidia voitti AMD:n. Itsekin sen sittemmin myönsivät, koska heillä oli ainoat sen kaltaiset tulokset. Kaikkien muiden testeissä AMD oli parempi, myös täällä io-techissä.
Jos otetaan kunnon otanta pelejä, kuten TPU ym. niin 1080p reso on ainoa, missä 6800xt on edellä 3090:aa, ja vain jotain pari prossaa nopeampi, kun 3080 1440p resolla. 4k resolla etu sitten onkin jo selkeästi nvidian puolella.
Tuossapa syy kommentille.Ei ollut AMD kaikkien muiden kuin TPU:n testeissä nopeampi. Katso nyt vaikka ensi alkuun lainaamasi viestin kuvaajat:
6800 XT 1440p resolla 2,6% nopeampi kuin 3080
3080 4K resolla 5,4% nopeampi kuin 6800 XT
Ei tuolle ole olemassa yksittäistä lähdettä mutta pelidevien avautumisia löytyy esim redditistä yllin kyllin.
Tämä sama kaava on toistunut vuodesta toiseen. nVidia käyttää suuret määrät rahaa ja aikaa yhteistyöhön niin devaajien kuin koulujen kuin vaikka autovalmistajien kanssa.
Osa täällä ei tunnu tajuavan, että AMD:n paluu high endiin sataa jopa sinne Nvidialaisten laariin. Kukaan ei halua tilannetta, jossa AMD on ahtaalla, ja että palataan taas johonkin 1500e lippulaiva -hintoihin. Ja tästä vielä jumalauta ylistettiin Nvidiaa, kun leikkasivat hintoja. Kyllä keskiverto kuluttajat on tyhmiä kuin saappaat.
Jaa. Aika moni benchmarkien tekijä käyttää edelleen ''Graphics settings maxed'' ja silti RT on/off -testit erikseen.
Kyllä sen nvidian toiminnan hedelmät näkee nyt juuri tästä erosta.Ok. Eli yhtä luotettavaa kuin jotku redditin keskiverto höpinät. Ja vaikka tuo olisi jonkun pienen pelitalon official avautuminen, niin merkittävyys isossa kuvassa ei ole edes kärpäsen kokoinen.
Jep, ja Nvidialla sitä rahaa sijoittaa yhteistyöhön on ollut paljon enemmän vuosien saatossa kuin AMD:lla. Ja erinomaista työtähän Nvidia on bisnesmielessä tehnyt, ei mitään pois heidän suorituksesta. Realiteetit on kuitenkin hyvä ymmärtää. Mitä järkeä AMD:n oli joskus 3-5 vuotta sitten velkakierteessä tukea jotain pieniä pelitaloja? Olisi ollut aivan idiotismia sijoittaa rahat muualle kuin AAA-tuotoksiin.
En pysy kärryillä ajatuksenjuoksussasi, puhuitko siis vain 1440p resosta? Löytyy kyllä arvosteluja, joissa Nvidia silläkin resolla edellä, esim. computerbase.de.Tuossapa syy kommentille.
Näin ollen mun mielestä grafiikkanupit on pienemmällä kuin jos RT olisi päällä. Samassa "graphics settings"-valikoissa ne tapaa ollakin, jos nyt haluaa lisää tyhjänpäiväistä väittelyä käytetyistä termeistä.
Kyllä, ymmärrän pointtisi. Itsekin pelaisin varmaan 9/10 peleistä RT ON, jos se ei imaise pahasti suorituskykyä. Mutta alkuperäinen pointti koski noita benchmarkkeja, ja minusta graphics settings MAX kannattaa toistaiseksi pitää erillisenä, ja RT ON/OFF erillisenä.
Onko tähän mitään muuta oikeutusta, kuin että AMD on siinä selvästi huonompi? Kysyn uudelleen, pitäisikö tekstuuriasetusta pudottaa pelissä, jossa NVidialla loppuu tekstuurimuisti kesken ja AMD:llä riittää?
Onko tähän mitään muuta oikeutusta, kuin että AMD on siinä selvästi huonompi? Kysyn uudelleen, pitäisikö tekstuuriasetusta pudottaa pelissä, jossa NVidialla loppuu tekstuurimuisti kesken ja AMD:llä riittää?
Onko tähän mitään muuta oikeutusta, kuin että AMD on siinä selvästi huonompi? Kysyn uudelleen, pitäisikö tekstuuriasetusta pudottaa pelissä, jossa NVidialla loppuu tekstuurimuisti kesken ja AMD:llä riittää?
Toivon kuitenkin parasta AMD:lle kilpailun kannalta. Firmaa vastaan ei ole mitään hampaankolossa

Kyllä sen nvidian toiminnan hedelmät näkee nyt juuri tästä erosta.
Hyvänä esimerkkinä vaikkaa BF5 johon nvidia auttoi lisäämään toimivat RT opsit kahdessa viikossa kun AMD ei ole saanut samaa tehtyä kahdessa vuodessa.
Nytpä kysyn: miksi ei?
Cyberpunkia voi pelata ilman RT efektejäTäydennystä aiempaan kommenttiini, eli jos haluaa pelata peileistä tehtyjen suojateiden cyberpunkkia niin valitse nvidia, kaikkeen muuhun AMD.
Ero on kuin yöllä ja päivällä

Omissa dioissaan toki toi.
Tuossapa syy kommentille.
Tekoälyhommiin tutustuneena ja keväällä menossa yliopistossa tekoälyn ohjelmointikurssille heitän tähän keskusteluun muutaman kommentin.
Tekoälyhommissa NVidian on kuningas, AMD:llä ei tee juuri mitään. Kyseessä on tosin muna-kana ongelma tällä hetkellä. AMD:llä on kyllä kirjastot kehitteillä jotta niiden kortteja voitaisiin käyttää, mutta ne ovat bugisia ja ei yhtä tuettuja kuin NVidian. Tämä johtuu siitä että niitä ei juurikaan käytetä ja bugeja ei sitten tule korjattua ja niitä ei käytetä koska ovat bugisia...
Miten nopeasti NVidian sivuilta löytää tekoälyjutut vs AMD:n sivuilta? (Vinkki AMD:n AI tukea kutsutaan ROCm:ksi)
Lisämausteen soppaan tuo se, että linuxpuolella NVidiaa taasen vihataan kun se pitää ajurinsa ei avoimina. Nytkin uusin kernel "rikkoi" NVidian purkat jolla se oli kiertänyt avoimuussääntöjä. Tällä hetkellä kierto tuohon poistaa CUDAn käytöstä...
Jos uudet Radeonit olisi ollut RT-suorituskyvyssä 40% parempia kuin GeForcet niin siltikään ne eivät olisi olleet mukana yhteenvetokaavioissa. Kyseessä on yksittäinen ominaisuus, jonka käyttö on toistaiseksi peleissä hyvin minimaalista ja yleensä pitää ottaa erikseen käyttöön, suurinta osaa pelaajista ei välttämättä kiinnosta (minimaalisen visuaalisen hyödyn ja massiivisen suorituskykypenaltin takia) . Testataan meillä ainakin toistaiseksi erillisenä.Jos RT-efektit on pois päältä niin mun mielestä graffa-asetukset ei silloin ole maksimissa.
io-techin testeihin vielä palatakseni niin saatiin ihan päivää ennen 6800 XT ja 6800 julkaisua useampia pelejä Dirt 5, Godfall, Assassin's Creed Valhalla, Watch Dogs: Legion ja CoD Black Ops.
Näistä Godfall vaikutti pelinä vähiten kiinnostavalta, tuskin otetaan mukaan. Cod puolestaan vakuutti, tulossa mukaan testeihin. Cyberpunk 2077 vielä tietysti mukaan joulukuussa.
Toisin kuin esim. TPU joka ajaa läpi valmiin testiskriptin (eivät itse pelaa pelejä, ja tästä syystä voivat ottaa mukaan runsaasti pelejä, kun skrpti jauhaa ja itse voi tehdä jotain muuta), meillä jokainen peli pelataan itse ja samalla tehdään havaintoja todellisesta pelikokemuksesta, jotka otetaan huomioon artikkeleita kirjoittaessa (ajureiden toimivuus, eri pelien käyttäytyminen, jne)
Lisäksi ajamme kaikki testit uusiksi melko matalalla kynnyksellä koska tulokset voivat muuttua melko pienestä (käyttöjärjestelmä, ajurit, pelit päivittyy koko ajan) ja kun erot ovat pieniä niin 1-2 fps johonkin suuntaan tekee tulosten esittämisestä mahdotonta. TPU ja Guru3d esim. käyttävät samoja tuloksia artikkeleissa välillä todella pitkään, kuukausia tai jopa vuosia.
Kun mukaan otetaan vielä absurdit aikataulut artikkeleiden tekemiseen, meidän täytyy todella tarkasti tasapainoilla sen suhteen mitä näytönohjaimia testataan ja kuinka monella pelillä. Ei siis johdu pelien määrä siitä, ettei viitsittäisi, vaan ei yksinkertaisesti pystytä laajemmin (järkevämpää olisi tehdä nykyistä suppeammin, mutta se on eri tarina se)
Benchmark vs todellinen peli saattaa tulla puolin ja toisin tilanteita, että benchmark esim. 4k-resoluutiolla antaa tulokseksi 70 FPS mutta todellinen peli 45 FPS. Toinen, että benchmarkin scene voi olla täysin erilainen, mitä todellinen pelitilanne. Näiden pohjalta minun on ainakin hankala tehdä yhteenvetoa lukijalle.Juu sehän noissa on, että käyttävät niitä samoja tuloksia pitkään ja se on huomioitava varsinkin silloin, kun vertailee eroja vanhempiin näyttiksiin/julkaisuihin. Nyt nämä uudet NVIDIAn ja AMD:n näyttikset on kuitenkin niin lähekkäin julkaistu, että vertailu on omadta mielestä ihan validi, vaikka NVIDIAn vetoja ei uudelleen ole ajettukkaan.
Se on kyllä hienoa, että io-techissä ajetaan aina testit uudelleen ja että pelejä pelataan, eikä ajeta vaan sisään rakennettua benchiä. Toki sisään rakennetut benchit ajaa asiansa, kun vain vertaillaan korttien välisiä eroja, vaikka ne eivät aina pelin oikeita FPS lukemia niin hyvin heijastelisikaan.
Öh wat? Miksi samaan peliin pitäisi lisätä kahteen kertaan?Kyllä sen nvidian toiminnan hedelmät näkee nyt juuri tästä erosta.
Hyvänä esimerkkinä vaikkaa BF5 johon nvidia auttoi lisäämään toimivat RT opsit kahdessa viikossa kun AMD ei ole saanut samaa tehtyä kahdessa vuodessa.
Nytpä kysyn: miksi ei?
ROCm ei ole AMD:n tekoälyjutut vaan ylipäätään laskentajutut (vrt CUDA)Miten nopeasti NVidian sivuilta löytää tekoälyjutut vs AMD:n sivuilta? (Vinkki AMD:n AI tukea kutsutaan ROCm:ksi)
Benchmark vs todellinen peli saattaa tulla puolin ja toisin tilanteita, että benchmark esim. 4k-resoluutiolla antaa tulokseksi 70 FPS mutta todellinen peli 45 FPS. Toinen, että benchmarkin scene voi olla täysin erilainen, mitä todellinen pelitilanne. Näiden pohjalta minun on ainakin hankala tehdä yhteenvetoa lukijalle.
Vaikuttaa kovasti siltä että AMD:n ja nVidian RT toteutukset (niin rauta kuin ajuri) eroaa toisistaan niin paljon että optimaalisen suorituskyvyn saamiseksi kumpikin tarvitsee oman suorituspolkunsa.Öh wat? Miksi samaan peliin pitäisi lisätä kahteen kertaan?
Mutta miksi ihmeessä AMD:n pitäisi pari vuotta vanhaan peliin lähteä rakentamaan uudelleen jotain mikä kuitenkin jo toimii eikä suorituskykykään ole surkea (~RTX 3070 tasoa RT päällä), kun jonossa on pitkä rivi uusia ja tuleviakin pelejä mihin panostaa?Vaikuttaa kovasti siltä että AMD:n ja nVidian RT toteutukset (niin rauta kuin ajuri) eroaa toisistaan niin paljon että optimaalisen suorituskyvyn saamiseksi kumpikin tarvitsee oman suorituspolkunsa.
Jos uudet Radeonit olisi ollut RT-suorituskyvyssä 40% parempia kuin GeForcet niin siltikään ne eivät olisi olleet mukana yhteenvetokaavioissa.
Mielestäni luvattoman bugisesti tuo AMD:n RT toteutus käyttäytyy useimmissa peleissä. Vai onkohan lie se detailien tai esimerkiksi heijastusten syvyyden puuttuminen sittenkin tarkoituksellista...Mutta miksi ihmeessä AMD:n pitäisi pari vuotta vanhaan peliin lähteä rakentamaan uudelleen jotain mikä kuitenkin jo toimii eikä suorituskykykään ole surkea (~RTX 3070 tasoa RT päällä), kun jonossa on pitkä rivi uusia ja tuleviakin pelejä mihin panostaa?
Bugeja voi varmasti olla vielä, eiköhän niitä korjailla sieltä ajureiden puolelta.Mielestäni luvattoman bugisesti tuo AMD:n RT toteutus käyttäytyy useimmissa peleissä. Vai onkohan lie se detailien tai esimerkiksi heijastusten syvyyden puuttuminen sittenkin tarkoituksellista...
Joo, se on vain minun mielestäni todella negatiivista PR:ää jos ei saada edes muutamaa mallipeliä aikaan niin että suorituskyky ja toimivuus on lopullisella tasolla julkaisupäivänä.Bugeja voi varmasti olla vielä, eiköhän niitä korjailla sieltä ajureiden puolelta.
Dirt 5, GodFall ja WoW: Shadowlands? Ja kyllähän suurin osa vanhoista RT-peleistä toimii niin kuin pitää?Joo, se on vain minun mielestäni todella negatiivista PR:ää jos ei saada edes muutamaa mallipeliä aikaan niin että suorituskyky ja toimivuus on lopullisella tasolla julkaisupäivänä.
Ui ui, nyt on itselle kova fiitseri. Onkohan virtuaali winkkarills joku ajellut testejä.Tässä siis puhun Linuxin ajureista (ja näistä Radeon 6800 korteista), jotka toimivat sekä natiiveissa peleissä että pelien pelaamiseen windowssin virtuaalikoneessa niin hyvin että 4k pelaaminen on tullut myös Linuxille jäädäkseen.
Käytämme välttämättömiä evästeitä, jotta tämä sivusto toimisi, ja valinnaisia evästeitä käyttökokemuksesi parantamiseksi.