Virallinen: NVIDIA vs AMD (vs Intel) keskustelu- ja väittelyketju

  • Keskustelun aloittaja Keskustelun aloittaja Sampsa
  • Aloitettu Aloitettu
Oliko sulla jotain kommentoitavaa noista?

Kyllä. Kun grafiikka-asetuksia lasketaan sopivasti AMD:n eduksi, niin tilanne on tuo. ;)
Mitä yrität sanoa? Grafiikka-asetukset on pyritty asettamaan maksimiin joka pelissä.
 


Miksi sitten tuossa videossa käyttää jos ei muuten muka? Saa muuten saman 104 fps tulokseksi.

Käytetty benchmarkia, koska se on videolla helpompi esittää kuin Ocatilla 60s pelipätkän testaaminen + videolla on haastettu katsojat esittämään paremmat tulokset, se ei oikein onnistu jollain meidän omaöla testipätkällä
 
No mutta olisihan se aivan typerää jos oikeasti markkinoille haluava yhtiö ei näin toimisi. Etenkin jos näkevät että asiakas ei osaa.

AMDn tulisi petrata ja kovasti.

Mille markkinoille? Meinasit siis että nvidia alkaa pelitaloksi?

Et nyt ilmeisesti tajunnu, nvidia yrittää tuputtaa pelitaloille omia kikkareitaan ja sitten kun on saatu koukkuun, tarjotaan niitä ensin "ilmaiseksi", mutta joskus tulevaisuudessa sopivan hetken tullen muutetaan ehtoja ja aletaan lypsää lisenssimaksuja.
Kun on tarpeeksi syvälle integroitu ne nvidian räpellykset, niin moni kiltisti rupeaa maksamaan koska niistä eroon pääseminen heittäisi takapakkia turhan paljon.
 
Kaikkiin mainoksiin ei kannata uskoa sokeasti.
Tensoriyksiköt soveltuvat toki erityisen hyvin tekoälytehtäviin liittyviin laskuihin, mutta aika löyhin perustein mennään IMO jos esiopetetun neuroverkon käyttö referenssinä skaalausoperaatiossa on "tekoälykiihdytystä".
Ja kuten jo todettua, 4K DLSS:llä ei ole 4K:ta lähelläkään, vaan skaalattua matalamman resoluution kuvaa.

Säteenseuranta ja tekoälykiihdytys on ihan selkolukuisia termejä tavantallaajalle ja nimenomaan tekoälykiihdytyksellä tehty skaalaus on lähes yhtähyvän näköistä kuin korkeampi resoluutio, joten tässäkin pitkällä tähtäimellä saadaan tuotteesta paljon enemmän iloa kuin ilman niitä.
 
En ole utse tommosesta kuullut, mutta tässä esim tech spotin koonnit 16 pelin keskiarvosta.

Screenshot_20201121_212230_com.android.chrome.png


Screenshot_20201121_212244_com.android.chrome.png
TPU tosiaan ajoi testinsä vanhentuneilla systeemeillä ja sen takia nvidia voitti AMD:n. Itsekin sen sittemmin myönsivät, koska heillä oli ainoat sen kaltaiset tulokset. Kaikkien muiden testeissä AMD oli parempi, myös täällä io-techissä.
 
TPU tosiaan ajoi testinsä vanhentuneilla systeemeillä ja sen takia nvidia voitti AMD:n. Itsekin sen sittemmin myönsivät, koska heillä oli ainoat sen kaltaiset tulokset. Kaikkien muiden testeissä AMD oli parempi, myös täällä io-techissä.
Millä vanhentuneilla systeemeilla?
 
Mahtaako se enää pitää paikkansa mitä pelinkehittäjät on vikoneet ennen että siinä missä nvidia tarjoaa pienillekin pelitaloille lainarautaa ja apua pelien koodailuun ja nvidian fiitsöreiden käyttöön amd:llä taas tuntuu olevan vaikea löytää edes yhteystietoa semmoiseen tyyppiin joka voisi auttaa.

Lähdettä tälle? Minä voin kans väittää (kuten aikanaan AMD väitti), että Nvidia aikanaan härskisti sabotoi AMD:ta Witcherin pelikehityksessä, ja että Nvidian gameworks oli yksi työkalu ajaa AMD lopullisesti pois markkinoilta. Monopoli syytösten myötä onneksi luopuivat tuosta. Ja voin väittää että G-sync on Nvidian suljettu järjestelmä jossa rahastetaan kuluttajilta fyrkkaa myymällä ylihintaisia monitoreja G-sync leimalla, eikä noita enabloida AMD:n korteille, jotta kuluttajat pysyy markkinakuninkaan leirissä.

Osa täällä ei tunnu tajuavan, että AMD:n paluu high endiin sataa jopa sinne Nvidialaisten laariin. Kukaan ei halua tilannetta, jossa AMD on ahtaalla, ja että palataan taas johonkin ''4080ti 1500e -hintoihin. Ja tästä vielä jumalauta ylistettiin Nvidiaa, kun leikkasivat hintoja. Kyllä keskiverto kuluttajat on tyhmiä kuin saappaat.
 
Viimeksi muokattu:
Jos RT-efektit on pois päältä niin mun mielestä graffa-asetukset ei silloin ole maksimissa.

Jaa. Aika moni benchmarkien tekijä käyttää edelleen ''Graphics settings maxed'' ja silti RT on/off -testit erikseen. Toivon ettei tuota RT:tä sotketa klassisten grafiikka-asetusten sekaan, koska sitä se ei ole. Kyseessä on poikkeuksellinen asetus monella tapaa.
 
Mille markkinoille? Meinasit siis että nvidia alkaa pelitaloksi?

Et nyt ilmeisesti tajunnu, nvidia yrittää tuputtaa pelitaloille omia kikkareitaan ja sitten kun on saatu koukkuun, tarjotaan niitä ensin "ilmaiseksi", mutta joskus tulevaisuudessa sopivan hetken tullen muutetaan ehtoja ja aletaan lypsää lisenssimaksuja.
Kun on tarpeeksi syvälle integroitu ne nvidian räpellykset, niin moni kiltisti rupeaa maksamaan koska niistä eroon pääseminen heittäisi takapakkia turhan paljon.

Tottakai nvidia neuvoo pelitaloja tekemään temput nvidian raudalla niin että ne toimviat optimaalisesti! Miksi ihmeessä eivät tekisi näin?
 
Lähdettä tälle? Minä voin kans väittää (kuten aikanaan AMD väitti), että Nvidia aikanaan härskisti sabotoi AMD:ta Witcherin pelikehityksessä, ja että Nvidian gameworks oli yksi työkalu ajaa AMD lopullisesti pois markkinoilta. Monopoli syytösten myötä onneksi luopuivat tuosta. Ja voin väittää että G-sync on Nvidian suljettu järjestelmä jossa rahastetaan kuluttajilta fyrkkaa myymällä ylihintaisia monitoreja G-sync leimalla, eikä noita enabloida AMD:n korteille, jotta kuluttajat pysyy markkinakuninkaan leirissä.

Osa täällä ei tunnu tajuavan, että AMD:n paluu high endiin sataa jopa sinne Nvidialaisten laariin. Kukaan ei halua tilannetta, jossa AMD on ahtaalla, ja että palataan taas johonkin 1500e lippulaiva -hintoihin. Ja tästä vielä jumalauta ylistettiin Nvidiaa, kun leikkasivat hintoja. Kyllä keskiverto kuluttajat on tyhmiä kuin saappaat.
Ei tuolle ole olemassa yksittäistä lähdettä mutta pelidevien avautumisia löytyy esim redditistä yllin kyllin.

Tämä sama kaava on toistunut vuodesta toiseen. nVidia käyttää suuret määrät rahaa ja aikaa yhteistyöhön niin devaajien kuin koulujen kuin vaikka autovalmistajien kanssa.

1605988679699.png
 
Mille markkinoille? Meinasit siis että nvidia alkaa pelitaloksi?

Et nyt ilmeisesti tajunnu, nvidia yrittää tuputtaa pelitaloille omia kikkareitaan ja sitten kun on saatu koukkuun, tarjotaan niitä ensin "ilmaiseksi", mutta joskus tulevaisuudessa sopivan hetken tullen muutetaan ehtoja ja aletaan lypsää lisenssimaksuja.
Kun on tarpeeksi syvälle integroitu ne nvidian räpellykset, niin moni kiltisti rupeaa maksamaan koska niistä eroon pääseminen heittäisi takapakkia turhan paljon.
On kummallista miten se syyttävä sormi osoittaa aina Nvidiaa päin kun kyseessähän on ihan tyypillinen teknologisen etumatkan hyödyntäminen bisnesmielessä. On kilpailijoiden vastuulla tarjota devaajille vaihtoehtoja. Nvidia kehittää näitä teknologioita jotta pelit ottaisivat niitä käyttöön ja pelaajat ostaisivat niitä varten tehokkaampaa rautaa. Bisnestä tuo on. Ei Nvidia työnnä pyssyä ohimolle ja pakota yhtäkään deviä mukaan tuohon touhuun, vaan devitkin ovat täysin vapaaehtoisesti mukana touhussa jotta omasta pelistä saadaan paremman näköinen ja saataisiin lisää myyntiä.

Ei Nvidia huvikseen ole vuosikymmeniä kehittänyt omaa implementaatiotaan, ja testeistähän näkee että se on huomattavasti AMD:n räpellystä tehokkaampi. AMD riittää ehkä muutaman hassun lätäkön peilaamiseen, mutta sitten kun siirrytään enemmän ja enemmän kohti full scene raytracingiä niin 6000-sarjalaiset paskoo alleen totaalisesti.

Cyberpunkin eri RT-tasot on takuulla optimoitu Nvidia korttien mukaan koska ne ovat olleet markkinoilla pidemmän aikaa. CDPR:llä on intresseissään pitää huoli siitä että pelaaja joka kytkee RT:n päälle saa jossain määrin hyväksyttävän suorituskyvyn RT:n ollessa päällä. Jos AMD:ltä ei sitä saa, niin sitten se disabloidaan, samalla tavalla kun se disabloidaan Pascal-korttien omistajilta, koska huono suorituskyky heijastuu negatiivisesti myös peliä kohtaan. Sitten kun se on korjattu AMD:n tai CDPR:n tai molempien toimesta, se patchataan käyttöön. Se että Cyberpunk ei tue AMD:n räpellyksiä on tasan tarkkaan AMD:n vika, eikä kenenkään muun.
 
TPU tosiaan ajoi testinsä vanhentuneilla systeemeillä ja sen takia nvidia voitti AMD:n. Itsekin sen sittemmin myönsivät, koska heillä oli ainoat sen kaltaiset tulokset. Kaikkien muiden testeissä AMD oli parempi, myös täällä io-techissä.
Ei ollut AMD kaikkien muiden kuin TPU:n testeissä nopeampi. Katso nyt vaikka ensi alkuun lainaamasi viestin kuvaajat:

6800 XT 1440p resolla 2,6% nopeampi kuin 3080
3080 4K resolla 5,4% nopeampi kuin 6800 XT
 
Jos otetaan kunnon otanta pelejä, kuten TPU ym. niin 1080p reso on ainoa, missä 6800xt on edellä 3090:aa, ja vain jotain pari prossaa nopeampi, kun 3080 1440p resolla. 4k resolla etu sitten onkin jo selkeästi nvidian puolella.
Ei ollut AMD kaikkien muiden kuin TPU:n testeissä nopeampi. Katso nyt vaikka ensi alkuun lainaamasi viestin kuvaajat:

6800 XT 1440p resolla 2,6% nopeampi kuin 3080
3080 4K resolla 5,4% nopeampi kuin 6800 XT
Tuossapa syy kommentille.
 
Ei tuolle ole olemassa yksittäistä lähdettä mutta pelidevien avautumisia löytyy esim redditistä yllin kyllin.

Ok. Eli yhtä luotettavaa kuin jotku redditin keskiverto höpinät. Ja vaikka tuo olisi jonkun pienen pelitalon official avautuminen, niin merkittävyys isossa kuvassa ei ole edes kärpäsen kokoinen.

Tämä sama kaava on toistunut vuodesta toiseen. nVidia käyttää suuret määrät rahaa ja aikaa yhteistyöhön niin devaajien kuin koulujen kuin vaikka autovalmistajien kanssa.

Jep, ja Nvidialla sitä rahaa sijoittaa yhteistyöhön on ollut paljon enemmän vuosien saatossa kuin AMD:lla. Ja erinomaista työtähän Nvidia on bisnesmielessä tehnyt, ei mitään pois heidän suorituksesta. Realiteetit on kuitenkin hyvä ymmärtää. Mitä järkeä AMD:n oli joskus 3-5 vuotta sitten velkakierteessä tukea jotain pieniä pelitaloja? Olisi ollut aivan idiotismia sijoittaa rahat muualle kuin AAA-tuotoksiin.
 
Osa täällä ei tunnu tajuavan, että AMD:n paluu high endiin sataa jopa sinne Nvidialaisten laariin. Kukaan ei halua tilannetta, jossa AMD on ahtaalla, ja että palataan taas johonkin 1500e lippulaiva -hintoihin. Ja tästä vielä jumalauta ylistettiin Nvidiaa, kun leikkasivat hintoja. Kyllä keskiverto kuluttajat on tyhmiä kuin saappaat.

Jep tämä on parasta pitkään aikaan kuluttajan kannalta ja nythän tässä vasta on syytä väitellä jostakin, kun kilpailua on syntynyt.

Olettaen että katsotaan konkreettisesti uusimpia julkaisuja, näyttää siltä että AMD on pistänyt paukut siihen mitä Nvidialta tuli 1000- sarjassa ja menee niissä mittareissa jopa kärkeen . Nvidiahan laittoi pari sukupolvea sitten koko konseptin uusiksi ja nyt vasta alkaa jotain hyötyä noista hienouksista saamaan kun alusta on riittävän kypsä. AMD:llä on taas näissä roppakaupalla kehittämistä tuleviin sukupolviin, jos mielii pysyä mukana aallon harjalla.

Sinänsä nyt näykkärin hankkivalla voi helposti tulla pettymyksiä jos ei näihin ominaisuuksiin perehdy, kun ei näitä tunnu tekniikkasivujen arvostelijatkaan hypetyksissään mainitsevan.
 
Jaa. Aika moni benchmarkien tekijä käyttää edelleen ''Graphics settings maxed'' ja silti RT on/off -testit erikseen.

Semantiikkakikkailua. Saahan se toki AMD:n näyttämään paremmalta, oli se sitten tarkoitus tai ei. RT päällä luodaan ruudulle jotain, mikä ilman RT:tä joko puuttuu kokonaan, tai on teknisesti yksinkertaisempi ja visuaalisesti vaatimattomampi vaihtoehto. Screenspace-heijastuksia voisi tietämättömämpi kutsua bugisiksi, kun ne niin helposti sekoilee. Toimivathan ne niinkuin kuuluu, ne vain ovat vähän purkkaviritys. Cube mapit taas näyttää aika kamalalle. Näin ollen mun mielestä grafiikkanupit on pienemmällä kuin jos RT olisi päällä. Samoissa "graphics settings"-valikoissa ne tapaa ollakin, jos nyt haluaa lisää tyhjänpäiväistä väittelyä käytetyistä termeistä.

Jonkun 1-10% edun rasteroinnissa AMD:n voitoksi hädin tuskin huomaa, ainakin jos on AMD-faneja uskominen prossupuolella, ja sekin prosenttihaarukka on näköjään vielä kiistanalainen. Useiden kymmenien, tai jopa satojen prosenttien edun RT päällä NVidian eduksi huomaa jo selvästi. Nyt AMD:n RT-toteutusta puoltaa ainoastaan Fine Wine-lupaukset ( huomaatteko trendin ) ja yksi peli.

Toivon kuitenkin parasta AMD:lle kilpailun kannalta. Firmaa vastaan ei ole mitään hampaankolossa, kuten ei NVidiaa tai Inteliäkään vastaan.
 
Ok. Eli yhtä luotettavaa kuin jotku redditin keskiverto höpinät. Ja vaikka tuo olisi jonkun pienen pelitalon official avautuminen, niin merkittävyys isossa kuvassa ei ole edes kärpäsen kokoinen.

Jep, ja Nvidialla sitä rahaa sijoittaa yhteistyöhön on ollut paljon enemmän vuosien saatossa kuin AMD:lla. Ja erinomaista työtähän Nvidia on bisnesmielessä tehnyt, ei mitään pois heidän suorituksesta. Realiteetit on kuitenkin hyvä ymmärtää. Mitä järkeä AMD:n oli joskus 3-5 vuotta sitten velkakierteessä tukea jotain pieniä pelitaloja? Olisi ollut aivan idiotismia sijoittaa rahat muualle kuin AAA-tuotoksiin.
Kyllä sen nvidian toiminnan hedelmät näkee nyt juuri tästä erosta.

Hyvänä esimerkkinä vaikkaa BF5 johon nvidia auttoi lisäämään toimivat RT opsit kahdessa viikossa kun AMD ei ole saanut samaa tehtyä kahdessa vuodessa.

Nytpä kysyn: miksi ei?
 
Näin ollen mun mielestä grafiikkanupit on pienemmällä kuin jos RT olisi päällä. Samassa "graphics settings"-valikoissa ne tapaa ollakin, jos nyt haluaa lisää tyhjänpäiväistä väittelyä käytetyistä termeistä.

Kyllä, ymmärrän pointtisi. Itsekin pelaisin varmaan 9/10 peleistä RT ON, jos se ei imaise pahasti suorituskykyä. Mutta alkuperäinen pointti koski noita benchmarkkeja, ja minusta graphics settings MAX kannattaa toistaiseksi pitää erillisenä, ja RT ON/OFF erillisenä.
 
Kyllä, ymmärrän pointtisi. Itsekin pelaisin varmaan 9/10 peleistä RT ON, jos se ei imaise pahasti suorituskykyä. Mutta alkuperäinen pointti koski noita benchmarkkeja, ja minusta graphics settings MAX kannattaa toistaiseksi pitää erillisenä, ja RT ON/OFF erillisenä.

Onko tähän mitään muuta oikeutusta, kuin että AMD on siinä selvästi huonompi? Kysyn uudelleen, pitäisikö tekstuuriasetusta pudottaa pelissä, jossa NVidialla loppuu tekstuurimuisti kesken ja AMD:llä riittää?
 
Onko tähän mitään muuta oikeutusta, kuin että AMD on siinä selvästi huonompi? Kysyn uudelleen, pitäisikö tekstuuriasetusta pudottaa pelissä, jossa NVidialla loppuu tekstuurimuisti kesken ja AMD:llä riittää?

Tuolla tavalla 1080TI teurastaa koko Turing perheen benchmarkeissa, maksimit silläkin on käytössä noissa RT peleissä. Ynnä RT pelejä on nyt kourallinen, rasterointipelejä on tuhansia. VR bechmarkille olisi paljon enemmän käyttöä, pelejäkin on moninkertainen määrä RT peleihin, mutta testit on kortilla.

Edit: Tai no 1080TI:lla saa valtaosasta peleistä RT:n päälle, mutta idea kai tuli selväksi. Todella paljon raskaampi asetus, jota valtaosa korteista ei tue ja ne vaihtaa kevyempään rendauspolkuun. Siten sekoittuvat tulokset vetää testin kuraksi. Parempi ne on pitää erillään.
 
Onko tähän mitään muuta oikeutusta, kuin että AMD on siinä selvästi huonompi? Kysyn uudelleen, pitäisikö tekstuuriasetusta pudottaa pelissä, jossa NVidialla loppuu tekstuurimuisti kesken ja AMD:llä riittää?

Näinhän on Doom eternalissa tehty 3070 kortin takia Hardware Unboxed videolla, eli tulos on tarkoituksella ajettu myös yhtä pykälää matalammalla tekstuuriasetuksilla vielä erikseen että nähdään miten se vaikuttaa ko. kortin suorituskykyyn.

En tiedä oletko huomannut, mutta suurin osa testaajista kytkee esim. Hairworks asetuksen pois päältä jo nykyisin.

En tiedä miksi RT asetus pitäisi olla vakiona päällä, kun se ei käytännössä ole nykyään käytännössä koskaan se pelin kannalta paras asetus (suorituskyky kyykkää niin paljon että suurin osa peleistä on 'parempia' ilman sitä).

Se miksi AMD ei ole tehnyt parin vuoden takaiseen peliin omaa RT asetustaan saataville optimoitavaksi on varmaan siinä että RT kortteja ei ole ollut. Vastaavasti Cyberpunk lisää RT tuen käsittääkseni konsoleille muutenkin myöhemmin, joten tuo on aika linjassa sen kanssa että peli on muutenkin jo myöhässä ja se hiominen hoidetaan samalla sitten kunnolla myös konsoleille.
 
Onko tähän mitään muuta oikeutusta, kuin että AMD on siinä selvästi huonompi? Kysyn uudelleen, pitäisikö tekstuuriasetusta pudottaa pelissä, jossa NVidialla loppuu tekstuurimuisti kesken ja AMD:llä riittää?

Ihme venkoilua. Mulle on ihan sama vaikka siellä olisi benchmarkeissa vastakkain Apple ja Mersu, mutta jos RT:tä aletaan tunkemaan sinun kyseenalaisen agendasi vuoksi muiden grafiikka-asetusten sekaan, niin benchmarkit menee sellaisiksi jossa kuluttajat häviää. Katsotaan asiaa sitten uudestaan, kun RT alkaa olla ns. valtavirtaa peleissä. Tällä hetkellä Nvidiankin kortit kyykkää RT:n kanssa jossain perunalla pyörivässä Quakessa. Mitä järkeä tuollaisessa pelissä olisi tehdä ''all settings maxed'' jossa olisi RT mukana? Harva kuluttaja halunnee tässä kohtaa nähdä ''all settings max'' -asetusten seassa RT:tä, jolloin nuo RT ON/OFF -testit palvelee tällä hetkellä hyvin. Paitsi sinun agendaasi, jossa ei ole mitään objektiivisuutta.

Toivon kuitenkin parasta AMD:lle kilpailun kannalta. Firmaa vastaan ei ole mitään hampaankolossa

:sysopwtf:
 
Viimeksi muokattu:
Kyllä sen nvidian toiminnan hedelmät näkee nyt juuri tästä erosta.

Kyllä, varmasti isolla otannalla Nvidia saa etua resurssiensa ja tukemistensa vuoksi.

Hyvänä esimerkkinä vaikkaa BF5 johon nvidia auttoi lisäämään toimivat RT opsit kahdessa viikossa kun AMD ei ole saanut samaa tehtyä kahdessa vuodessa.

Nytpä kysyn: miksi ei?

Tätä pitäisi kysyä AMD:lta tai EA:lta. Voi olla ajureista johtuvaa, kuka tietää. Ja omallakin kokemuksellani Nvidian ajurit on keskimäärin parempia. Toki tässä BF5 RT -tapauksessa ero on niin iso, että voi johtua muustakin kuin ajureista. Aika näyttää. Isoja lastentauteja näissä julkaisun jälkeisissä ajureissa oli Nvidiallakin. Otetaan lisää otantaa molempien leirien julkaisuista, ennen kuin tuomitaan.
 
Minusta jokainen 3080-tilausjonosta AMD:n puolelle hyppäävä kuluttaja on voitto. Silti olen 101-prosenttisen varma, että siinä vaiheessa kun AMD saa luotua kelvollisen säteenseurantatoteutuksen, tämä porukka, joka nyt vähättelee säteenseurannan merkitystä, vaihtaa mieltään silmänräpäyksessä.

Ne meistä, jotka eivät harrasta kuluttajaelektroniikan palvomista, katsovat asiaa käytännöllisestä lähtökohdasta: millaisia kokemuksia ja millaisen elinkaaren saan sinänsä aivan järkyttävän n. 800 euron investoinnin vastineeksi? Voi legitiimisti olla sellaisia, joille vain rasteroinnilla on merkitystä, mutta uskon, että itse asiassa valtaosa tällaisen tuotteen ostajista tulee ennemmin tai myöhemmin tuotteen elinkaaren aikana pitämään RT:tä tärkeänä.
 
Tekoälyhommiin tutustuneena ja keväällä menossa yliopistossa tekoälyn ohjelmointikurssille heitän tähän keskusteluun muutaman kommentin.

Tekoälyhommissa NVidian on kuningas, AMD:llä ei tee juuri mitään. Kyseessä on tosin muna-kana ongelma tällä hetkellä. AMD:llä on kyllä kirjastot kehitteillä jotta niiden kortteja voitaisiin käyttää, mutta ne ovat bugisia ja ei yhtä tuettuja kuin NVidian. Tämä johtuu siitä että niitä ei juurikaan käytetä ja bugeja ei sitten tule korjattua ja niitä ei käytetä koska ovat bugisia...
Miten nopeasti NVidian sivuilta löytää tekoälyjutut vs AMD:n sivuilta? (Vinkki AMD:n AI tukea kutsutaan ROCm:ksi)

Lisämausteen soppaan tuo se, että linuxpuolella NVidiaa taasen vihataan kun se pitää ajurinsa ei avoimina. Nytkin uusin kernel "rikkoi" NVidian purkat jolla se oli kiertänyt avoimuussääntöjä. Tällä hetkellä kierto tuohon poistaa CUDAn käytöstä...
 
Omissa dioissaan toki toi.

Kyllä se toi ihan oikeasti. Katsoppas noita puhtaita rt benchejä. Esim. Quake2 RTX.

Ja kyllähän se RT perffi on noissa hybridi peleissäkin noussut helposti sen 80% minimissään. Suuressa osassa noin 90%
 
Viimeksi muokattu:
Tuossapa syy kommentille.

Mutta kun ne mun laittamat käppyrät ei ole tpu:n tuloksia. Että ei ole TPU ainoa, jossa saatu vastaavia tuloksia. Mitä enemmän pelejä testissä, sitä pienempi näyttää se RX6000 sarjan etu olevan 1080p ja 1440p resoilla. Harva lafka vaan ajaa lähellekkään yhtä isoilla peliseteillä noita, kun TPU ja näemmä tuo Tech Spot.
 
Tekoälyhommiin tutustuneena ja keväällä menossa yliopistossa tekoälyn ohjelmointikurssille heitän tähän keskusteluun muutaman kommentin.

Tekoälyhommissa NVidian on kuningas, AMD:llä ei tee juuri mitään. Kyseessä on tosin muna-kana ongelma tällä hetkellä. AMD:llä on kyllä kirjastot kehitteillä jotta niiden kortteja voitaisiin käyttää, mutta ne ovat bugisia ja ei yhtä tuettuja kuin NVidian. Tämä johtuu siitä että niitä ei juurikaan käytetä ja bugeja ei sitten tule korjattua ja niitä ei käytetä koska ovat bugisia...
Miten nopeasti NVidian sivuilta löytää tekoälyjutut vs AMD:n sivuilta? (Vinkki AMD:n AI tukea kutsutaan ROCm:ksi)

Lisämausteen soppaan tuo se, että linuxpuolella NVidiaa taasen vihataan kun se pitää ajurinsa ei avoimina. Nytkin uusin kernel "rikkoi" NVidian purkat jolla se oli kiertänyt avoimuussääntöjä. Tällä hetkellä kierto tuohon poistaa CUDAn käytöstä...

And:lla aika isoja voittoja supertietokone puolella, satanee myös rocm kehityksen laariin. Sen lisäksi, että nyt taloudellinen tilanne muutenkin sallii työkaluihin panostaminen täysin eri tavalla.
 
Jos RT-efektit on pois päältä niin mun mielestä graffa-asetukset ei silloin ole maksimissa.
Jos uudet Radeonit olisi ollut RT-suorituskyvyssä 40% parempia kuin GeForcet niin siltikään ne eivät olisi olleet mukana yhteenvetokaavioissa. Kyseessä on yksittäinen ominaisuus, jonka käyttö on toistaiseksi peleissä hyvin minimaalista ja yleensä pitää ottaa erikseen käyttöön, suurinta osaa pelaajista ei välttämättä kiinnosta (minimaalisen visuaalisen hyödyn ja massiivisen suorituskykypenaltin takia) . Testataan meillä ainakin toistaiseksi erillisenä.

Sun motivaatio näyttää olevan, että NVIDIAn saisi edelle, meillä tälläistä intressiä ei kummankaan valmistajan suhteen ole.
 
io-techin testeihin vielä palatakseni niin saatiin ihan päivää ennen 6800 XT ja 6800 julkaisua useampia pelejä Dirt 5, Godfall, Assassin's Creed Valhalla, Watch Dogs: Legion ja CoD Black Ops.

Näistä Godfall vaikutti pelinä vähiten kiinnostavalta, tuskin otetaan mukaan. Cod puolestaan vakuutti, tulossa mukaan testeihin. Cyberpunk 2077 vielä tietysti mukaan joulukuussa.

Toisin kuin esim. TPU joka ajaa läpi valmiin testiskriptin (eivät itse pelaa pelejä, ja tästä syystä voivat ottaa mukaan runsaasti pelejä, kun skrpti jauhaa ja itse voi tehdä jotain muuta), meillä jokainen peli pelataan itse ja samalla tehdään havaintoja todellisesta pelikokemuksesta, jotka otetaan huomioon artikkeleita kirjoittaessa (ajureiden toimivuus, eri pelien käyttäytyminen, jne)

Lisäksi ajamme kaikki testit uusiksi melko matalalla kynnyksellä koska tulokset voivat muuttua melko pienestä (käyttöjärjestelmä, ajurit, pelit päivittyy koko ajan) ja kun erot ovat pieniä niin 1-2 fps johonkin suuntaan tekee tulosten esittämisestä mahdotonta. TPU ja Guru3d esim. käyttävät samoja tuloksia artikkeleissa välillä todella pitkään, kuukausia tai jopa vuosia.

Kun mukaan otetaan vielä absurdit aikataulut artikkeleiden tekemiseen, meidän täytyy todella tarkasti tasapainoilla sen suhteen mitä näytönohjaimia testataan ja kuinka monella pelillä. Ei siis johdu pelien määrä siitä, ettei viitsittäisi, vaan ei yksinkertaisesti pystytä laajemmin (järkevämpää olisi tehdä nykyistä suppeammin, mutta se on eri tarina se)
 
Viimeksi muokattu:
io-techin testeihin vielä palatakseni niin saatiin ihan päivää ennen 6800 XT ja 6800 julkaisua useampia pelejä Dirt 5, Godfall, Assassin's Creed Valhalla, Watch Dogs: Legion ja CoD Black Ops.

Näistä Godfall vaikutti pelinä vähiten kiinnostavalta, tuskin otetaan mukaan. Cod puolestaan vakuutti, tulossa mukaan testeihin. Cyberpunk 2077 vielä tietysti mukaan joulukuussa.

Toisin kuin esim. TPU joka ajaa läpi valmiin testiskriptin (eivät itse pelaa pelejä, ja tästä syystä voivat ottaa mukaan runsaasti pelejä, kun skrpti jauhaa ja itse voi tehdä jotain muuta), meillä jokainen peli pelataan itse ja samalla tehdään havaintoja todellisesta pelikokemuksesta, jotka otetaan huomioon artikkeleita kirjoittaessa (ajureiden toimivuus, eri pelien käyttäytyminen, jne)

Lisäksi ajamme kaikki testit uusiksi melko matalalla kynnyksellä koska tulokset voivat muuttua melko pienestä (käyttöjärjestelmä, ajurit, pelit päivittyy koko ajan) ja kun erot ovat pieniä niin 1-2 fps johonkin suuntaan tekee tulosten esittämisestä mahdotonta. TPU ja Guru3d esim. käyttävät samoja tuloksia artikkeleissa välillä todella pitkään, kuukausia tai jopa vuosia.

Kun mukaan otetaan vielä absurdit aikataulut artikkeleiden tekemiseen, meidän täytyy todella tarkasti tasapainoilla sen suhteen mitä näytönohjaimia testataan ja kuinka monella pelillä. Ei siis johdu pelien määrä siitä, ettei viitsittäisi, vaan ei yksinkertaisesti pystytä laajemmin (järkevämpää olisi tehdä nykyistä suppeammin, mutta se on eri tarina se)

Juu sehän noissa on, että käyttävät niitä samoja tuloksia pitkään ja se on huomioitava varsinkin silloin, kun vertailee eroja vanhempiin näyttiksiin/julkaisuihin. Nyt nämä uudet NVIDIAn ja AMD:n näyttikset on kuitenkin niin lähekkäin julkaistu, että vertailu on omadta mielestä ihan validi, vaikka NVIDIAn vetoja ei uudelleen ole ajettukkaan.

Se on kyllä hienoa, että io-techissä ajetaan aina testit uudelleen ja että pelejä pelataan, eikä ajeta vaan sisään rakennettua benchiä. Toki sisään rakennetut benchit ajaa asiansa, kun vain vertaillaan korttien välisiä eroja, vaikka ne eivät aina pelin oikeita FPS lukemia niin hyvin heijastelisikaan.
 
Juu sehän noissa on, että käyttävät niitä samoja tuloksia pitkään ja se on huomioitava varsinkin silloin, kun vertailee eroja vanhempiin näyttiksiin/julkaisuihin. Nyt nämä uudet NVIDIAn ja AMD:n näyttikset on kuitenkin niin lähekkäin julkaistu, että vertailu on omadta mielestä ihan validi, vaikka NVIDIAn vetoja ei uudelleen ole ajettukkaan.

Se on kyllä hienoa, että io-techissä ajetaan aina testit uudelleen ja että pelejä pelataan, eikä ajeta vaan sisään rakennettua benchiä. Toki sisään rakennetut benchit ajaa asiansa, kun vain vertaillaan korttien välisiä eroja, vaikka ne eivät aina pelin oikeita FPS lukemia niin hyvin heijastelisikaan.
Benchmark vs todellinen peli saattaa tulla puolin ja toisin tilanteita, että benchmark esim. 4k-resoluutiolla antaa tulokseksi 70 FPS mutta todellinen peli 45 FPS. Toinen, että benchmarkin scene voi olla täysin erilainen, mitä todellinen pelitilanne. Näiden pohjalta minun on ainakin hankala tehdä yhteenvetoa lukijalle.
 
Kyllä sen nvidian toiminnan hedelmät näkee nyt juuri tästä erosta.

Hyvänä esimerkkinä vaikkaa BF5 johon nvidia auttoi lisäämään toimivat RT opsit kahdessa viikossa kun AMD ei ole saanut samaa tehtyä kahdessa vuodessa.

Nytpä kysyn: miksi ei?
Öh wat? Miksi samaan peliin pitäisi lisätä kahteen kertaan?
Miten nopeasti NVidian sivuilta löytää tekoälyjutut vs AMD:n sivuilta? (Vinkki AMD:n AI tukea kutsutaan ROCm:ksi)
ROCm ei ole AMD:n tekoälyjutut vaan ylipäätään laskentajutut (vrt CUDA)
 
Benchmark vs todellinen peli saattaa tulla puolin ja toisin tilanteita, että benchmark esim. 4k-resoluutiolla antaa tulokseksi 70 FPS mutta todellinen peli 45 FPS. Toinen, että benchmarkin scene voi olla täysin erilainen, mitä todellinen pelitilanne. Näiden pohjalta minun on ainakin hankala tehdä yhteenvetoa lukijalle.

Joo noinhan ne menee ja se onkin hyvä juttu, että teidän testeistä näkee, miten ne testatut pelit oikeasti toimii niillä testatuilla näyttiksillä.

Mutta jos keskitytään vain näytönohjaimien välisiin eroihin, niin sisäiset benchit toimii siinä suht hyvin kyllä, vaikka toki pientä eroa siinäkin voi tulla.
 
Öh wat? Miksi samaan peliin pitäisi lisätä kahteen kertaan?
Vaikuttaa kovasti siltä että AMD:n ja nVidian RT toteutukset (niin rauta kuin ajuri) eroaa toisistaan niin paljon että optimaalisen suorituskyvyn saamiseksi kumpikin tarvitsee oman suorituspolkunsa.
 
Vaikuttaa kovasti siltä että AMD:n ja nVidian RT toteutukset (niin rauta kuin ajuri) eroaa toisistaan niin paljon että optimaalisen suorituskyvyn saamiseksi kumpikin tarvitsee oman suorituspolkunsa.
Mutta miksi ihmeessä AMD:n pitäisi pari vuotta vanhaan peliin lähteä rakentamaan uudelleen jotain mikä kuitenkin jo toimii eikä suorituskykykään ole surkea (~RTX 3070 tasoa RT päällä), kun jonossa on pitkä rivi uusia ja tuleviakin pelejä mihin panostaa?
 
Jos uudet Radeonit olisi ollut RT-suorituskyvyssä 40% parempia kuin GeForcet niin siltikään ne eivät olisi olleet mukana yhteenvetokaavioissa.

Sä nyt näyttäisit tarkertuvan asiaan siltä kantilta, että arvostelisin teidän puolueettomuutta. Siitä ei nyt ole kyse, vaan meidän näkemyseroista siitä, mikä on tärkeää. Vähemmän puoleettomat käyttäjät nyt vain takertuvat teidän yhteenvetokaavioihin koko totuutena, mutta se ei ole teidän vika.

Mun mielestä pitäisi olla kourallinen hybridityyppisiä RT-pelejä testattuna ja erillinen yhteenvetokaavio niiden suorituskyvystä. Puhtaat RT-pelit kuten Minecraft ja Quake 2 tuskin tulevat yleistymään aikoihin, ja niiden lisääminen kaavioon ei ajane mitään järkevää. Uskon kuitenkin hybridi-tyyppisen RT:n yleistyvän rivakasti lähitulevaisuudessa, kun konsolit nyt sai kyseisen ominaisuuden, ja sen suorituskyky tulee olemaan merkittävässä roolissa kun niitä pelejä ajetaan "asetukset tapissa". RT-suorituskyvyn lakaiseminen nurkkaan nykytyyliin on mielestäni lyhytnäköistä. Näin toki jo tuolla asiaketjuissa, etten ole tätä saamassa läpi.

Mun motivaatioiden arvailua en arvosta. Ojensin mä täällä jo NVidia-fanipoikienkin aivopieruja. Ihan FIY olin innokkaana F5-talkoissa AMD-launchissa, mutta XT jäi saamatta. RT-suorituskykero vaan paljastui sitten jälkeenpäin arvosteluja lukiessa paljon isommaksi, kuin kuvittelin. Muuten tuli ihan perkeleen kova kortti, jonka olisin mielelläni ottanut ihan tuon lisämuistin takia, mutta en tuon nykyisen RT-suoriutumisen valossa uskalla 800€+ upottaa suunnilleen viime sukupolven tasoiseen suorituskykyyn sellaisella osa-alueella, mikä on nähdäkseni huomisen normi. Jopa pienemmät pelistudiot on alkaneet pikkuhiljaa lisätä RT:tä PC:llä, eikä se näyttäisi olevan jäämässä vain AAA-pelien harteille. Se vaikuttaisi olevan helppo implementoida. "It just works" jne...?

Kärkäs keskustelutyylini nimenomaan tässä ketjussa sikiää lähinnä yksisilmäisten fanipoikien vastustustahdosta. Häiritsee, kun joku julistaa kortin X ylivoimaiseksi, sivuuttaen totaalisesti sen yhden kolossaalisen heikkouden. Häiritsee, kun joku kutsuu DLSS:ää "4k":ksi, kun se ei sitä ole. Häiritsee, kun joku vertaa DLSS:ää 4k:hon ja huutelee kuvanpaskomiseksi, kun sitä pitäisi vertailla kuvanlaadullisesti sellaiseen resoluutioon jolla saavutetaan sama suorituskyky perinteisin skaalausmenetelmin. Aivopiruja on puolin ja toisin, ja korjaan niitä jatkossakin, tuli ne sitten vihreältä tai punaiselta kentältä. Mun aivopieruja saa myös korjata, ja väitellään sitten tarvittaessa.
 
Mutta miksi ihmeessä AMD:n pitäisi pari vuotta vanhaan peliin lähteä rakentamaan uudelleen jotain mikä kuitenkin jo toimii eikä suorituskykykään ole surkea (~RTX 3070 tasoa RT päällä), kun jonossa on pitkä rivi uusia ja tuleviakin pelejä mihin panostaa?
Mielestäni luvattoman bugisesti tuo AMD:n RT toteutus käyttäytyy useimmissa peleissä. Vai onkohan lie se detailien tai esimerkiksi heijastusten syvyyden puuttuminen sittenkin tarkoituksellista...
 
Mielestäni luvattoman bugisesti tuo AMD:n RT toteutus käyttäytyy useimmissa peleissä. Vai onkohan lie se detailien tai esimerkiksi heijastusten syvyyden puuttuminen sittenkin tarkoituksellista...
Bugeja voi varmasti olla vielä, eiköhän niitä korjailla sieltä ajureiden puolelta.
 
Eiköhän se fakta ole että rt blokit on tulleet mukaan suht koht myöhäisessä vaiheessa chippulaan mukaan. Enempi kiinnostaa miten paljon tulevaisuudessa sitten piitä käytetään tuohon toiminnallisuuteen. Ensi generaatiossa varmasti on taas asiat pikkasen paremmin semminkin kun taas enempi tietoa mitä kuluttajat haluaa.
 
Bugeja voi varmasti olla vielä, eiköhän niitä korjailla sieltä ajureiden puolelta.
Joo, se on vain minun mielestäni todella negatiivista PR:ää jos ei saada edes muutamaa mallipeliä aikaan niin että suorituskyky ja toimivuus on lopullisella tasolla julkaisupäivänä.
 
Joo, se on vain minun mielestäni todella negatiivista PR:ää jos ei saada edes muutamaa mallipeliä aikaan niin että suorituskyky ja toimivuus on lopullisella tasolla julkaisupäivänä.
Dirt 5, GodFall ja WoW: Shadowlands? Ja kyllähän suurin osa vanhoista RT-peleistä toimii niin kuin pitää?
 
Ajurithan ovat lähes täydelliset. Parhaat ajurit toimivuudeltaan sitten Matroxin kortin. Tässä siis puhun Linuxin ajureista (ja näistä Radeon 6800 korteista), jotka toimivat sekä natiiveissa peleissä että pelien pelaamiseen windowssin virtuaalikoneessa niin hyvin että 4k pelaaminen on tullut myös Linuxille jäädäkseen.

Ne ovat myös saatavilla julkaisupäivänä suoraan Ubuntu 20.04 käyttikselle joten eikun Steamia asentamaan.
 
Tässä siis puhun Linuxin ajureista (ja näistä Radeon 6800 korteista), jotka toimivat sekä natiiveissa peleissä että pelien pelaamiseen windowssin virtuaalikoneessa niin hyvin että 4k pelaaminen on tullut myös Linuxille jäädäkseen.
Ui ui, nyt on itselle kova fiitseri. Onkohan virtuaali winkkarills joku ajellut testejä.
 

Uusimmat viestit

Statistiikka

Viestiketjuista
257 209
Viestejä
4 472 607
Jäsenet
73 897
Uusin jäsen
hal90210

Hinta.fi

Back
Ylös Bottom