Virallinen: NVIDIA vs AMD (vs Intel) keskustelu- ja väittelyketju

  • Keskustelun aloittaja Keskustelun aloittaja Sampsa
  • Aloitettu Aloitettu
Niin jos on pakko pitää asetukset ultralla ja ray tracing päällä (ja DLSS quality ja 99. persentiili).

On tuossa samassa graafissa RTX 2060 Med Rast DLSS-P fps 44.2 / 54.5 (avg/99th).
Jos oikein tulkitsen niin tämä on medium-asetukset ilman ray tracingia, "4k" dlss-performance päällä.
Tämä on itse asiassa hivenen parempi tulos kuin mitä 6800XT saa ko. artikkelissa samoilla asetuksilla 4k:lla ja ilman (tietenkin) DLSS:ää - kuvanlaatuväittelyyn en ota kantaa.
Näinhän sitä saadaan hienosti käyttöä sille DLSS:lle. Natiivi ultra 1440p RTU 40fps pinnassa RTX3090:lla ja Quality DLSS vähä reilu 60...
Voi vittu oikeesti. Toki noita previewejä ku katteli niin Raytracing ei välttämättä kehuja kerännyt muutenkaan vrt rasterointiin kuvanlaadultaan.
Edit, vertailin vääriä kuvia, 3080 ja 3090 linjassa
 
Niin jos on pakko pitää asetukset ultralla ja ray tracing päällä (ja DLSS quality ja 99. persentiili).

On tuossa samassa graafissa RTX 2060 Med Rast DLSS-P fps 44.2 / 54.5 (avg/99th).
Jos oikein tulkitsen niin tämä on medium-asetukset ilman ray tracingia, "4k" dlss-performance päällä.
Tämä on itse asiassa hivenen parempi tulos kuin mitä 6800XT saa ko. artikkelissa samoilla asetuksilla 4k:lla ja ilman (tietenkin) DLSS:ää - kuvanlaatuväittelyyn en ota kantaa.
Ketä kiinnostaa matalaresoluutioinen medium laatuasetusten suorituskyky? (olettaen että high ja ultra presetit tekee muutakin kuin laskee suorituskykyä)
 
4k ultralla itse asiassa ero on suurempi, siis RTX 2060 DLSS > 6800 XT
Yllättäen, kun toinen laskee nelinkertaisella tarkkuudella kaiken. 4k näytöllä ei ehkä niin kriittinen juttu, mutta 1080p näytöllä näyttää aivan kauhealta jos peli on rendattu 960x540 resolla.
 
Toivon vakaasti että tuolla on a) optimointia tulossa b) ajurit tulossa c) noissa ultra preseteissä on joku nvidia hairworks päällä, muuten ihan helvetin kiva ostaa parin tonnin näyttis ja todeta että jäi ensimmäisen julkaistun pelin kohdalla vanhaksi :D
 
Toikin on mielenkiintoista, että CB 2077 näyttää olevan voimakkaasti CPU rajoitteinen peli eli 1080p resoluutioilla ei millään kortilla ei edes RTX 3090:lla pääse yli 105-108 FPS CPU pullonkaulojen takia.
 
Toikin on mielenkiintoista, että CB 2077 näyttää olevan voimakkaasti CPU rajoitteinen peli eli 1080p resoluutioilla ei millään kortilla ei edes RTX 3090:lla pääse yli 105-108 FPS CPU pullonkaulojen takia.
Jep, lisäksi peli tykkää säikeistä ja noilla vanhemmilla inteleillä ei tuon yli päästä. Minimitkin on aika huonot. Saas nähdä että minne asti modernilla suorittimella päästään, etenkin minimien osalta.
 
Jep, lisäksi peli tykkää säikeistä ja noilla vanhemmilla inteleillä ei tuon yli päästä. Minimitkin on aika huonot. Saas nähdä että minne asti modernilla suorittimella päästään, etenkin minimien osalta.

Selviää muutaman päivän päästä, arvosteluversioissa on kopiointisuojaus, jota julkaisupainoksessa ei ole. Eli peffilukemat voi muuttua vielä kummasti.
 
Niin siinä kävi, että Nvidia vei voiton tehokkaimman näytönohjaimen tittelistä tältä erää:
Amd on selätetty. Saas nähdä kun Nvidia saa oman SAMinsa niin tulee uusi potku Amd:een takamuksiin.

 
Sinähän noita 1080p lukuja olet tänne heitellyt? 4k dlss-p ~ 1080p. Ihan hyvin noilla amd:n vehkeilläkin voi skaalata matalasta resoluutiosta isompaan. Kuvanlaatuväittelyyn en ota kantaa.
Lelujahan nämä ovat - pelikäytössä ainakin - eli pääasia on että jokainen on omaansa tyytyväinen :thumbsup:
 
Jooh aika tuhnu tupsahti. 3090 kaataja olikin hädin tuskin ylikellotettu 3080 ja sitten kun mukaan tuodaan SAM niin saadaan nuokin löysät saadaan pois. Viimeistelynä DLSS ja RTX niin ei edes perävalot näy.

Enivei kiva että AMD kilpailee kuitenkin high endissä. Voi olla että 1-2 sukupolvessa AMD vielä tekee Ryzenit Nvidialle, mutta epäilen vahvasti kun softaosaaminen on mitä on.
 
Niin siinä kävi, että Nvidia vei voiton tehokkaimman näytönohjaimen tittelistä tältä erää:


Jospa seuraavassa sukupolvessa tilanne kääntyy toisinpäin. :coffee:
museopeleillä ja -prossuilla tulos on tosiaan tuo.

HW unboxedilla 6900xt vie ja 3090 vikisee aina 1440p asti. 4k:lla 3090 on huimat 5% nopeampi ja 40% kalliimpi per frame.

Kuvanhuononnuksilla ja säteenseurannalla toki menee ohi.
 
  • Tykkää
Reactions: jkm
museopeleillä ja -prossuilla tulos on tosiaan tuo.

HW unboxedilla 6900xt vie ja 3090 vikisee aina 1440p asti. 4k:lla 3090 on huimat 5% nopeampi ja 40% kalliimpi per frame.

Kuvanhuononnuksilla ja säteenseurannalla toki menee ohi.
Kovat on denialit. Jos katsoo mitä tahansa arvostelua (esim. io-techin revikkaa) niin juuri ne top 2020 AAA pelit rullaavat Nvidialla paremmin ja vieläpä kaikissa resoluutio luokissa (myös 1080p ja monesti jopa 3080:kin menee edelle). AMD on taas kilpailukykyisempi geneerissä vanhentuneiden engineiden peleissä. Millään alle 1440p:llä nyt ei muutenkaan ole mitään merkitystä kun ollaan ostamassa tämän sarjan kortteja.

Tuo kalliimpi per frame perustuu MSRP mitä ei saa. Käytännössä 6900XT on pari satkua/satkun halvempi mutta 8GB vähemmän muistia, häviää pelaamisessa, häviää hyötyohjelmissa ja ei mitään Nvidian teknologioita tai vastaavia.

DLSS oli ekassa versiossa paskaa mutta 2.0 myötä kuvanlaatu on aina sama tai parempi kuin natiivina ja FPS nousee. Käytännössä DLSS 2.0 siirtää 3000 sarjan yhden generaation AMD:tä edelle.
 
museopeleillä ja -prossuilla tulos on tosiaan tuo.

HW unboxedilla 6900xt vie ja 3090 vikisee aina 1440p asti. 4k:lla 3090 on huimat 5% nopeampi ja 40% kalliimpi per frame.
Arvostelet TPU:n prossuvalintaa, mutta tuossa HUBin benchmarkissa johon viittaat, on käytössä pelisuorituskyvyltään TPU:n 9900k:tä heikompi 3950X. Onhan se toki vähän uudempi, mutta sillä nyt ei luulisi paljoa olevan merkitystä mihinkään...

Ja onko noi TPU:n pelitkään nyt oikeasti jotenkin merkittävästi epärelevantimpia kuin HUBin?
 
Arvostelet TPU:n prossuvalintaa, mutta tuossa HUBin benchmarkissa johon viittaat, on käytössä pelisuorituskyvyltään TPU:n 9900k:tä heikompi 3950X. Onhan se toki vähän uudempi, mutta sillä nyt ei luulisi paljoa olevan merkitystä mihinkään...

Ja onko noi TPU:n pelitkään nyt oikeasti jotenkin merkittävästi epärelevantimpia kuin HUBin?
No ainakin siellä valitaan dx12 renderer jos peli moista tukee, toisin kuin TPU:lla.
 
museopeleillä ja -prossuilla tulos on tosiaan tuo.

HW unboxedilla 6900xt vie ja 3090 vikisee aina 1440p asti. 4k:lla 3090 on huimat 5% nopeampi ja 40% kalliimpi per frame.

Kuvanhuononnuksilla ja säteenseurannalla toki menee ohi.

Museopeleillä? Joku voisi sanoa, että kaikki pelit ilman RT ovat nykypäivänä museopelejä.
 
No ainakin siellä valitaan dx12 renderer jos peli moista tukee, toisin kuin TPU:lla.

Mun mielestä noi pitäisi valita pelikohtaisesti, riippuen kumpi pyörii kullakin kortilla paremmin. Ellei sitten DX12 saada jotain extraa, kuten vaikka säteenseurantaa. Tällöin ehdottomasti kaikki grafiikkaominaisuudet käyttöön, ja siihen silloin DX12 myös kuuluu.
 
Mun mielestä noi pitäisi valita pelikohtaisesti, riippuen kumpi pyörii kullakin kortilla paremmin. Ellei sitten DX12 saada jotain extraa, kuten vaikka säteenseurantaa. Tällöin ehdottomasti kaikki grafiikkaominaisuudet käyttöön, ja siihen silloin DX12 myös kuuluu.
Peli- ja näyttiskohtainen valinta olisi tietty optimi.
 
Museopeleillä? Joku voisi sanoa, että kaikki pelit ilman RT ovat nykypäivänä museopelejä.
Ei voisi, koska ne isot osat peleistä on edelleen varsin suosittuja ja kyllä minä esim hell let looseen halusin kunnon fps:t.
Ja vaikka mulla onkin RTX3090 oon edelleen sitä mieltä että koko hiton RT on ihan tech-demo kamaa. Uus codi oli oikein suunnaton ällistys kun omalta hahmolta puuttuu varjo... Niihin kamppiksen kovakoodattuihin hahmoihin ois voitu rasteroidaki ne varjot ja se yks asia minkä varjoja vois ihmetellä, puuttuu sit kokonaan. CP tulee varmasti kokeiltua RT kaikki herkut tapissa, pahoin vaan pelkään että pelikokemus 40fps:llä jää heikoksi. Dlss taas en haluais ees laittaa päälle mutta katotaan minkä tason artefakteja tuohon saadaan...

Rt nyt on tuettuna kourallisessa huttua jos minulta kysytään. Vaikka tuota mieltä olen kyllä yleisesti kaikista AAA-titleistä, piti nyt uuden kortin myötä kuitenkin vähän testailla.
 
Ei voisi, koska ne isot osat peleistä on edelleen varsin suosittuja ja kyllä minä esim hell let looseen halusin kunnon fps:t.
Ja vaikka mulla onkin RTX3090 oon edelleen sitä mieltä että koko hiton RT on ihan tech-demo kamaa. Uus codi oli oikein suunnaton ällistys kun omalta hahmolta puuttuu varjo... Niihin kamppiksen kovakoodattuihin hahmoihin ois voitu rasteroidaki ne varjot ja se yks asia minkä varjoja vois ihmetellä, puuttuu sit kokonaan. CP tulee varmasti kokeiltua RT kaikki herkut tapissa, pahoin vaan pelkään että pelikokemus 40fps:llä jää heikoksi. Dlss taas en haluais ees laittaa päälle mutta katotaan minkä tason artefakteja tuohon saadaan...

Rt nyt on tuettuna kourallisessa huttua jos minulta kysytään. Vaikka tuota mieltä olen kyllä yleisesti kaikista AAA-titleistä, piti nyt uuden kortin myötä kuitenkin vähän testailla.
Kuulemma cyberpunkissakin puuttuu oman hahmon heijastukset (ja ehkä varjotkin?) RT päällä.
 
No kyllä joku voisi, kun se museopelin määritelmä revitään näköjään vain omasta hanurista.
Tylsää määritellä maailmaa vaan muutaman isomman pelitalon huttujulkaisun kanssa. Ynmärrän että testiaikaa on vähän, mutta ärsyttää lukea revikoita joissa kaikissa sama pelipatteri varsinkin kun niillä korteilla pelataan paljon muutakin. Nuo isojen lafkojen pelit on valtaosa vähä ku bb telkkarista...
 
Tylsää määritellä maailmaa vaan muutaman isomman pelitalon huttujulkaisun kanssa. Ynmärrän että testiaikaa on vähän, mutta ärsyttää lukea revikoita joissa kaikissa sama pelipatteri varsinkin kun niillä korteilla pelataan paljon muutakin. Nuo isojen lafkojen pelit on valtaosa vähä ku bb telkkarista...

Pelipatteriston vaihtaminen ei ole mahdollista jos haluaa testitulosten olevan edes jollain tasolla vertailukelpoisia aikaisempiin tuloksiin. Sekään ei ole realismia, että kaikki sillä hetkellä myynnissä olevat eri GPU:t testataan aina uudestaan kokonaan eri pelipatteristolla kun tulee joku yksi uusi kortti testattavaksi.

Jos haluaa tietää miten joku tietty peli pyörii jollain tietyllä raudalla niin googlella aika usein löytää tuloksia yleisimpiin peleihin. Se taas ei ole realismia, että täydet tulokset löytyy aina jokaiseen indie peliin mitä maailmalla on. Toisaalta ne pelit yleensä ovat niin kevyitä, että pyörivät jo melkein millä vain raudalla.
 
Pelipatteriston vaihtaminen ei ole mahdollista jos haluaa testitulosten olevan edes jollain tasolla vertailukelpoisia aikaisempiin tuloksiin. Sekään ei ole realismia, että kaikki sillä hetkellä myynnissä olevat eri GPU:t testataan aina uudestaan kokonaan eri pelipatteristolla kun tulee joku yksi uusi kortti testattavaksi.
Tätähän vaikka TPU sanoo mahdottomaksi, mutta jotenkin HW unboxed / techspot onnistuu sen tekemään. Kaikki aina ajettu uusimmilla ajureilla ja peliversioilla ilman että pelipatteristo on erityisen karsittu muihin sivustoihin verrattuna. Tästä syystä johtuen annan heille hieman enemmän painoarvoa kuin TPU:n 1,5v kierrätetyille tuloksille.
 
Käytännössä DLSS 2.0 siirtää 3000 sarjan yhden generaation AMD:tä edelle.

Joo kourallisessa pelejä :hungry: Missä on Assasins Creed Valhallan DLSS kun sitä kipeästi tarvittaisiin? Tai missä tulevassa Far Cry 6 tai monissa muissa isoissa AAA-peleissä? Jotta DLSS voisi käyttää isompana vipuvartena näissä keskusteluissa, niin pelituki pitäisi olla luokkaa: Kaikki isot AAA-pelit ja mielellään reilusti AA-pelejäkin. Nykyisellä tuella ei esimerkiksi itseäni lämmittäisi tippaakaan tuo ominaisuus. Mutta ehdottomasti ihan kätevä ominaisuus, tuo nimenomaan RT-peleihin sitä kaivattua boostia kehysten määrään.

Ehkä DLSS pelituki kasvaa radikaalisti tulevaisuudessa. Ehkä ei. Ehkä AMD:n ja Microsoftin Super Resolution on paremmin tuettu ja toimiva ratkaisu. Tai ehkä ihan paska ominaisuus. We'll see. Tässä ja nyt mä en maksaisi tensori-ytimistä ja DLSS:stä senttiäkään. Tulevaisuus kaiken muuttaa voi.
 
Joo kourallisessa pelejä :hungry: Missä on Assasins Creed Valhallan DLSS kun sitä kipeästi tarvittaisiin?
Kylläkait tuo pyörii 3090 3440x1440 asetukset tapissa sen 60fps ainakin (en ole laskenut) ja tämä ok single playerissä peli on toki huonosti optimoitu paitsi jos käytössä sam.

Enemmän mua huolettaisi nyt uusista peleistä, että miten onnistuu amd näyttiksellä cyberpunkin pelaaminen, kovin hurjalta ei näytä...
 
Joo kourallisessa pelejä :hungry:

On se toisaalta kourallinen enemmän, kuin missä AMD on vastaavasti edellä. AMD:llä ei oikein samanlaisia murskavoittoja ole, kuin RTX-pelit ja DLSS-pelit ovat NVidialle. AMD:n vastaavaa ratkaisua odotellessa, tosiaan.
 
Kylläkait tuo pyörii 3090 3440x1440 asetukset tapissa sen 60fps ainakin (en ole laskenut) ja tämä ok single playerissä peli on toki huonosti optimoitu paitsi jos käytössä sam.

54fps TPU:n testissä 3090 4k. Kaikki muut ohjaimet jää alle 50fps. Mutta joo huonosti tuo on optimoitu, kun ultrasta pykälän alaspäin ei juuri saa FPS:iä, ja varmaan Ubisoft sitä patchailee paremmaksi.

Myös Cyberpunk tulee olemaan todella jäykkää tavaraa. Jopa DLSS + RT ON 3080 -kortit 32,9fps keskiarvolla. Melkoista diashowta ellei karsi asetuksia, ja luultavasti aika reippaalla kädellä. Joku 60fps:kin bugiseksi tiedetyssä pelissä voi olla melko tökkivää menoa, kun droppeja väistämättä tulee. Ei tuo 4k-harrastus näissä peleissä kovin sujuvalta pelikokemukselta näytä ;) Mutta ehkä Cyberpunkissa on optimoitu alempia grafiikka-asetuksia paremmin kuin vaikka Valhallassa, ja niillähän saa pumpattua FPS:iä.

Enemmän mua huolettaisi nyt uusista peleistä, että miten onnistuu amd näyttiksellä cyberpunkin pelaaminen, kovin hurjalta ei näytä...

Kyllä, vielä huonommalta näyttää RT-päällä AMD:n tilanne Cyberpunkissa. AMD:n korteilla joutunee tekemään kovia kompromisseja RT-asetusten kanssa. Cyberpunk antaa maistiaisen siitä, miten helvetin raskasta tuo RT tulee laajemmin toteutettuna olemaan. Maailman parhaankaan kortin vääntövoima ei vaan vielä riitä täysin sujuvaan kokemukseen. Ja AMD:n kortit on CP:ssä varmasti RT ultralla aivan kyykyssä.
 
AMD oli taas täysi floppi omien näytönohjainten kanssa, niin tehojen ja saatavuuden perusteella.
Ei ollut kyllä yllätys :tup:
Jos parin vuoden päästä sitten uudestaan hypetetään ihan kattoon.
 
Niihin kamppiksen kovakoodattuihin hahmoihin ois voitu rasteroidaki ne varjot

Miten "rasteroit varjot"?

Ei rasteroinnilla voi triviaalisti piirtää/laskea varjoja.

Lähimmäs ehkä pääsee jos ennen varsinaista renderöintiä laittaa kameran valonlähteen paikkaan, ja tekee "käänteistä teksturointia" ja kirjoittaa varjotekstuuriin. Ja tämä pitää sitten tehdä jokaisesta valonlähteestä, moneen suuntaan. Moninkertainen työmäärä.
Ja sitten tässä on vielä dilemma, että millä resoluutiolla niitä varjoja rendataan, kun pikselit mäppäytyy tekstuuriin ihan eri kokoisina sen valonlähteen ja pelaajan näkökulmasta

Aika usein, kun rasteroinnilla piirretyssä grafiikassa on varjoja, ne varjot on tehty aivan muilla mekanismeilla kuin rasteroinnilla, täysin sen rasteroinnin PÄÄLLE.

Tai siten ne varjot on vaan esilaskettuja tekstuureita, jotka vaan teksturoidaan.
 
Viimeksi muokattu:
Niin siinä kävi, että Nvidia vei voiton tehokkaimman näytönohjaimen tittelistä tältä erää:

AMD on nopeampi 1080p/1440p ja Nvidia nopeampi 4k. Toki riippuu vielä peleistä mitä pelaa.

Tosin järkeähän ei ole kummassakaan halo tuotteessa vaan 3080 ja 6800XT on ne highendin järkevät tuotteet...
 
AMD oli taas täysi floppi omien näytönohjainten kanssa, niin tehojen ja saatavuuden perusteella.
Ei ollut kyllä yllätys :tup:
Jos parin vuoden päästä sitten uudestaan hypetetään ihan kattoon.

Ihan yhtä floppi se Nvidia oli... Tehot tasoissa ja saatavuudet surkeita molemmilla.
 
1607462315632.png


auts

terv. Lisa Su
 
Miten "rasteroit varjot"?

Ei rasteroinnilla voi triviaalisti piirtää/laskea varjoja.

Lähimmäs ehkä pääsee jos ennen varsinaista renderöintiä laittaa kameran valonlähteen paikkaan, ja tekee "käänteistä teksturointia" ja kirjoittaa varjotekstuuriin. Ja tämä pitää sitten tehdä jokaisesta valonlähteestä, moneen suuntaan. Moninkertainen työmäärä.
Ja sitten tässä on vielä dilemma, että millä resoluutiolla niitä varjoja rendataan, kun pikselit mäppäytyy tekstuuriin ihan eri kokoisina sen valonlähteen ja pelaajan näkökulmasta

Aika usein, kun rasteroinnilla piirretyssä grafiikassa on varjoja, ne varjot on tehty aivan muilla mekanismeilla kuin rasteroinnilla, täysin sen rasteroinnin PÄÄLLE.

Tai siten ne varjot on vaan esilaskettuja tekstuureita, jotka vaan teksturoidaan.
Jos sulla on kovakoodattu valonlähde ja kovakoodatut ukkojen liikkeet niin kyllä ne varjotkin voi piirtää, ne on vaan erivärisiä pikseleitä, joo eihän se koko peli ole kovakoodattua liikettä mutta isossa osassa paikkoja on. Häiritsi vaan ylipaljon että oman ukon varjo sitten puuttuu, onko se niinku invisible man vai mitä
 
Jos sulla on kovakoodattu valonlähde ja kovakoodatut ukkojen liikkeet niin kyllä ne varjotkin voi piirtää, ne on vaan erivärisiä pikseleitä, joo eihän se koko peli ole kovakoodattua liikettä mutta isossa osassa paikkoja on. Häiritsi vaan ylipaljon että oman ukon varjo sitten puuttuu, onko se niinku invisible man vai mitä

Se, missä ne varjot on, tarvii jollain laskea. Rasterointi ei tarjoa siihen tehokasta ja simppeliä keinoa.

Ja sitä ei todellakaan voi järkevästi myöskään etukäteen laskea koska se pitäisi laskea etukäteen joka ikiselle framelle, ja tällöin
1) loppuisi aivan totaalisesti levytila jonne näitä varjotekstuureita yritettäisiin tallettaa ja kaista, jolla näitä yritettäisiin sieltä levyltä GPUlle siirtää.
2) tulisi ongelma, että esilasketut framet ei osu yhteen pelaajan framejen kanssa ja tämä aiheuttaisi vielä hassuja efektejä (nykymistä/hyppimistä)
 
Se, missä ne varjot on, tarvii jollain laskea. Rasterointi ei tarjoa siihen tehokasta ja simppeliä keinoa.

Ja sitä ei todellakaan voi järkevästi myöskään etukäteen laskea koska se pitäisi laskea etukäteen joka ikiselle framelle, ja tällöin
1) loppuisi aivan totaalisesti levytila jonne näitä varjotekstuureita yritettäisiin tallettaa ja kaista, jolla näitä yritettäisiin sieltä levyltä GPUlle siirtää.
2) tulisi ongelma, että esilasketut framet ei osu yhteen pelaajan framejen kanssa ja tämä aiheuttaisi vielä hassuja efektejä (nykymistä/hyppimistä)
No mulla ei oo oikeastaan mitään tietoa miten varjoja piirretään, mutta sen tiedän että jos varjot tehdään raytracingilla niin kyllä sillä omallakin hahmolla pitäisi olla varjo, todella iso turnoff tuollainen. Sama kuin Cyberpunkkiin tulevat hienot heijastukset mutta sitten pelihahmon heijastuksia ei olekaan. Kuten sanottua, aivan lastenkengissä koko RT
 
No mulla ei oo oikeastaan mitään tietoa miten varjoja piirretään, mutta sen tiedän että jos varjot tehdään raytracingilla niin kyllä sillä omallakin hahmolla pitäisi olla varjo, todella iso turnoff tuollainen. Sama kuin Cyberpunkkiin tulevat hienot heijastukset mutta sitten pelihahmon heijastuksia ei olekaan. Kuten sanottua, aivan lastenkengissä koko RT

Johtuneeko tuo vaan siitä, että pelaajalla ei ole modelia 1st personissa, joten ei ole mitään mistä laskea varjoja tai heijastuksia. Luulisi olevan simppeli lisäys jos jaksavat.
 
Yhteenveto 14:n 6900XT arvostelun 4K-tuloksista:


TLDR; 6900XT on huimat 1,4% tehokkaampi kuin 3080 @2160p :D
 
Yhteenveto 14:n 6900XT arvostelun 4K-tuloksista:


Jioa 1,4% nopeampi vs 3080 4K:llla! :lol:

Aivan omneton julkaisu tui 6900XT kyllä. Toki siihen AMD-kaupan hintaan ei mikään ihan katastrofaalinen, mutta suomihinta aivan järjetön.
 
AMD kaupastahan noita useampi tänne suomen pohjolaankin o lähtenyt.

Mutta ei ilmeisesti enää, jos valmistus on loppunut:


Jos näin on, niin jäljelle jää ylihintaiset AIB-mallit.
 
Mutta ei ilmeisesti enää, jos valmistus on loppunut:


Jos näin on, niin jäljelle jää ylihintaiset AIB-mallit.
No ainakin niitä sai, toisin kuin 3070 mallia. AMD on aiemmin maininnut että referenssimallien valmistus ajetaan alas vasta alkuvuodesta, joten eiköhän niitä joku erä vielä saavu ostettavaksi asti.
 

Statistiikka

Viestiketjuista
259 403
Viestejä
4 506 817
Jäsenet
74 394
Uusin jäsen
jonde94

Hinta.fi

Back
Ylös Bottom