Virallinen: NVIDIA vs AMD (vs Intel) keskustelu- ja väittelyketju

  • Keskustelun aloittaja Keskustelun aloittaja Sampsa
  • Aloitettu Aloitettu
Lainaa toki jotain tälläistä viestiä.
Ei minun tarvitse lainata. Riittää että osaa lukea. Kovin paljon on haukuttu dlss, mut kovin vähän on haukuttu tulevaa super resolutionia.
Tosin joku tuossa sanoikin että olet viimeisen 50 sivun aikana tehnyt itsesi muistettavaksi, ja yhdyn samaan. En ainakaan jatka keskustelua kanssasi
 
Mielestäni DLSS:n dissaajat ei pelaa niitä pelejä vaan tuijottaa yksittäisiä pikseleitä paikallaan, koska niitä ketuttaa joku AMD:n pärjäämättömyys ja ihmiset joiden koneissa AMD:n ajurit ei toimi. (Ja kehtaavat vielä valittaa, justhan ne viime päivityksessä taas korjattiin!!!1111?) Ja silti menis aina joka toinen kuva väärin, jos laittas blind testiin.
 
Asiaton käytös
Pistän tämän @Kaotik henkilölle, viimeiselle AMD puolustajalle universumissa. Kanssatoverit jättivät uppoavaan laivan jo viikkoja aiemmin. (u fuckers)

Edelleen AMD super resoluutio tulee perustumaaan samaan matriisiin ja saamaan samaa hyötyä bitti tasolla, kun vastapelurin A.I oppii ja jatkaa kehitytymistä. jopaa näistä AMD räpellyksistä. 1 vs 1M vaihtoehdon läpikäynti seuraavassa generaatiossa ajaa nykyistä toteutusta oikeaan suuntaan.

AMD puolustajan punalasi näkemys:

Ei ole mitään ihmeen "A.I.-tasoa". Koko se mistä olet jauhanut tekoälynä pyörii NVIDIAn tensoriyksiköiksi kutsutuissa matriisilaskimissa. Niissä ei ole mitään sen kummempaa erikoista, kuin että ne suorittavat tietyntyyppisiä laskuja nopeammin, kuin geneeriset yksiköt, ja moni tekoälyyn liittyvä lasku soveltuu laskettaviksi niillä nopeasti. AMD on lähestynyt kuluttajaraudassa asiaa toiselta kantilta ja tehnyt yksinkertaisesti samassa käytössä hyödyllisistä INT4- ja INT8-tarkkuuksista erittäin nopeita (8:1 ja 4:1) geneerisissä laskuyksiköissään, palvelinpuolella laskentaraudassa taas NVIDIAa järeämmin matriisilaskimin.

Perustele suorituskyky erot tai myönnä että konsepti on monitahoisempi kuin miellät / rasteroinnin kannalta voi katosa. ( A.I is real in 2020? :D)

- tähän lisäisin n. 10l oluen jälkeen että eihän AMD:llä ole mitään edes lähelle tätä toteutusta vastaavaa mihin turvautua. Kaikki merkitsevät henkilöt ovaat sanoneet AMD:n epäonnistuneen julkaisussaan.
 
Ei minun tarvitse lainata. Riittää että osaa lukea. Kovin paljon on haukuttu dlss, mut kovin vähän on haukuttu tulevaa super resolutionia.
Tosin joku tuossa sanoikin että olet viimeisen 50 sivun aikana tehnyt itsesi muistettavaksi, ja yhdyn samaan. En ainakaan jatka keskustelua kanssasi
Vaikea haukkua ennen kuin koko paska on markkinoilla. Olen moneen kertaan DLSS:stä maininkut että tekniikka on hyvä muutamaa teknistä päätöstä lukuunottamatta. Jos AMD:n kikkare saa nuo asiat kohdalleen, niin se on parempi, mutta se voi ihan hyvin olla käyttökelvotonta roskaakin.
 
Asiaton käytös
1607719236926.png



Hienoa meno arvostelijoilta:


Taitaa olla syynä että siinä AMD:ssä ei ole ensimmäisen 8x8 matrixin jälkeen mitään älyä tekemässä seuraaavaa laskentaa? Saatikka niistä ynnäilemään yhtäkään päätöstä laskea 1990 luvun tekoälyn jälkeen kehitettyä toimintaa.

tässä mennään


 
Niin vastasin aiemmassa kommentissani väitteeseen, että nykyraudalla ei riitä tehot pyörittää rt:tä, joka toimii hienosti nvidialla, mutta vähemmän hienosti amd:lla (tai ei vaan toimi Cyberpunkissa vielä). En ottanut kantaa siihen pyöriikö peli yleensä.

No siis kyllä RT pyörii AMD:lläkin. Ei niin hyvin kuin 3000 sarjalaisilla, mutta pyörii kuitenkin (ei tosin tässä pelissä kun ei säteitä vielä tue). Kaikkea ei tietty voi softalla korjata, mutta väittäisin että optimoinnilla saadaan peleissä ihan hyvin pyörivä RT käyttöön (valitaan sopiva määrä niitä efektejä eli karsitaan osa pois sitten vaikka). Jos nyt vaikka Port Royal testiä katsoo niin kyllä tuo yli 8000 pistettä (6800) kertoo että pelit RT optimoituna pyörii ihan ok (parisataa pinnaa vähemmän kuin 3070).

Tällä hetkellä RT tiputtaa tehoja törkeän paljon kaikilla korteilla. Nvidialla DLSS auttaa jonkin verran tuohon, mutta ainakin tässäkin pelissä kaikki alle quality asetuksen olevat valinnat tekevät pehmeyttä omaan silmään aivan liikaa (vierestä katsoen).
 
Noniin siistitäänpä taas keskustelua. Asioista saa olla vastakkaisia mielipiteitä ja niistä saa keskustella, mutta ei laiteta turhia nollapostauksia, meemejä tai muutakaan provosoivaa, eikä mennä henkilökohtaisuuksiin tai henkilöistä keskusteluun. Siistin nyt tästä jonkin verran pahimpia nollapostauksia pois.
 
Nyt menee yli (kaljun) hilseen nän vanhalla kaulaparrallakin tämä keskustelu.
Nvidian DLSS 2.0 on oikeen toimiva tekniikka niissä harvoissa peleissä missä se on tuettuna.
AMD työstää hiki hatussa omaa, ehkä geneerisempää, vastinettaan sille. Se ei vaadi ennakkoon pelikoodin lataamista omille tietokoneilleen eikä sisällä mitään muutakaan yksinoikeusjippoja. Eli täysin avoin systeemi.
Molemmat, Intteliä ei vielä lasketa mukaan, näytönohjainvalmistajat yrittävät kovasti nyt sitä säteenseurantaa saada toimimaan, mutta ei vielä raaka laskentateho yksinkertaisesti riitä siihen.
Konsolit käyttäny jo iät ja ajat dynaamista resoluutiota ja ylöspäinskaalausta useissa peleissä ja en ole kuullut kenenkään konsolipelaajan valittavan.
AMD:n vastine DLSS:älle tulee kyllä aikanaan, koska molemmat konsolit sillä raudalla ja se luultavasti toimii niissä. Tai sen on pakko toimia jos noilla meinataan pelata "4k"ja RT.
 
Se mikä itseäni Cyberpunkissa kiinnostaa, on että sen tekstuurit ovat suhteessa todella vähän tilaa vieviä. Eli siis liikutaan alle kahdeksassa gigassa reippaasti normisti. En sitten tiedä tuodaanko tähän uusille konsoleille kohdennetun version kohdalla myös parempaa graffaa PC puolelle tarkempien tekstuurien kanssa. Nyt kun näyttömuistin käyttö on tunnuttu optivoidun juuri 8ja10 gigaisille NVIDIAn korteille. Tässä siis ei tietenkään ole mitään vikaa kun RT ei edes ole mahdollista kytkeä päälle AMD:n korteilla ja promomatskuun sopii peilipinnat kuin nenä päähän. Odotan vaan mielenkiinnolla tuleeko peliin myöhemmin tekstuurien osalta päivityksiä (jolloin niitä saatettaisiin lisäillä 16 ja 24 gigaisia kortteja varten).

Avointa DLSS versiota toki toivottaisin tervetulleeksi, koska pelaajalle valinnan mahdollisuus (käyttääkö ja missä määrin) on aina hyvästä.
 
Kuinkahan paljon cp2077 striimaa niitä tekstuureita lennosta? Sehän taitaa olla aika levyriippuvainen ja nvme ssd:ta suositellaan?
 
Ainakin ilmeisesti joissakin ajoneuvosiirtymissä (missä voi vapaasti katsella maisemia) tuo kuulemma joillakin nykii aika turkasen paljon. Asetuksissa oleva slow disk option tai joku muu kuulemma auttaa. Todennäköisesti siis 'nopeaa latausta' hyödynnetään ainakin paikoin jonkin verran.
Itselläni on asennettu nvme levylle niin mitään tuohon viittaavaa ei ole näkynyt.
 
Mielestäni DLSS:n dissaajat ei pelaa niitä pelejä vaan tuijottaa yksittäisiä pikseleitä paikallaan, koska niitä ketuttaa joku AMD:n pärjäämättömyys ja ihmiset joiden koneissa AMD:n ajurit ei toimi. (Ja kehtaavat vielä valittaa, justhan ne viime päivityksessä taas korjattiin!!!1111?) Ja silti menis aina joka toinen kuva väärin, jos laittas blind testiin.

99% tapauksista nämä dlss:n dissaajat eivät edes omista Nvidian näytönohjainta, eli siitä voinee aika suoraan päätellä miten vakavasti kannattaa niiden mielipiteitä ottaa.
 
99% tapauksista nämä dlss:n dissaajat eivät edes omista Nvidian näytönohjainta, eli siitä voinee aika suoraan päätellä miten vakavasti kannattaa niiden mielipiteitä ottaa.
Sillä, omistaako joku NVIDIAn näytönohjaimen vai ei ei ole mitään merkitystä sen kannalta, voiko kommentoida DLSS:ää sekä omien kokemusten että kuva- ja videoesimerkkien kautta. Muutenkin olisi syytä lopettaa tuollainen toisten käyttäjien luotettavuuden maalailu, täällä kuuluu väitellä noista näytönohjaimista teknologioineen sun muineen, ei käyttäjistä.
 
Pistetään tähän ketjuun. Onko joku keksinyt keinoa millä Asuksen GPU Tweakin saa muistamaan asetukset paria boottia pidempään?

Eli asetuksista lähtee itsekseen "Apply settings each time GPU Tweak II starts" asetus pois päältä eikä täten käytä valittua profiilia vaan menee defaultiksi.

Googlella jo vuosien ajan näemmä ollut samaa ongelmaa vähän jokaisessa versiossa.
 
Pistetään tähän ketjuun. Onko joku keksinyt keinoa millä Asuksen GPU Tweakin saa muistamaan asetukset paria boottia pidempään?

Eli asetuksista lähtee itsekseen "Apply settings each time GPU Tweak II starts" asetus pois päältä eikä täten käytä valittua profiilia vaan menee defaultiksi.

Googlella jo vuosien ajan näemmä ollut samaa ongelmaa vähän jokaisessa versiossa.
Onko jokin tietty syy käyttää nimenomaan tuota Asuksen ohjelmaa? Tuntuisi helpoimmalta korvata se jollain toisella, jos kerran liki joka versiossa samaa ongelmaa, jollei ole jotain spesifiä syytä käyttää juuri tuota.
 
99% tapauksista nämä dlss:n dissaajat eivät edes omista Nvidian näytönohjainta, eli siitä voinee aika suoraan päätellä miten vakavasti kannattaa niiden mielipiteitä ottaa.
Eikö sama 99% päde radeondissaajiin?
Tiedän monia nvidian kortin omaavaa jotka eivät dlss:stä pidä tai sitä käytä, poikkeuksena Cp2077, johtuen että ilman se on mahdoton pelattava karkit kaakossa.
Oon sit varmaan prosenttijengiä, 3090 ja vain cp saanut dlss approval
 
Eiköhän se AMD:llä ollut enemmän sitä, että konsolipiirien aikataulu painoi päälle ja jonkinlainen rt piti saada. Kun kiireellä tehdään, niin tulos harvoin on optimaallinen

Juu ja onhan se selvää että nvidia yllätti AMD:n täysin housut kintuissa tuon RT raudan kanssa. Ja kun RDNA arkkitehtuuri oli jo pitkällä kehityksessä niin RDNA1 ei ollut mitään saumaa saada mitään kokattua mukaan. RDNA2 oli siinä vaiheessa että siihen ehdittiin vielä kokkaamaan jonkinlainen tuki.
RDNA3:ssa AMD:llä onkin sitten näytönpaikka ja kovat paineet kun pitäisi saavuttaa nvidian etumatka ja arvioida että miten paljon nvidialta on tulossa parannusta omaan 3rd gen toteutukseen. Se on selvää että AMD:n täytyy vähintään tuplata oma RT suorituskyky RDNA3:ssa.
 
Tämä selittää miksi ainakin mun silmiin "natiivi" cp2077 on suttu liikkeessä ja paikoillaan pysyessä skarppi. Voi valita taa:n tai dlss:n väliltä. Natiivia täyttä resoluutiota pelissä ei ole.

 


GN on varsin selkeästi ilmaissut kantansa tuohon nvidian HUB bänniin ja LTT on huomattavasti varovaisempi, aikoo kysellä omalta nvidia kontaktiltaan asiaa.

Onhan taas kunnon paskamyrsky saatu aikaiseksi. :D

Mut joo, ei varmaan nvidia oo ollu kovin mielissään kun HUB yhdessä QA videossa kertoili että on selvästi nähtävissä trendi että nvidia on alkanut panostaa enemmän sosiaalisen median vaikuttajiin, eli näihin hupikanaviin jotka streamaa ja sitten kehuu miten hienoa rautaa ja miten hienoa RT on ja miten upea DLSS on. :P
 


GN on varsin selkeästi ilmaissut kantansa tuohon nvidian HUB bänniin ja LTT on huomattavasti varovaisempi, aikoo kysellä omalta nvidia kontaktiltaan asiaa.

Onhan taas kunnon paskamyrsky saatu aikaiseksi. :D

Mut joo, ei varmaan nvidia oo ollu kovin mielissään kun HUB yhdessä QA videossa kertoili että on selvästi nähtävissä trendi että nvidia on alkanut panostaa enemmän sosiaalisen median vaikuttajiin, eli näihin hupikanaviin jotka streamaa ja sitten kehuu miten hienoa rautaa ja miten hienoa RT on ja miten upea DLSS on. :p

LTT kyllä juurikin ampuu aika kovilla WAN-showssa tällä hetkellä
 
LTT kyllä juurikin ampuu aika kovilla WAN-showssa tällä hetkellä

Aiemmin twitterissä oli varsin varovainen sanomisissaan.

EDIT: Katoin LTT WAN shown. En oo koskaan nähny kyl Linusta noin vittuuntuneena. :D 40min tykitti ihan täysillä ja lopuksi "Fuck you nvidia, I can live without you"
 
Viimeksi muokattu:
Aika jännä, kun ainakin itsellä Radeonilla tuo corpo polun alku näyttää tosi skarpilta. Olen ne filmiefektit ottanut kokonaan pois (lukuunottamatta lens flares). Toisaalla väitettiin että ottamalla tuon asetuksen kokonaan pois niin rakeisuus häipyy:"Screen Space Reflections Quality"
 
Mitä teet muissa DLSS:ää tukevissa peleissä, joissa paukut ei riitä natiiviresoon?
Enpäs ole törmännyt sellaisiin peleihin vielä toistaiseksi. Liekö hetkeen törmäänkään, ei noista tukevista peleistä taida sellaista löytyäkään. Metro kylläkin on tsekkaamatta
 
Väittelykeskustelussa väittely tai tahojen väittämien haastaminen / kyseenalaistaminen on ilmeisesti kielletty jollei se aja ylläpidon agendaa.

Hieno konsensus 5/5.
 
Mites @knz0 on,
Linus lyttäsi nvidian täysin myttyyn wan showssa, eli onkos se nyt sitten AMD Tech Tips?
Entä Jay2Cents?

Onkos toi nyt sitten AMD2Cents?

AMDNexus?

Redditin nvidia ryhmässä roustataan nvidiaa aika huolella, mitäs ehottaisin sen reddit ryhmän uudeksi nimeksi? AMD on jo olemassa.


On se ihmeellistä kun sama firma onnistuu vuodesta toiseen aiheuttamaan näitä skandaaleita. Vasta edellisenä vuonna oli GPP skandaali. Ajattelin jo että nvidia on kunnostautunut, mutta ei se susi vaan turkistaan eroon pääse.
 
Mites @knz0 on,
Linus lyttäsi nvidian täysin myttyyn wan showssa, eli onkos se nyt sitten AMD Tech Tips?
Entä Jay2Cents?

Onkos toi nyt sitten AMD2Cents?

AMDNexus?

Redditin nvidia ryhmässä roustataan nvidiaa aika huolella, mitäs ehottaisin sen reddit ryhmän uudeksi nimeksi? AMD on jo olemassa.


On se ihmeellistä kun sama firma onnistuu vuodesta toiseen aiheuttamaan näitä skandaaleita. Vasta edellisenä vuonna oli GPP skandaali. Ajattelin jo että nvidia on kunnostautunut, mutta ei se susi vaan turkistaan eroon pääse.
?

Miten se liittyy muhun ja mun mielipiteeseen AMDunboxedin touhuista? Mun kritiikki liittyy nimenomaan siihen miten AMDunboxed hoitaa revikkansa ja miten he esittävät datansa. En ole puolustanut Nvidian päätöstä täällä ollenkaan, mielestäni se on Nvidian kannalta hölmö ja puree heitä nilkkaan. En tosin esitä olevani järkyttynyt siitä että juuri AMDunboxed on se lafka joka joutui ekana mustalle listalle. Ottaen huomioon heidän touhunsa (mitä kävin jo läpi ja mihin sä ja sun frendis että edelleenkään ottaneet kantaa paitsi irrallisten lainausten muodossa), päätös on jopa ymmärrettävä.

Ei muuta kuin estoille jos aiot käyttäytyä kuin mikäkin lapsi.
 
Mites @knz0 on,
Linus lyttäsi nvidian täysin myttyyn wan showssa, eli onkos se nyt sitten AMD Tech Tips?
Entä Jay2Cents?

Onkos toi nyt sitten AMD2Cents?

AMDNexus?

Redditin nvidia ryhmässä roustataan nvidiaa aika huolella, mitäs ehottaisin sen reddit ryhmän uudeksi nimeksi? AMD on jo olemassa.


On se ihmeellistä kun sama firma onnistuu vuodesta toiseen aiheuttamaan näitä skandaaleita. Vasta edellisenä vuonna oli GPP skandaali. Ajattelin jo että nvidia on kunnostautunut, mutta ei se susi vaan turkistaan eroon pääse.
HBU voisi katsoa kanssa peiliin ja miettiä miksi 2020 luvulla pelkällä transistorilla ja rasteroinnilla ei tulla taipumaan tulevaisuuden haasteisiin.

Hyvä pointti @JP
 
?

Miten se liittyy muhun ja mun mielipiteeseen AMDunboxedin touhuista? Mun kritiikki liittyy nimenomaan siihen miten AMDunboxed hoitaa revikkansa ja miten he esittävät datansa. En ole puolustanut Nvidian päätöstä täällä ollenkaan, mielestäni se on Nvidian kannalta hölmö ja puree heitä nilkkaan. En tosin esitä olevani järkyttynyt siitä että juuri AMDunboxed on se lafka joka joutui ekana mustalle listalle. Ottaen huomioon heidän touhunsa (mitä kävin jo läpi ja mihin sä ja sun frendis että edelleenkään ottaneet kantaa paitsi irrallisten lainausten muodossa), päätös on jopa ymmärrettävä.

Ei muuta kuin estoille jos aiot käyttäytyä kuin mikäkin lapsi.

HUB on kyllä antanut kovin kritiikkiä myös AMD:lle ja jos vaikka olisit kattonu 6900 revikan niin tietäisit että eivät todellakaan suosittele korttia.



Sieltä kun summaryn kuuntelet niin sanoo selvästi että RTX3090 on parempi noista kahdesta.
Ja tottahan Steve puhuu että RT ei ole mikään merkittävä juttu vielä. Se on merkittävä asia vain nvidia fanipoitsujen mielestä. RT tulee olemaan hyvin merkittävä homma vuosien päästä.

Syytät minua lapsellisesta käyttäytymisestä? Itsehän sinä tämän pistit alulle tuolla typerällä AMDBoxed sonnalla mille ei edes ole mitään katetta. Ihan kuten ei ole nvidian väitteillekkään katetta etteikö HUB olisi RT:tä käsitellyt.
Minä vain seurasin lasta lapsen tasolle ;)
Ja aika turhaa alkaa ottaa kantaa niihin sun "pointteihin" kun ilmaisit niin selvästi että defenssit on nostettu ylös, sanokaa mitä vaan niin laitat sormet korviin "läl-läl-läää, empäs kuule mittään!"

HUB on tehnyt ihan detikoituja juttuja RT:stä ja DLSS:stä. Mutta ilmeisesti ongelma niin nvidialla kuten sinulla on juurikin se että ne on tehny erillisenä artikkelina ne jutut, eli ei olla AMD:tä työnnetty rekan alle ja näytetty miten se nvidia loistaa ja amd sukkaa nvidia rahotteisissa rt ja dlss räpellyksissä.
Nvidia fanipojujen ja nvidian märkä päiväuni on se että testejä tehtäisiin ainoastaan peleillä joissa on nvidian sponssaama RT ja DLSS jolloin kilpailian kortti saataisiin näyttämään täysin surkealta.
 
Väittelykeskustelussa väittely tai tahojen väittämien haastaminen / kyseenalaistaminen on ilmeisesti kielletty jollei se aja ylläpidon agendaa.

Hieno konsensus 5/5.
Jätä tällaiset vihjailut "ylläpidon angendasta" jatkossa väliin, io-techilä ei sellaista ole. Jos foorumin linjauksissa on mielestäsi ongelmia, palaute-alueelta löytyy oikea ketju.
 
WAN show:ssa Linus päästi ulos monta totuutta. Harvoin näkee Linusia noin äksynä. Hän myös totesi aika osuvasti näistä fanipojuista ja olen täysin samaa mieltä.

Odotan innolla miten mm. Gamersnexus ja Jayz reagoi nvidia aiheeseen. Muutenkin kuin twitterissä tai redditissä.
 
Enpäs ole törmännyt sellaisiin peleihin vielä toistaiseksi. Liekö hetkeen törmäänkään, ei noista tukevista peleistä taida sellaista löytyäkään. Metro kylläkin on tsekkaamatta

Metrossa taitaa olla dlss1, joka kyllä näkyy ja mm taivaan vetää mössöksi. Pääosin 3090 kelloilla tuosta selviää ilmankin, poislukien kevät episodin metsät ruohoineen yms vetävät fps lähemmäs 40 natiivina. Metrot, talvi, aavikot jne 50-60 (vsync). Tämäkin hieman ikääntynyt peli ja tuoreemmissa tuntuu trendi olevan, ettei natiivina paljon mitään 4k resolla vedellä RT ON.
 
?

Miten se liittyy muhun ja mun mielipiteeseen AMDunboxedin touhuista? Mun kritiikki liittyy nimenomaan siihen miten AMDunboxed hoitaa revikkansa ja miten he esittävät datansa. En ole puolustanut Nvidian päätöstä täällä ollenkaan, mielestäni se on Nvidian kannalta hölmö ja puree heitä nilkkaan. En tosin esitä olevani järkyttynyt siitä että juuri AMDunboxed on se lafka joka joutui ekana mustalle listalle. Ottaen huomioon heidän touhunsa (mitä kävin jo läpi ja mihin sä ja sun frendis että edelleenkään ottaneet kantaa paitsi irrallisten lainausten muodossa), päätös on jopa ymmärrettävä.

Ei muuta kuin estoille jos aiot käyttäytyä kuin mikäkin lapsi.
Ei kannattaisi hirveästi vihjailla tuosta lapsellisuudesta kun itse ei tarkoituksella haluta edes kirjoittaa sivuston nimeä oikein.
 
Lopeta jo tuo trollaus.
Jätä tällaiset vihjailut "ylläpidon angendasta" jatkossa väliin, io-techilä ei sellaista ole. Jos foorumin linjauksissa on mielestäsi ongelmia, palaute-alueelta löytyy oikea ketju.

Lopeta trollailu . <= tätä olet hokenut, mutta paistaa läpi oma agendasi ilman todellisuuden tajua tai hyväksyntää. Mielestäni väittelykeskustelussa voi kyseenalaistaa myös toimituksen näkemyksiä? Ainakin aiemmin olen IO-Techin mieltänyt puolueettomaksi mediaksi? Alla listattua nykytilannetta et hyväksy, mutta ei se estä tästä väittelemistä;

Onhan tuo lukuisissa arvosteluissa ja suorituskyky vertailuissa nähtävänä, että AMD:n 6000-sarja tuli housut kintuissa 2020+ AAA-pelien kuten esim. CP2077 vaatimaan 4k suorituskykyyn. 1/3 kilpailijan suorituskyvystä AMD:llä ja mitään tekoälyn mahdollistamaa ratkaisua ei ole saatavilla.

Kummasti se Nvidian DLSS (matrixi laskenta / kuvanhuononnus / tyhmä laskenta) mahdollistaa 30FPS-> 100FPS ja kuvanlaadussa ei ole juurikaan eroa.? Ehkä siellä on kuitenkin jotain järkeä taustalla?

Miellätpä sen miten kuvanhuononnus tekniikaksi tai muuksi, niin ei se muuta sitä faktaa että sillä mennään 2020-luvulla kun pii kiekkojen rajat tulee vastaan ja kysynnän tarpeeseen on vastattava useammalla tasolla.
 
Metrossa taitaa olla dlss1, joka kyllä näkyy ja mm taivaan vetää mössöksi. Pääosin 3090 kelloilla tuosta selviää ilmankin, poislukien kevät episodin metsät ruohoineen yms vetävät fps lähemmäs 40 natiivina. Metrot, talvi, aavikot jne 50-60 (vsync). Tämäkin hieman ikääntynyt peli ja tuoreemmissa tuntuu trendi olevan, ettei natiivina paljon mitään 4k resolla vedellä RT ON.
Joo no, en nähnyt pointtia lähteä päivittämään näyttöä 4k:lle kun ei tää nykyrauta oikein vielä kykene sitä järkevästi mielestäni piirtämään, joten päädyin 1440p lgn 27gl850-b:hen. Ja cyberpunk on kyllä ainoa peli missä 1440p:kin käy raskaaksi ja vaatii dlss käyttöä jopa 5800x:llä ja 3090:llä
 
Lopeta trollailu . <= tätä olet hokenut, mutta paistaa läpi oma agendasi ilman todellisuuden tajua tai hyväksyntää. Mielestäni väittelykeskustelussa voi kyseenalaistaa myös toimituksen näkemyksiä? Ainakin aiemmin olen IO-Techin mieltänyt puolueettomaksi mediaksi? Alla listattua nykytilannetta et hyväksy, mutta ei se estä tästä väittelemistä;
Voi, saa ja on suorastaan suotavaa, ihan kuten kenen tahansa muunkin käyttäjän näkemyksiä.

Mitä muuta kyseinen lainattu viesti on, kuin nimenomaan trollailua kaikkine väärentimineen ja pasiansseineen? Jos luet vielä pidemmälle taakse niitä postauksia niin kokonaiskuva voi avartua paremmin.
Onhan tuo lukuisissa arvosteluissa ja suorituskyky vertailuissa nähtävänä, että AMD:n 6000-sarja tuli housut kintuissa 2020+ AAA-pelien kuten esim. CP2077 vaatimaan 4k suorituskykyyn. 1/3 kilpailijan suorituskyvystä AMD:llä ja mitään tekoälyn mahdollistamaa ratkaisua ei ole saatavilla.

Kummasti se Nvidian DLSS (matrixi laskenta / kuvanhuononnus / tyhmä laskenta) mahdollistaa 30FPS-> 100FPS ja kuvanlaadussa ei ole juurikaan eroa.? Ehkä siellä on kuitenkin jotain järkeä taustalla?

Miellätpä sen miten kuvanhuononnus tekniikaksi tai muuksi, niin ei se muuta sitä faktaa että sillä mennään 2020-luvulla kun pii kiekkojen rajat tulee vastaan ja kysynnän tarpeeseen on vastattava useammalla tasolla.
Tietenkin se mahdollistaa, koska se renderöi pelin matalalla resoluutiolla. Kuvanlaadussa on eroja, paikoin voi jopa näyttää paremmaltakin, mutta siinä on myös rutkasti omia ongelmiaan. Joitain ne häiritsee, toisia ei. Kuten olen monesti sanonut, jos artifaktit ja muut ongelmat ei häiritse, niin ilman muuta kannattaa käyttää, mutta se ettei yhtä häiritse ei tarkoita, ettei ketään häiritsisi ja etteikö ne artifaktit ja muut ole todellisia.

Mitä CP2077-suorituskykyyn tulee, mistä lähtien 4K-resoluutio on vaadittu? No, joka tapauksessa, 4K-resoluutiolla AMD:n näyttiksillä ei ole mitään "1/3 suorituskykyä", näyttäisi erot pyörivän n. 15% luokassa, riippuen vähän mitä kahta korttia vertaat ja varmaan eri revikoiden välillä voi olla pientä heittoa. Et kai nyt sotke DLSS-lukuja 4K-lukuihin? DLSS päällä peliä ei renderöidä 4K-resoluutiolla. Mites nuo 2020 AAA-pelit missä AMD pärjää ja jopa peittoaa kaikki NVIDIAn näytönohjaimet? Esimerkiksi tuore AC Valhalla?
 
Viimeksi muokattu:
Lopeta trollailu . <= tätä olet hokenut, mutta paistaa läpi oma agendasi ilman todellisuuden tajua tai hyväksyntää. Mielestäni väittelykeskustelussa voi kyseenalaistaa myös toimituksen näkemyksiä? Ainakin aiemmin olen IO-Techin mieltänyt puolueettomaksi mediaksi? Alla listattua nykytilannetta et hyväksy, mutta ei se estä tästä väittelemistä;

Onhan tuo lukuisissa arvosteluissa ja suorituskyky vertailuissa nähtävänä, että AMD:n 6000-sarja tuli housut kintuissa 2020+ AAA-pelien kuten esim. CP2077 vaatimaan 4k suorituskykyyn. 1/3 kilpailijan suorituskyvystä AMD:llä ja mitään tekoälyn mahdollistamaa ratkaisua ei ole saatavilla.

Kummasti se Nvidian DLSS (matrixi laskenta / kuvanhuononnus / tyhmä laskenta) mahdollistaa 30FPS-> 100FPS ja kuvanlaadussa ei ole juurikaan eroa.? Ehkä siellä on kuitenkin jotain järkeä taustalla?

Miellätpä sen miten kuvanhuononnus tekniikaksi tai muuksi, niin ei se muuta sitä faktaa että sillä mennään 2020-luvulla kun pii kiekkojen rajat tulee vastaan ja kysynnän tarpeeseen on vastattava useammalla tasolla.
Mihin vitun 2020 vaatimaan 4k-resoon,eihän tää nykyrauta pysty tuota kunnolla handlaamaan. Cyberpunk on oman aikansa crysis, ei pyöri oikeen millään. piste.
30fps -> 100fps dlssllä? Nyt on taidettu kaataa aamumuroihin sokerin sijasta iha muita jauheita. Jos vedät dlssn päälle että saat tollasen hypyn fpssässä niin kuvanlaatu on kyllä ihan takuulla perseestä. Jos tuota eroa ei huomaa, taitaa olla sama "päivittää" vaikka 1080p näyttöön sen 4k:n sijasta.
 
Onhan tuo lukuisissa arvosteluissa ja suorituskyky vertailuissa nähtävänä, että AMD:n 6000-sarja tuli housut kintuissa 2020+ AAA-pelien kuten esim. CP2077 vaatimaan 4k suorituskykyyn.

Onkos tuo nyt mikään ihme että nvidia rahoitteisessa pelissä nvidia jyrää?

Aika naurettavaa toimintaa pelin tekijältä julkaista peli joka ei pyöri edes pelattavasti PS4:lla. Tai jos 15-20 freimii joku mieltää pelattavaksi niin..
Mutta tarpeeksi kun vihreitä lappuja mätetään tiskiin niin moni on valmis myymään vaikka mummonsa. Ei tuota oikein muuten voi ymmärtää että peli konsoleille on laskettu ulos tuossa kunnossa.

PS. Mitä on ne muut esimerkit missä 6000 sarja on housut kintuissa?
 
Sillä, omistaako joku NVIDIAn näytönohjaimen vai ei ei ole mitään merkitystä sen kannalta, voiko kommentoida DLSS:ää sekä omien kokemusten että kuva- ja videoesimerkkien kautta. Muutenkin olisi syytä lopettaa tuollainen toisten käyttäjien luotettavuuden maalailu, täällä kuuluu väitellä noista näytönohjaimista teknologioineen sun muineen, ei käyttäjistä.

Se on vaan tietyllä tapaa turhaa kun tarjolla on ihan arvostettujen saittien tekemiä testejä. Vähän samaa kuin väittelisi jostain auton ajettavuudesta vaikkei koskaan olisi ajanut kyseisellä autolla, vaikka tarjolla olisi samaan aikaan ammattiajajan tekemä testi/koeajo youtubessa, se tekee koko hommasta vähän huvittavan.
 
Esitän jälleen toivomuksen, että DLSS:ää lakattaisi kutsumasta 4K:ksi. Se ei ole sen enempää 4K kuin joku PS4:n 2560x1440 skaalattuna 4K:lle, vaikka molempia olisikin kiva markkinoida 4K:na.
 
Vaikuttaisi siltä, että Nvidiaan tässä korttihommassa kannattaa kallistua kuitenkin...?:rolleyes: Taitaa tuo 3070 olla kaikinpuolin fiksumpi valinta kuin 6800xt tällä hetkellä.

3080 ei ole kuulunut mitään sitten viime viikon joten...

kumpaan korttiin te noista kahesta ensimmäisestä päätyisitte 2k pelaamiseen lähinnä? Molemmat on postissa.
 
Se on vaan tietyllä tapaa turhaa kun tarjolla on ihan arvostettujen saittien tekemiä testejä. Vähän samaa kuin väittelisi jostain auton ajettavuudesta vaikkei koskaan olisi ajanut kyseisellä autolla, vaikka tarjolla olisi samaan aikaan ammattiajajan tekemä testi/koeajo youtubessa, se tekee koko hommasta vähän huvittavan.
Ja kyseisen koeajon testidata on kaikkien saatavilla ja jos kierrosajat on saavutettu oikomalla mutkia, ja arvostelijat sivuuttavat kyseisen asian täysin, niin siitäkin voi tehdä omat johtopäätöksensä. Etenkin kun ottaa nvidian mafiakäytöksen huomioon, niin voiko yltiöpositiivisiin arvioihin luottaa enää tippaakaan?
 
Vaikuttaisi siltä, että Nvidiaan tässä korttihommassa kannattaa kallistua kuitenkin...?:rolleyes: Taitaa tuo 3070 olla kaikinpuolin fiksumpi valinta kuin 6800xt tällä hetkellä.

3080 ei ole kuulunut mitään sitten viime viikon joten...

kumpaan korttiin te noista kahesta ensimmäisestä päätyisitte 2k pelaamiseen lähinnä? Molemmat on postissa.

Siis jos 1080p = 2K pelaaminen niin sitten ei ole hirveesti väliä. Testit osoittaa että AMD on vahvoilla 1080p ja 1440p, kun taas 4K kuninkuus menee nvidialle.
Onhan toi 6800XT vs 3070 selvästi tehokkaampi, mutta jos se 2K pelaaminen on se 1080p niin molemmilla pärjää kyllä.
 
Onkos tuo nyt mikään ihme että nvidia rahoitteisessa pelissä nvidia jyrää?

Aika naurettavaa toimintaa pelin tekijältä julkaista peli joka ei pyöri edes pelattavasti PS4:lla. Tai jos 15-20 freimii joku mieltää pelattavaksi niin..
Mutta tarpeeksi kun vihreitä lappuja mätetään tiskiin niin moni on valmis myymään vaikka mummonsa. Ei tuota oikein muuten voi ymmärtää että peli konsoleille on laskettu ulos tuossa kunnossa.

PS. Mitä on ne muut esimerkit missä 6000 sarja on housut kintuissa?
Pelintekijän kannalta on nimen omaan toisinpäin. Miksi tehdä/kääntää johonkin aatamin aikaseen PS4 2013 alustaan, kun paukut pitäisi käyttää 2020-2025 alustoille PS5?

PS4 versio (alusta -13) voisi mielestäni jäädä julkaisematta jos ajattellaan kehityksen kannalta. nämä nyt toteutettu myynnin kannalta ja lopputulos on mitä on.
 
Se on vaan tietyllä tapaa turhaa kun tarjolla on ihan arvostettujen saittien tekemiä testejä. Vähän samaa kuin väittelisi jostain auton ajettavuudesta vaikkei koskaan olisi ajanut kyseisellä autolla, vaikka tarjolla olisi samaan aikaan ammattiajajan tekemä testi/koeajo youtubessa, se tekee koko hommasta vähän huvittavan.
Vertauksesi ei nyt ihan toimi, tässä puhutaan näöstä. Esimerkiksi jos pysähdyn pelissä ja otan häviöttömän screenshotin, se screenshotti näyttää ihan saman asian kuin mitä minä juuri näin livenä kenen tahansa muun ruudulla (näyttökohtaiset säädöt huomioiden tietenkin).
Videoiden kohdalla on toki pakkausvirheiden armoilla, mutta jopa niistä huolimatta tietyt ongelmat näkyvät jopa YouTube-tasoisissa videoissa erittäin selkeästi.
Lisäksi jätät täysin huomioitta sen, että useimmat eivät ole sidottuja käyttämään vain sitä omaa konettaan, vaan kokemuksia käytännöstä on helppo kerätä eri tekniikoista ja raudasta esimerkiksi kavereiden koneilla, joissa on eri komponentteja kuin omassa.

Vaikuttaisi siltä, että Nvidiaan tässä korttihommassa kannattaa kallistua kuitenkin...?:rolleyes: Taitaa tuo 3070 olla kaikinpuolin fiksumpi valinta kuin 6800xt tällä hetkellä.

3080 ei ole kuulunut mitään sitten viime viikon joten...

kumpaan korttiin te noista kahesta ensimmäisestä päätyisitte 2k pelaamiseen lähinnä? Molemmat on postissa.
6800 XT on keskimäärin selvästi nopeampi näytönohjain noista kahdesta, myös useimmissa RT-peleissä vähintään samaa luokkaa (pl. path trace -setit, CP:stä ei vielä tiedetä). 1440p-resoluutiolla noiden skaalaussettien merkitys pienenee, vaikka joku täällä taisi juuri todeta että hänen mielestään jopa 3090:llä loppuisi CP2077:ssa puhti 1440p-resolla. Mainitsemallasi 2K eli 1080p-resolla 6800:n edun pitäisi vaan kasvaa entisestään niissä asioissa missä oli jo edellä.
 
Pelintekijän kannalta on nimen omaan toisinpäin. Miksi tehdä/kääntää johonkin aatamin aikaseen PS4 2013 alustaan, kun paukut pitäisi käyttää 2020-2025 alustoille PS5?

PS4 versio (alusta -13) voisi mielestäni jäädä julkaisematta jos ajattellaan kehityksen kannalta. nämä nyt toteutettu myynnin kannalta ja lopputulos on mitä on.
Se olisi pitänyt jättää julkaisematta ps4:lle. Nyt firma on kuitenkin tuon päättänyt tuoda markkinoille käytännössä pelikelvottomana (720p low 15 fps) ja firman osake tippunut (edit kahdessa) päivässä 30%.
 
Viimeksi muokattu:
Vaikuttaisi siltä, että Nvidiaan tässä korttihommassa kannattaa kallistua kuitenkin...?:rolleyes: Taitaa tuo 3070 olla kaikinpuolin fiksumpi valinta kuin 6800xt tällä hetkellä.

3080 ei ole kuulunut mitään sitten viime viikon joten...

kumpaan korttiin te noista kahesta ensimmäisestä päätyisitte 2k pelaamiseen lähinnä? Molemmat on postissa.
Riippuu ihan mitä pelaat. Jos et pelaa mitään RT pelejä tai et pane sille sen suurempaa arvoa, niin AMD. Jos se RT on se juttu, niin nVidia. Kannattaa muistaa, että nyt on taas kunnon kilpa nVidian ja AMD:n välillä, joten on vähintään todennäköistä, että se RT tulee olemaan rankasti tehokkaampi seuraavassa sukupolvessa otit kumman tahansa eli nämä nykyiset kortit jäävät vähän välimalleiksi.
 
PS4 versio (alusta -13) voisi mielestäni jäädä julkaisematta jos ajattellaan kehityksen kannalta. nämä nyt toteutettu myynnin kannalta ja lopputulos on mitä on.

No tollaisena mikä se nyt on olis ehdottomasti pitäny jättää julkaisematta. Mutta ilmeisesti paineet oli niin kovat saada paska väännettyä pitkän ummetuksen jälkeen pihalle että julkaistiin sitten ihan täyttä ripulia ja toivotaan että saadaan hommat jotenkin korjattua myöhemmin, kunhan nvidian suuntaan vaadittavat kumartelut on suoritettu.
 
Siis jos 1080p = 2K pelaaminen niin sitten ei ole hirveesti väliä. Testit osoittaa että AMD on vahvoilla 1080p ja 1440p, kun taas 4K kuninkuus menee nvidialle.
Onhan toi 6800XT vs 3070 selvästi tehokkaampi, mutta jos se 2K pelaaminen on se 1080p niin molemmilla pärjää kyllä.
2K taitaa olla kansankielellä sama kuin 1440p.
Itse ottaisin vaihtoehdoista 3070/6800xt Amd:n ainakin jos hintaero ei ole merkittävä (600vs1000e). 3080/6800xt aibeissa kääntyisin varmaan sitten nvidian puoleen.

Iso merkitys tietty sillä mitä pelaat, jos haluat näitä RT ja DLSS niin tuo 3070 on varmaan järkevämpi valinta. Mutta toisaalta taas 3070 ei ole hintalaatu-suhteeltaan lähelläkään 3080 tai 6800xt rasteroinnissa vaan vähän väliinputoajamalli kaikessa.
 
Se on vaan tietyllä tapaa turhaa kun tarjolla on ihan arvostettujen saittien tekemiä testejä. Vähän samaa kuin väittelisi jostain auton ajettavuudesta vaikkei koskaan olisi ajanut kyseisellä autolla, vaikka tarjolla olisi samaan aikaan ammattiajajan tekemä testi/koeajo youtubessa, se tekee koko hommasta vähän huvittavan.
Noh eikös tää pääsääntöisesti ole vähän sama kuin omistaa 3090 ja sanoa että Nvidia hakkaa Amd:n vaikka omistaa vain yhden nvidian kortin eikä ainuttakaan Amd:ta.

Kyllä, puhuin dlssää vastaan ennen RTX:n asennusta, aion puhua jatkossakin. Cyberpunkissa se toimii ja siinä ilmeisesti on esimerkkejä että saa jopa parempaa kuvaa kuin natiivilla, nää on hankala todeta kun ei voi pyörittää kahdella vierekkäisellä näytöllä samaa on ja off. Sama ei ikävä kyllä pidä paikkaansa kaikkien pelien kanssa edes quality-modella, esim wolfenstein youngbloodissa ne artefaktit täytti sopivassa kohtaa puoli ruutua ja häiritsi aivan liikaa.

En pitäisi dlss päällä CPssäkään mutta jos se on rtx3090 ainoa järkevä konsti saada kunnon fps 1440pllä kaikki kaakossa, niin mennään sitten sillä.
High vois toki riittää ja ilman, mutta se henk koht vertailu kuvanlaatujen välillä on vaikeaa, vivut voi kääntää vaan päälle ja katsoa näkyykö jotain mikä häiritsee omaa silmää ja säätää sen mukaan, kovin objektiivisesti sitä ei voi tuolla metodilla vertailla
 

Statistiikka

Viestiketjuista
259 416
Viestejä
4 507 044
Jäsenet
74 395
Uusin jäsen
amer

Hinta.fi

Back
Ylös Bottom