Pitää vaan toivoa että tossa siirtymässä ottavat nanitesta kaiken hyödyn irti. Onhan forttiki nykyään ue5, mutta ei hyödynnä juurikaan sen tarjoamia mahdollisuuksia.En tiedä milloin tulee, mutta pubg siirtyy UE5. Voi tulla myös pubg 2.
Follow along with the video below to see how to install our site as a web app on your home screen.
Huomio: This feature may not be available in some browsers.
Pitää vaan toivoa että tossa siirtymässä ottavat nanitesta kaiken hyödyn irti. Onhan forttiki nykyään ue5, mutta ei hyödynnä juurikaan sen tarjoamia mahdollisuuksia.En tiedä milloin tulee, mutta pubg siirtyy UE5. Voi tulla myös pubg 2.
1440p pelaamiseen siis olisti myöhemmin tarkoitus siirtyä kun tulee osat ostettua, ja tosin isommalla resoluutiolla en ole dlss päässyt testaamaan mutta ihan järkeen käy asiaa ajateltua että paremmalla resoluutiolla vaikutus on pienempi kuvanlaadun suhteen.En tiedä milloin tulee, mutta pubg siirtyy UE5. Voi tulla myös pubg 2.
Mutta joo, dlss on vähän kai heikko jos lähtöreso on alle 1080p, riippumatta mikä on lopullinen reso mihin skaalataan. Transformer malli tosin tuo tähän parannusta.
Eli jos on pvp pelit pääharrastus 1080p resolla AMD tarjoaa mielestäni paremman hinta/laatu suhteen.
Se vähän mitä casuaalina pelailen Fornitea niin UE5 siirtyminen on moninkertaistanut tehovaatimukset ja AINA kun tulee uusi "Chapter" niin FPS kyykkää tai "droppailee" vaikka mikään ei koneessa muutu eikä pelissäkään näytä oikein mitään visuaalisesti muuttuneen.
Väitänkin että Fortnite on UEnginen testialusta ja siellä on vaikki mitä juttuja valikoivasti eri laumoille kokeilussa. Ainakin EAC jaottelee pelaajia eri ryhmiin joille tehdään eri tarkistuksia.
Noista asetuksista: minullakun on kustannustehokkaita koneita käytössä ja varsinkin kun on kasvanut Pong-aikakaudella niin kaikki resoluutiot kelpaa, kunhan FPS on aina vähintään 60, eikä mitään droppeja ole sen alle ja latenssit on kunnossa. Fortnitessa itselläni on etäisyys epic ja kaikki muut minimissä kun FPS tuntuu kyykkäilevän vähemmän.
En paljoa aiheesta ymmärrä mutta tää oli aikas mielenkiintoinen video "Epic's Unreal Optimization Disaster | Why Nanite Tanks Performance!"
Yksinkertaisin selitys on kasvaneet pelinkehityksen kulut. Engine kannattaa tehdä sellaiseksi, että pelikehityksen kulut minimoituvat. Osa kehityskulujen minimointia voi olla ettei saada viimeiseen asti optimoitua peliä tai otetaan pelikohtaisesti apua taholta X,Y,Z missä tahot voi olla esim. nvidia tai amd.Loistavaa rantti sisältöä tuolla Threat Interactivella kyllä liittyen nykyiseen engine kehitykseen ja siihen minkä takia pelit on menossa paskemmiksi ja paskemmiksi huolimatta siitä millasta rautaa osapuolet puskevat ulos. Tai oikeastaan kaikki rakennetaan riippuvaiseksi Nvidian proprietary upscalereista. Vaikuttaa aika tietoiselta toiminnalta. Paljonkohan Nvidia maksanut voitelurahaa Epicille moottorin kehittämisestä heille suotuisempaan suuntaan vai liekö toisinpäin.
Tuoreeltaan tuli ulos rtx 5070ti ja 9070/xt "vuotaneita" virallisemman oloisia hintalistauksia jenkeistä. Turha odottaa halpoja kortteja. Alkaa 5070ti hinnat lähentelemään 1000€ suomessakin jos pitää paikkansa. Aivan helvetin hullua mihin hinnatkin on kehittymässä riippumatta siitä kumman leirin kortin hankkii.
En ole nähnyt, mutta jos sulla on linkata noita tökkiviä niin se ois ihan kiva. Jos on tyyliin 2 peliä joissa tökkii niin ei voi just niissä laskea hieman asetuksia?
Ja voi olla olematta, ehkä pelintekijät kuitenkin optimoi niille raudoille mitä kuluttajien käsissä onJos nyt on jo pari peliä missä se muisti loppuu niin vuoden päästä voipi olla parikymmentä.
Pelintekijät ovat pitkään (Crysisistä alkaen) optimoineet raudalle, joka tulee tarjolle vasta sukupolven tai kahden päästä.Ja voi olla olematta, ehkä pelintekijät kuitenkin optimoi niille raudoille mitä kuluttajien käsissä on
Näin on, esim. UE5 ja striimaus sekä geometrialle että tekstuureille mikä poistaa muistipullonkaulan.Pelintekijät ovat pitkään (Crysisistä alkaen) optimoineet raudalle, joka tulee tarjolle vasta sukupolven tai kahden päästä.
![]()
Reaalimaailman ongelmaksi tulee, että yli 16GB kortit on aika minimissä kun katsotaan mitä määriä eri muistimäärille olevia kortteja pelaajien koneissa on. Kai pelintekijät optimoi ainakin jonkin 4k moodin toimimaan 16GB muistilla? Jos näin ei tapahdu niin ouch AMD: AMD promises “mainstream” 4K gaming with next-gen GPUs as current-gen GPU sales tank AMD nimenomaan mainostaa rdna4 16GB 4k pelaamiseen soveltuvana korttina.Mitään poistamisesimerkkiä en itse ole ainakaan nähnyt. Joo, satoja megoja se saattaa muisti käytössä alentaa, mutta tuo on nopeasti kuin pisara meressä ja vaatii taas lisää optimointia pelilntekijöiltä.
Sitten kun näytät sen esimerkin jossa ne 16GB tekstuurit mahtuvat vastaavasti 12GB muistiin samalla toiminnallisuudella niin voin allekirjoittaa että siitä on hyötyä (kortin valmistajalle joka säästää).
Reaalimaailman ongelmaksi tulee, että yli 16GB kortit on aika minimissä kun katsotaan mitä määriä eri muistimäärille olevia kortteja pelaajien koneissa on. Kai pelintekijät optimoi ainakin jonkin 4k moodin toimimaan 16GB muistilla? Jos näin ei tapahdu niin ouch AMD: AMD promises “mainstream” 4K gaming with next-gen GPUs as current-gen GPU sales tank AMD nimenomaan mainostaa rdna4 16GB 4k pelaamiseen soveltuvana korttina.
dlss4+megageometry säästää aika reilusti nvidia puolella muistia.
Aikaisemmin muistirajotteinen 8GB 4060 kortti sai melkein 60% fps boostin alan wake2:en uusimmassa versiossa kun muistinkulutus väheni kiitos dlss4+mega geometry(paremmin pakattu bvh puu).
En ymmärrä mitä esimerkkiä haluat? Jos sua ue5 striimaus oikeasti kiinnostaa niin ue5 enginen opetusmateriaalit tubessa. Se tukee 8k tekstuureita joka objektille(striimaus, mipmap tasot) ja geometrian striimausta. Cachena käytetään sekä gpu että keskusmuistia. GPU muisti ei juurikaan ole rajoite teknologian puolesta, levytila taas on. Joku yksittäinen peli voi taas sitten väsätä ue5:en mihin muotoon haluaa ja ei välttämättä saada täyttä hyötyä irti enginestä.Laita nyt se sanomani esimerkki. Se että NVIDIA ei tuota ko. kortteja ei voida katsoa NVIDIAn eduksi.
Jos 16gb tekstuurit eivät mahdu sillä pakkauksella 12gb korttiin niin se on 12gb vs. 16gb vertaamisessa hyödytön.
Tekniikan toki toivotan tervetulleeksi jos se tuo vuoden lisäaikaa noille 8GB korteille jotka tukehtuvat totaalisesti muistinsa takia. Se, että peli muuttuu täysin pelaamattomasta pelattavaksi ei varsinaisesti ole kehu nvidiaa kohtaan (vaikka tekniikka on tuon takia tervetullut tietyissä rajatuissa käyttötapauksissa rajatun aikaa).
Alan Wake 2 on vähän huono esimerkki, kun kyseessä nVidian tekniikkademo marginaaliluokan pelimoottorilla. Parempi kuin Cyberpunkin kuollut moottori toki, mutta mieluusti näkisi jollain muulla.En ymmärrä mitä esimerkkiä haluat? Jos sua ue5 striimaus oikeasti kiinnostaa niin ue5 enginen opetusmateriaalit tubessa. Se tukee 8k tekstuureita joka objektille(striimaus, mipmap tasot) ja geometrian striimausta. Cachena käytetään sekä gpu että keskusmuistia. GPU muisti ei juurikaan ole rajoite teknologian puolesta, levytila taas on. Joku yksittäinen peli voi taas sitten väsätä ue5:en mihin muotoon haluaa ja ei välttämättä saada täyttä hyötyä irti enginestä.
4060 8GB alan wakessa ei enää ole muistirajotteinen vaan laskentarajotteinen. AW2+säteenseuranta == raskasta. EI se kortti kykene tehojen puolesta kuin 1080p resoon vaikka muistia olisi kuinka paljon. Toki jos haluaa pelkän rasterikortin niin se on eri asia, mutta imho. aika taaksepäin katsova tapa ajatella. Mä ajattelen niin, että 16GB kortti on 4k, 12GB 1440p jne. Ei ne pelkät tekstuurit vaan myös säteenseuranta yms. karkit päälle. Megageometry ja dss4 säästää kivasti muistia.
Mun alkuperäinen pointti toki oli tähän vähän viittaava. Jos nvidia esim. tarjoaa että 1080p+rtx on kortti on 8GB, 1440p rtx on kortti on 12GB ja 4k rtx on kortti on 16GB niin noille optimoidaan. Jos ei muuten optimoida niin nvidian toimesta. AMD:kin "vain" 16GB 4k korttia tuomassa. Toki optimointi ei tarkoita samaa kuin, että kaikki asetukset kaakkoon ja 240fps. Optimointi mun kirjoissa tarkoittaa että pelissä on 8GB,12GB,16GB korteille devaajan mielestä parhaan kompromissin laatuasetus olemassa. Tuota asetusta on hinkattu ja optimoitu. Osa hinkkauksesta tapahtuu triviaalisti kun 1080p ruudun käyttämät tekstuurit 1/4 osa 4k tekstuureista(mip map tasot joita esim. ue5 osaa striimata eikä tarvi alkuperäistä tekstuuria muistiin).Alan Wake 2 on vähän huono esimerkki, kun kyseessä nVidian tekniikkademo marginaaliluokan pelimoottorilla. Parempi kuin Cyberpunkin kuollut moottori toki, mutta mieluusti näkisi jollain muulla.
Niin. 300 megatavua.dlss4+megageometry säästää aika reilusti nvidia puolella muistia.
No siis mielestäni niitä asetuksia voi ihan hyvin laskea korteilla joilla ei muisti riitä. Pelit tehdään pääasiassa konsoleille ja kaikki yli sen näyttävyyden mitä niillä saadaan tulee ihan älyttömällä suorituskyvyn menetyksellä.Mun alkuperäinen pointti toki oli tähän vähän viittaava. Jos nvidia esim. tarjoaa että 1080p+rtx on kortti on 8GB, 1440p rtx on kortti on 12GB ja 4k rtx on kortti on 16GB niin noille optimoidaan. Jos ei muuten optimoida niin nvidian toimesta. AMD:kin "vain" 16GB 4k korttia tuomassa. Toki optimointi ei tarkoita samaa kuin, että kaikki asetukset kaakkoon ja 240fps. Optimointi mun kirjoissa tarkoittaa että pelissä on 8GB,12GB,16GB korteille devaajan mielestä parhaan kompromissin laatuasetus olemassa. Tuota asetusta on hinkattu ja optimoitu. Osa hinkkauksesta tapahtuu triviaalisti kun 1080p ruudun käyttämät tekstuurit 1/4 osa 4k tekstuureista(mip map tasot joita esim. ue5 osaa striimata eikä tarvi alkuperäistä tekstuuria muistiin).
Vaikea nähdä miksi näin ei optimoitaisi muistin suhteen kun katsoo millaisia kortteja on kuluttajien koneissa kun huomioidaan myös 20x0 30x0, 40x0 kortit ja mitä muistimääriä rdna4 ja 50x0 kortit tukevat. Toki optimointi sen ehdoilla mihin kortti oikeasti pystyy, tyhjästä on paha nyhjästä.
Vaikea uskoa etteikö amd myös yrittäisi saada pelintekijöitä optimoimaan 4k 16GB, 1440p 12GB jne.
Yhä enemmänhän pelit siirtyvät siihen, että 1080p moodissakin tarvii säteenseurantaa. Jos ei alan wake2 kelpaa niin vaikka indiana jones.
Pelkkä megageometria 300MB. dlss4:en säästää siihen päälle lisää riippuen mitä ominaisuuksia sieltä räpsii päälle. Frame generationia jos käyttää(en ala tästä vääntään peistä, ne käyttää jotka käyttää ja toisinpäin) voipi olla yli gigan säästö yhteensä versus dlss3. Jos olisi geometriarikkaampi peli niin säästö tokisi olisi vielä isompi ja päinvastoin.Niin. 300 megatavua.
Eli dlss 4 käyttää enemmän muistia ku ilman? Vaikka listasit sen muistinkäyttöä vähentäväksi tekniikaksi aiemmin.Frame generationia jos käyttää(en ala tästä vääntään peistä, ne käyttää jotka käyttää ja toisinpäin) voipi olla yli gigan säästö yhteensä versus dlss3.
Ei niin. Pelintekijä sen sijaan voi tarjota ultra-tason tekstuureille. Ei sitä ole pakko käyttää, mutta käytännössä laskennallisesti ilmainen tapa saada pelistä ku pelistä paremmannäköinen. Ärsyttäis jos muistiin ei moiset mahtuisi.Mut ei ollut tarkoitus alkaa vääntään mun isin tai sun isin asetuksista. Mun CORE pointti oli, että kun katsoo miten paljon esim. 8GB kortteja on myyty niin ei pelintekijä niitä voi vain unohtaa ja tehdä peliä 5090:lle missä 32GB muistia.
Ja nvidialle järjetön PR tappio tuoda alle 16 gigan kortteja ylipäänsä markkinoille.AMD:lle ihan järjetön PR tappio jos 16GB ei riitä 4k:hon kun siinä tapauksessa amd:lla ei olisi rdna4 4k korttia olemassa.
Taisit lukea jotenkin oudosti. En noin kirjoittanut.Eli dlss 4 käyttää enemmän muistia ku ilman? Vaikka listasit sen muistinkäyttöä vähentäväksi tekniikaksi aiemmin.
Okei. Lisääkö frame gen muistinkäyttöä vai ei?Taisit lukea jotenkin oudosti. En noin kirjoittanut.
Miten teet pelistä paremman näköisen isommilla tekstuureilla kun UE5 jo tukee 8k tekstuureita per objekti + striimaus+pakkaus ja myös keskusmuistin käyttäminen cachena? Ongelma ue5:en kanssa ei enää ole niinkään muistinmäärä vaan se paljonko levytilaa on varaa käyttää pelin asennukseen.Eli dlss 4 käyttää enemmän muistia ku ilman? Vaikka listasit sen muistinkäyttöä vähentäväksi tekniikaksi aiemmin.
Ei niin. Pelintekijä sen sijaan voi tarjota ultra-tason tekstuureille. Ei sitä ole pakko käyttää, mutta käytännössä laskennallisesti ilmainen tapa saada pelistä ku pelistä paremmannäköinen. Ärsyttäis jos muistiin ei moiset mahtuisi.
Ja nvidialle järjetön PR tappio tuoda alle 16 gigan kortteja ylipäänsä markkinoille.
Onko UE5 ainoa pelimoottori?Miten teet pelistä paremman näköisen isommilla tekstuureilla kun UE5 jo tukee 8k tekstuureita per objekti + striimaus+pakkaus ja myös keskusmuistin käyttäminen cachena? Ongelma ue5:en kanssa ei enää ole niinkään muistinmäärä vaan se paljonko levytilaa on varaa käyttää pelin asennukseen.
Ruudulla jos objekti kattaa 128x128 pikseliä niin siihen käytetään soveltuvaa mipmap tasoa piirtämiseen eikä 8k tekstuuria. UE5 osaa striimata oikeat mipmap tasot gpu:n muistiin ilman, että tarvii pitää originaalia muistissa.
![]()
Why you really should be using mipmapping in your graphics applications - Imagination
Mipmapping is key to increased image quality and better performance. Find out what mipmaps are and why you should be using it.blog.imaginationtech.com
Pelkkä megageometria 300MB.
edelleen, onko ue5 ainoa pelimoottori? ei ole. Se on ihan se ja sama että mitä pidät "typeränä" jos pelit mitä pelataan ei tee asioita siten että 5090 4 gigan muistilla olis toimiva ratkaisu.Brute force ratkaisut typerää DirectStorage, SSD aikakaudella. Allaoleva esitys hyvä korkealla tasolla ue5:en käyttämästä striimauksesta ja miten kannattaa optimoida.
Skaalattuna, ei oikeana.Reaalimaailman ongelmaksi tulee, että yli 16GB kortit on aika minimissä kun katsotaan mitä määriä eri muistimäärille olevia kortteja pelaajien koneissa on. Kai pelintekijät optimoi ainakin jonkin 4k moodin toimimaan 16GB muistilla? Jos näin ei tapahdu niin ouch AMD: AMD promises “mainstream” 4K gaming with next-gen GPUs as current-gen GPU sales tank AMD nimenomaan mainostaa rdna4 16GB 4k pelaamiseen soveltuvana korttina.
Pelinkehityksen kulut niissä tapauksissa kun se on jonkinlainen ongelma studiolle on yleensä itseaiheutettu ongelma.Yksinkertaisin selitys on kasvaneet pelinkehityksen kulut. Engine kannattaa tehdä sellaiseksi, että pelikehityksen kulut minimoituvat. Osa kehityskulujen minimointia voi olla ettei saada viimeiseen asti optimoitua peliä tai otetaan pelikohtaisesti apua taholta X,Y,Z missä tahot voi olla esim. nvidia tai amd.
Tämä on hyvin pitkälti se mistä on kyse. Jos rahaa lapioidaan isoon floppiin tuollaisia määriä, niin se on myös muistakin tuotannoista pois. Toivottavasti vihdoinkin on opittu, että 15 vihaista twitteristiä ei ole se, kenelle niitä pelejä kannattaa tehdä.Pelinkehityksen kulut niissä tapauksissa kun se on jonkinlainen ongelma studiolle on yleensä itseaiheutettu ongelma.
Puhumattakaan sitten monista loistavista pienten studioiden ja indien studioiden peleistä. Pelaajat haluavat hyviä pelejä eivätkä Hollywood-näyttelijöitä, "modern audience"-sisältöä tai muuta roskaa mutta jos pelistudiot päättävät niihin panostaa, palkata satojen ylihinnoiteltujen managerien armeijan ja sen sijaan säästää rahaa teknologiapuolelta niin se on täysin heidän itse aiheuttamansa ongelma ja sitä on turha yrittää perustella millään "nousseilla kustannuksilla".
- Hittipeli Kingdom Come Deliverance 2 n. 40 miljoonaa dollaria.
- Toinen hitti Baldur's Gate 3 100 miljoonaa dollaria.
- Helldiver's 2 50-100 miljoonaa dollaria
- Floppi Star Wars outlaws 200-300 miljoonaa dollaria
- Floppi Dragon Age Veilguard kustansi 250 miljoonaa dollaria
- Floppi Concord, 400 miljoonaa euroa
Jep. En ole pelinkehittäjä, mutta uskaltaisin veikata että edes UE5 ei ole yhtä suuri ongelma kuin se että pelistudiot palkkaavat halpoja junior/outsourcing devaajia tekemään pelejä UE5:lla juuri sen takia että se on "valmis" paketti. UE5 nähdään lopullisena tuotteena vakioasetuksilla ja keinona säästää eikä hyvänä lähtökohtana josta optimoidaan hiottu timantti.Toinen mikä on tuon U5 enginen tuoma ongelma on se, että pelifirmat eivät aktiivisesti enää kehitä omia pelimootttoreita ja kaikki rakentuu U5 monopolin varaan. Toki yhtiölle se helpottaa varmasti valmiimpien devaajien löytämistä, mutta ei ole pidemmän päälle mitenkään hyvä tai kestävä asia.
Tää oman foorumin käyttäjien ongelmille ilkkuminen näyttäytyy todella aikuismaiselta. Laita vielä peukku nenään ja heiluta sormia.Tuolla GeForce-ajuriketjussa nautitaan näköjään NVIDIAn täysin ongelmattomista ajureista oikein urakalla. Ja mustat ruuduthan on AMD:n ongelma!![]()
Jos et ole sattunut huomaamaan niin "nvidia fanipojat" on huudellet radeoneiden huonoista ajureista (vaikka ne ongelmat on ajat sitten korjattu) samalla muistaen kehua että nvidia toimii aina.Tää oman foorumin käyttäjien ongelmille ilkkuminen näyttäytyy todella aikuismaiselta. Laita vielä peukku nenään ja heiluta sormia.
Se sopii tämän ketjun henkeen kuin nyrkki silmään. Ei taida löytyä tuollaisia hymiöitä meiltä, muuten voisin vaikka laittaakin.Tää oman foorumin käyttäjien ongelmille ilkkuminen näyttäytyy todella aikuismaiselta. Laita vielä peukku nenään ja heiluta sormia.
Jos et ole sattunut huomaamaan niin "nvidia fanipojat" on huudellet radeoneiden huonoista ajureista (vaikka ne ongelmat on ajat sitten korjattu) samalla muistaen kehua että nvidia toimii aina.
Toi oli kuittailua niille "fanipojille" ja muut osaa olla ottamatta tota liian vakavasti.
Nvidian ajurit tuntuu olevan todella hyvällä tasolla. Esim. Spiderman 2 5080:lla "pelikelvoton" kaikenlaisten ongelmien takia.
Taitaa olla spider-man 2 ihan yleisesti "pelikelvoton" oli kortti mikä hyvänsä. Peli sai siis paskaa niskaan juuri siitä että peli kaatuilee ja stutteroi minkä ehtii, eikä 5000 sarja korjannut asiaa.
Niin. Uskoakko jotain puhuvaa päätä vai katsooko esim spider-manin steam arvosteluita joissa on tuhansia punaisia peukkuja.Tuon videon mukaan AMD:n 9070 XT:llä on smooth. Eli onko sittenkin ongelma Nvidian ajureissa eikä pelissä?![]()
Niin. Uskoakko jotain puhuvaa päätä vai katsooko esim spider-manin steam arvosteluita joissa on tuhansia punaisia peukkuja.
![]()
Mutta toki, uskotaan että uusi radeon on niin hyvä että vain sillä Spider-man 2 pyörii sulavasti. Täytyy olla totta.
osuko fanipoikaa sydämeen kun oma ase osuikin omaan pesään? tämä vänkäysketju aikoinaan perustettiin ihan siitä syystä, että täällä saa vängätä, ei tarvitse muissa ketjuissa sitten.Tää oman foorumin käyttäjien ongelmille ilkkuminen näyttäytyy todella aikuismaiselta. Laita vielä peukku nenään ja heiluta sormia.
Yritätkö väittää että spider-man 2 oli mahtava julkaisu PC:llä? Julkaisupäivänä tuli youtubeen niin paljon contenttia sen paskuudesta eri kokoonpanoilla että yhdellä ihmisellä ei riitä elämä katsomaan sitä paskamyrskyä. Oli se AMD tai Nvidia niin rikki oli. Hienoa että enää "vain" 30% pitää peliä luokattomana steamissa.Näyttäisi Steamissa olevan 4233 peukkua alaspäin. Tosin peukkuja ylöspäin on sitten 11 454, eli aika tavalla enemmän. Steamista pelin ostaneista 73 % antanut positiivisen arvosanan, 27 % negatiivisen.
Myös Metacriticillä sekä käyttäjät että kriitikot antaneet enemmän plussaa kuin miinusta.
Mutta kyllä, juuri tuon sinun valitseman yhden arvostelun on pakko olla se totuus.
Ei mitään käryä millainen julkaisu on ollut. Puutuin vain tuohon sinun yksittäisen revikan arvosteluun kaiken kumoavana totuutena. Eikä siellä 30 % pidä sitä luokattomana, vaan 27 % on antanut negatiivisen, se ei tarkoita luokatonta, vaan negatiivista.Yritätkö väittää että spider-man 2 oli mahtava julkaisu PC:llä? Julkaisupäivänä tuli youtubeen niin paljon contenttia sen paskuudesta eri kokoonpanoilla että yhdellä ihmisellä ei riitä elämä katsomaan sitä paskamyrskyä. Oli se AMD tai Nvidia niin rikki oli. Hienoa että enää "vain" 30% pitää peliä luokattomana steamissa.
Ajattelin että tämmöset "punane on paskaosuko fanipoikaa sydämeen kun oma ase osuikin omaan pesään? tämä vänkäysketju aikoinaan perustettiin ihan siitä syystä, että täällä saa vängätä, ei tarvitse muissa ketjuissa sitten.
ps. kaokao ei omista io-tekkiä.
Mitä siis yrität nyt kumota? Alkuperäinen väite oli että spider-man 2 pelissä on ongelmaa spesifisti 5080 kortilla. Kumoatko nyt sen vai jonku muun asian? Kokeileppa vaikka lukea nuo viestit ensin läpi ennen kuin tulet siinä teräsmies kostyymissä paikalle jossa AMD logo rinnassa. Vääryys havaittu, näemmä.Ei mitään käryä millainen julkaisu on ollut. Puutuin vain tuohon sinun yksittäisen revikan arvosteluun kaiken kumoavana totuutena. Eikä siellä 30 % pidä sitä luokattomana, vaan 27 % on antanut negatiivisen, se ei tarkoita luokatonta, vaan negatiivista.
Käytämme välttämättömiä evästeitä, jotta tämä sivusto toimisi, ja valinnaisia evästeitä käyttökokemuksesi parantamiseksi.