Virallinen: NVIDIA vs AMD (vs Intel) keskustelu- ja väittelyketju

  • Keskustelun aloittaja Keskustelun aloittaja Sampsa
  • Aloitettu Aloitettu
Itse en koe, että pärjäisin ilman DLSS:ää 4K-näyttölaitteella. FSR:n jälki ei ole hääviä ja 4K:lla suuri osa peleistä ei pyöri riittävän hyvin alle 1000€ näytönohjaimella. Lisäksi tykkään RT:stä. Jos nämä asiat saataisiin jotenkin hanskaan AMD:llä, niin voisin harkita vaihtoa. VRAM:ista kyllä iso plussa, mutta se ei yksinään riitä.
 
Kannattaisi ehkä yrittää ymmärtää asioita vähän enemmän sen sijaan että lähtee kehittelemään salaliittoteorioita tarkoituksellisesta cripplaamisesta.

Ei siihen AD104-piiriin olisi voinut (järkevästi, hyvällä suorituskyvyllä) kytkeä 12 gigaa muistia, kun sen muistiväylä on 192-bittinen.

Jotta 16 gigaa muistia olisi ollut mahdollinen, olisi muistiväylä pitänyt leventää 256 bittiin. Ja se olisi tarkoittanut myös itse piirille selvästi lisää kokoa, koska enemmän PHYitä.
Ja lisäksi PCB olisi ollut paljon kalliimpi. Tähän päälle niiden muistipiirien hinta.

Se 16 gigaa muistia olisi tullut paljon kalliimmaksi valmistaa.

Jos haluaa isomman ja kalliimman kortin, sitten ostaa 4080n, jossa on isompi AD103-piiri jossa se 256-bittinen muistiväylä.



Onko se 12 GiB niukasti riippuu täysin siitä, onko pakkomielle valita asetuksista "texture quality: ultra" vai onko järkeä siihen, että välillä valitseekin "texture quality: medium" jonka vaikutus kuvanlaatuun useimmissa peleissä jää melko pieneksi jos pelissä oikeasti pelaa sitä peliä eikä mene vaan tuijottelemaan seiniä metrin päästä.
Eikö tuo ole aika monen toimijan kohdalla todettu, että Nvidia laski tarkkaan, kuinka paljon muistia riittää nykyisen sukupolven ajaksi ja onnistuikin siinä? Nyt esimerkiksi paskamyrskyn seurauksena on tulossa 16GB RTX 4060 Ti. Sen tiedostan, että muistiväylä rajoittaa käytettävän muistin määrää. Kuitenkin AMD ja Intel ovat saaneet hieman edullisemmankin pään kortteihin 12GB ja 16GB muistia. Ei luulisi olevan mahdoton paikka Nvidiallekaan.

12GB riittää tällä hetkellä. Kuitenkin oma pelko oli siinä, että muutaman vuoden päästä tulee taas tilanne, että kortin teho riittää, mutta muisti ei. En halua, että käy samaa kuin kävi oman 8GB RTX 3070 Ti:n kanssa. Jos tuossa kortissa olisi ollut enemmän muistia, olisin varmaan jatkanut sillä pidempään. Lisäksi esimerkiksi DLSS 3 FG nostaa VRAM:n käyttöä yli gigalla ja RT-efektit jopa useammalla. Voi hyvinkin tulla vastaan tilanne, jossa joku peli näyttäisi upealta ja pyörisi Frame Generationin kanssa hyvin, mutta muisti ei meinaa riittää. Nvidian RT:n ja DLSS 3:n markkinoinnilla ratsastaminen voi nousta ongelmaksi, jos muisti ei riitä niihin. Etenkin 8GB RTX 4060 -sarjaan tuo voi iskeä kovasti.

Aina voi toki laskea asetuksia, mutta jos ostan tonnin RTX 4070 Ti:n, oletan, että peleissä voi lyödä huoletta grafiikat tappiin 1440p-resoluutiolla, eikä pudotella asetuksia mediumille. Nvidia on valinnut, että tuo muistin määrä on nyt jo rajoilla ja lähivuosina tilanne voi pahentua. 12GB muistia siihen on niukasti ja 16GB taas olisi turvallisempi tulevaisuuden kannalta. 8GB korteilla tilanne meni niin pahaksi, että edes reilu grafiikoiden pudottelu ei meinannut auttaa. Samoin tekstuurit saattoivat olla mössöä, oli niillä mikä tahansa asetus päällä.
 
Viimeksi muokattu:
Itse en koe, että pärjäisin ilman DLSS:ää 4K-näyttölaitteella. FSR:n jälki ei ole hääviä ja 4K:lla suuri osa peleistä ei pyöri riittävän hyvin alle 1000€ näytönohjaimella. Lisäksi tykkään RT:stä. Jos nämä asiat saataisiin jotenkin hanskaan AMD:llä, niin voisin harkita vaihtoa. VRAM:ista kyllä iso plussa, mutta se ei yksinään riitä.
En ole itse vertaillut, mutta onko isokin ero 4k:lla DLSS quality vs. FSR2.1 quality? Huomaako ihan pelatessa selviä eroja?
 
Vanhaa rutinaa takarivistä, mutta Linux-puolella Radeon on aika lailla selvästi huolivapain valinta joka tilanteessa, mistä pisteet AMD:lle. Nvidia ja Intel (ARC) ajurituki laahaa pingviinipuolella vähän perässä koska (suhteessa Windowsiin) vähäisen käyttäjämäärän takia kummankin firman intressi kehittää edes suljettujakaan ajureita Linuxille on vähän niin ja näin. AMD sen sijaan valitsi suoraan avoimen lähdekoodin tien ja sen ajurituki Linuxilla on nykyisin todella kattava. Onhan AMD:llä proprietary-ajuritkin tarjolla Linuxille, mutta niitä ei keskivertokäyttäjä tarvi mihinkään.

En ole nykyisellä Fedora-distrollani koskenut millään tavalla itse OS:n asennuksen jälkeen GPU-ajureihin ja RX 6800 XT porskuttaa oikein sutjakasti peleissä avoimen koodin amdgpu-ajurilla. Jos olisin valinnut suht modernin NVidian kortin, olisi minun jo kättelyssä joko kannattanut huolella valita distro joka asentaa räätälöidyt ajurit valmiiksi (esim. POP!_OS, Nobara) tai metsästää jonkun muun valitsemani distron repoista Nvidian suljetut ajurit ja sormet ristissä toivoa että kaikki pelaa ilman ongelmia.
 
Ehkä seuraavilla laneilla pääsen näkemään rinnatusten vierekkäisistä monitoreista DLSS ja FSR -kuvaa. Itsellä nyt kun on vaan tämä yksi Radeoni jolla ei DLSS:ää voi käyttää, niin ei ole verrokkia. Mitä nyt nopeasti Last of ussissa testasin FSR Qualityä niin ei se kyllä laadullisesti haitannut. Toki mieluummin pelaan natiivilla kun siihen tehot kerta riittää.
 
XeSS Ultra qualityllä on noista kuvanpaskomis jutuista se paras mitä tulee kuvanlaatuun.
Sen ongelma on että AMD korteilla tuppaa tiputtamaan fpsiä, Nvidialla toimii kuten pitäisikin ja sitten Intelin korteilla homma romuttuu jo ajuri ongelmiin pelejen suhteen.

FSR ja XeSS eivät myöskään hukkaa ykstyiskohtia mitä DLSS vaikuttais tekevän.
Ja kannattaako noita käyttää?
No ei, koska vähän riippuen kortista ja pelistä paremmat fps boosti saat graffa asetuksia tiputtamalla pykälällä. Ja näin kuvanlaatu ei heikkene yhtään ja grafiikoissa tuskin huomaat eroa.

Asia taas erikseen jos on typeriä periaatteita että asetuksiahan ei tiputeta.
 
XeSS Ultra qualityllä on noista kuvanpaskomis jutuista se paras mitä tulee kuvanlaatuun.
Sen ongelma on että AMD korteilla tuppaa tiputtamaan fpsiä, Nvidialla toimii kuten pitäisikin ja sitten Intelin korteilla homma romuttuu jo ajuri ongelmiin pelejen suhteen.

FSR ja XeSS eivät myöskään hukkaa ykstyiskohtia mitä DLSS vaikuttais tekevän.
Ja kannattaako noita käyttää?
No ei, koska vähän riippuen kortista ja pelistä paremmat fps boosti saat graffa asetuksia tiputtamalla pykälällä. Ja näin kuvanlaatu ei heikkene yhtään ja grafiikoissa tuskin huomaat eroa.

Asia taas erikseen jos on typeriä periaatteita että asetuksiahan ei tiputeta.
Taitaa monella olla enemmänkin siitä kiinni ettei ole mielenkiintoa testailla kaikkien mahdollisten asetusyhdistelmien laatua vs. suorituskyky. Helpompi pitää asetukset maksimissa ja laittaa DLSS / FSR päälle.
 
Taitaa monella olla enemmänkin siitä kiinni ettei ole mielenkiintoa testailla kaikkien mahdollisten asetusyhdistelmien laatua vs. suorituskyky. Helpompi pitää asetukset maksimissa ja laittaa DLSS / FSR päälle.

Ööö peleissä ollut jo vuosia quality presetit eli laatu esiasetukset.
Joten vaikka Ultralta -> Very High tiputuksessa menee ihan samanverran aikaa kuin kytkeä FSR tai DLSS päälle.

Ja jos tommonen on liian haastavaa, niin kannattaa ihan oikeasti miettiä siirtymistä konsoli pelaajaksi. Sitten ei tarvitse asetuksia säädellä ei niin yhtään.

Kun PC pelaamisessa on juuri se että pystyt asetukset itse muuttamaan, eli saa vaikka motion blurnin pois.
Tai uutuus pelinkin saa pyörimään pelattavasti yllättävänkin heikolla/vanhalla raudalla.

Siksi esim. nämä muisti loppuu höpötykset ihan höpö höpöä.

Ja jos tuommoinen asia niin rassaa, niin eikö kannattais jättää kortit vaan kauppaan ? Näin menis varmasti valmistajalle/valmistajille viesti perille.

Mutta ei niin ei. Aina tuijotetaan vaan fps ja millään muulla ei tunnu olevan merkitystä. Minkä todistaa hyvin näiden DLSS, XeSS ja FSR käyttäminen.

Ensin höpötetään että pakko olla textuurit maksimilla kun pykälää matalemmilla ovat muka jo suttua.
Sitten kuitenkin lyödään se DLSS päälle ja pehmennetään niin ne tarkat textuurit kuin koko kuva.

Eli oikeasti tarkemman kuvan ja ne textuurit ois saanut tiputtamalla asetuksia pykälällä, eikä kytkemällä DLSS päälle.

Toinen ihme aihe on tämä säteenseuranta. Kyllä sillä toteutetut pelit ja pelien modit ovat hienoja kuin mitkä.
Kuten Quake 2 RTX ja Doomin sekä Quake 1 säteenseuranta modit.

Mutta nämä pelit joihin RT effektejä on liimattu vaan rasteroinnin päälle ovat kaikkea muuta kuin mitenkään vakuuttavia.
Kun rasteroinnilla kaikki nuo heijastukset, varjot ym. on voitu jo vuosia toteuttaa tarpeeksi uskottavasti.

Eli vois sanoa että koko säteenseuranta jutut ovat vielä aivan turhake jollei tykkää pelata noita vanhojen pelejen säteenseuranta versioita/modeja.
 
Itse ihmettelen joidenkin suoranaista vihaa Dlss&Fsr&Xess teknologioita kohtaan.

Jos joku kokee että 4k resoluutiolla Dlss quality näyttää paremmalta kuin tiputtaa asetuksia high niin miksi se on niin väärin?

Toki esimerkiksi itse olen ottanut Hardware Unboxed kanavan optimoidut asetukset Red dead redemption 2 pelissä kun Dlss näytti siinä huonolta jostain syystä.
 
Itse ihmettelen joidenkin suoranaista vihaa Dlss&Fsr&Xess teknologioita kohtaan.

Jos joku kokee että 4k resoluutiolla Dlss quality näyttää paremmalta kuin tiputtaa asetuksia high niin miksi se on niin väärin?

Toki esimerkiksi itse olen ottanut Hardware Unboxed kanavan optimoidut asetukset Red dead redemption 2 pelissä kun Dlss näytti siinä huonolta jostain syystä.

Paitsi RTX 4060 ti julkaisun yhteydessä alettiin hehkuttamaan DLSS3 1080p kortilla.
Nuo menevät kyllä 4k quality asetuksilla, mutta 1080p ja 1440p ne ovat No No.

Itseäni noissa ärtsyttää se kun väitetään että kuvalaatu ei mukamas muutu tai muuttuu niin vähän että eroa ei huomaa natiivi kuvaan nähden.

Sekä se että AMD FSR3:lla ja Nvidia DLSS3:lla hehkuttaa uusia korttejaan kun ilman eivät eroa tarpeeksi edeltäjistään.
Eli suomeksi yritetään kusettaa kuluttajia minkä keretään.
 
Paitsi RTX 4060 ti julkaisun yhteydessä alettiin hehkuttamaan DLSS3 1080p kortilla.
Nuo menevät kyllä 4k quality asetuksilla, mutta 1080p ja 1440p ne ovat No No.

Itseäni noissa ärtsyttää se kun väitetään että kuvalaatu ei mukamas muutu tai muuttuu niin vähän että eroa ei huomaa natiivi kuvaan nähden.

Sekä se että AMD FSR3:lla ja Nvidia DLSS3:lla hehkuttaa uusia korttejaan kun ilman eivät eroa tarpeeksi edeltäjistään.
Eli suomeksi yritetään kusettaa kuluttajia minkä keretään.
Itse en ole vielä päässyt kokeilemaan frame generationia mutta arvostelujen perusteella nykyversio siitä heikentää kuvanlaatua reilusti.
 
Sekä se että AMD FSR3:lla ja Nvidia DLSS3:lla hehkuttaa uusia korttejaan kun ilman eivät eroa tarpeeksi edeltäjistään.
Eli suomeksi yritetään kusettaa kuluttajia minkä keretään.
Missäs kohtaa on sanottu että FSR3 olisi sidottu RDNA3:een?
 
Varsinkin nuo frame generation -kikkareet ovat kyllä semmoista huttua että enpä olisi kuvitellut näkeväni. Tosiaan jos pelataan 4K-ruudulla DLSS tai FSR performance-asetuksella, eli peli rendataan sisäisesti 1080p resolla ja sitten vielä FG-päällä, niin se informaatio mitä näyttö sinulle näyttää on suurimmaksi osaksi algoritmien keksimää. Todellista pelimoottorin tuottamaa dataa on resoluutiosta 1:4 ja joka toinen frame interpoloitu, eli 1:8 on oikeasti pelimoottorin tuottamaa kuvaa.
 
Missäs kohtaa on sanottu että FSR3 olisi sidottu RDNA3:een?

Ei se olekkaan, enkä niin väittänytkään. Tarkoitin kun hehkutettiin RX 7900 julkistuksessa suorituskyky juttuja jatkuvasti FSR päällä plus sitä FSR3:sta.

Ihan huijaamista sanoa että pelaa 4k:lla jos FSR (tai DLSS tai XeSS) on käytössä.
Et silloin pelaa oikeasti 4k:lla vaan jollain 1080p ja 4k väliltä. Siksi myöskään noita ei pitäis missään tapauksessa ottaa mihinkään benchmarkki ym. vertailuihin mukaan.

Paras oli RX 7900:n julkkarissa kun AMD hehkutti 8k pelaamista ja tietenkin FSR päällä. Eli se ei ollut 8k nähnytkään.
 
Ei se olekkaan, enkä niin väittänytkään. Tarkoitin kun hehkutettiin RX 7900 julkistuksessa suorituskyky juttuja jatkuvasti FSR päällä plus sitä FSR3:sta.

Ihan huijaamista sanoa että pelaa 4k:lla jos FSR (tai DLSS tai XeSS) on käytössä.
Et silloin pelaa oikeasti 4k:lla vaan jollain 1080p ja 4k väliltä. Siksi myöskään noita ei pitäis missään tapauksessa ottaa mihinkään benchmarkki ym. vertailuihin mukaan.

Paras oli RX 7900:n julkkarissa kun AMD hehkutti 8k pelaamista ja tietenkin FSR päällä. Eli se ei ollut 8k nähnytkään.
Katsoin juuri AMD:n RX 7900 -julkaisudiat läpi:
- FSR oli 4K RT -vertailussa RX 6900 vastaan, mutta se oli päällä kummallakin
- FSR oli päällä "high refresh rate 4K" testeissä puolessa peleistä, mutta siinä ei vertailtu näytönohjainta mihinkään toiseen
- 8K-resoluutiolla pelaamista ei mainosteta (eikä ole testejä), mutta mukana on ensimmäisen(?) 8K-pelinäytön mainos, jonka lisäksi 8K esiintyy videoiden transkoodauksesta puhuttaessa
 
Siksi myöskään noita ei pitäis missään tapauksessa ottaa mihinkään benchmarkki ym. vertailuihin mukaan.
Brute forcella suorituskyvyn parantaminen sukupolvesta toiseen on jo historiaa, softatemput on se millä jatkossa kehitystä nähdään. Nvidia on tämän sanonut ja AMDkin tietää sen.
 
Niin, mikäs siinä jos haluaa maksaa 700€ näytönohjaimesta ja SILTI joutua karsimaan grafiikka asetuksista.. Minusta se ei ole kohtuullista ainakaan 1440p resolla. Eikä varmaan kovin monen muunkaan mielestä.

Ja vastaavasti AMD:llä on heikompi RT, eli asetuksia pitää sielläkin karsia. Lisäksi ei ole dlss3:ta eli asetuksia joutuu tiputtamaan vielä lisää jne. Ei tässä mitään täydellistä ratkaisua ole olemassa.
 
Aidon pikselin (tm) metsästäjille AMD tarjoaa halvemmalla rasterointitehoa ja nvidia tarjoaa softaratkaisuja joilla saadaan sujuva pelikokemus uusilla tekniikoilla (path tracing cyberpunk esim)

Kaikille jotain :)
 
Itse arvostan avoimia ratkaisuja (softa ja ajurit) sen verran paljon että edelliset kortit ovat olleet AMD tuotoksia (toki ajuritkin ovat paremmat, varsinkin Linuxin puolella kun ei tarvitse säätää kuten NVIDIAn kanssa). Toki Windowsin puolellakin on kaikkea kivaa (kuten AMD link ja näyttiksen suorituskyvyn seuraaminen kännykän näytöltä yms.), mutta kun noista en ole NVIDIAn kohdalla perillä niin hyvin niin en lähde vertailemaan.
 
Brute forcella suorituskyvyn parantaminen sukupolvesta toiseen on jo historiaa, softatemput on se millä jatkossa kehitystä nähdään. Nvidia on tämän sanonut ja AMDkin tietää sen.

Eikä ole. Se on vaan Papa J propagandaa joka on näemmä sinuunkin uponnut varsin tehokkaasti. Papa J vaan haluaa lihottaa lompakkoaan. Softa kikkailu on halvempaa kuin panostaa siihen oikeaan tehoon jolloin voidaan ottaa entistä enemmän rahaa kuluttajilta kun valmistuskustannukset ei ole niin suuret.

Mielestäni kehityksen tarttis alkaa nyt kulkea sellaiseen suuntaan että toi normi rasterointi pistettäisiin pakettiin, sitä tehoa on jo ihan riittävästi ja kaikki paukut RT tehoon jos siitä se graalin malja halutaan leipoa.
 
Brute forcella suorituskyvyn parantaminen sukupolvesta toiseen on jo historiaa, softatemput on se millä jatkossa kehitystä nähdään. Nvidia on tämän sanonut ja AMDkin tietää sen.

AMD tosin juuri tuplasti graffaytimiensä kertolaskimien määrän, ilman että tuplasi keinoja ruokkia niitä kertolaskimia tehokkaasti.

Mutta Mooren lain antama ilmainen lounas on tosiaan ohi, ei voida vaan jatkaa sitä että parin vuoden välein tuplataan kaiken määrä, koska uusilla valmistustekniikoilla transistorit eivät enää ole halvempia kuin vanhoilla, hyöty uusista valmistusprosesseista jää käytännössä siihen että virrankulutusta saa hiukan alas ja/tai kelloa hiukan ylös.
 
Itse en ole vielä päässyt kokeilemaan frame generationia mutta arvostelujen perusteella nykyversio siitä heikentää kuvanlaatua reilusti.
Ei heikennä. Sekä monessa pelissä sitä voi käyttää ihan natiiviresoluutiolla.
Helppo on valita haluaako pelata vaikka 60fps aavistuksen paremmalla kuvanlaadulla vai 100fps niin että satunnaisesti on jotiain grafiikkavirheitä joita ei huomaa kuin etsimällä etsimällä.
 
Ei heikennä. Sekä monessa pelissä sitä voi käyttää ihan natiiviresoluutiolla.
Helppo on valita haluaako pelata vaikka 60fps aavistuksen paremmalla kuvanlaadulla vai 100fps niin että satunnaisesti on jotiain grafiikkavirheitä joita ei huomaa kuin etsimällä etsimällä.

Itselle valinta on helppo: mielummin (v-sync päällä) natiivi 60 FPS (joka on suora moninkerta näytön virkistystaajuudesta) pienemmällä viiveellä eikä pelimoottori hitaamalla 50 FPSllä intepoloiduilla frameilla selvästi suuremmalla viiveellä "100 FPSllä" FPSn ollessa vielä epäsynkassa näytön frameraten kanssa.
 
Viimeksi muokattu:
Itselle valinta on helppo: mielummin (v-sync päällä) natiivi 60 FPS (joka on suora moninkerta näytön virkistystaajuudesta) pienemmällä viiveellä eikä pelimoottori hitaamalla 50 FPSllä intepoloiduilla frameilla selvästi suuremmalla viiveellä "100 FPSllä" FPSn ollessa vielä epäsynkassa näytön frameraten kanssa.
Niin no en ainakaa itse huomaa mitään viivettä fg päällä, saati sitten mitään ihmeellistä vaikka fps ei olisi suoraan jaollinen näytön virkistystaajuuden kanssa, mutta huomaan ison eron kyllä kun fps on huomattavasti korkeampi. Mutta hyvä, että on vaihtoehtoja ja jokaiselle löytyy se mieluisa.
 
Nämä epäsynkkajutut on vähän historiaa kun jotkauinkin kaikissa näytöissä ja telkkarissa on nykyään VRR.
 
Varsinkin nuo frame generation -kikkareet ovat kyllä semmoista huttua että enpä olisi kuvitellut näkeväni. Tosiaan jos pelataan 4K-ruudulla DLSS tai FSR performance-asetuksella, eli peli rendataan sisäisesti 1080p resolla ja sitten vielä FG-päällä, niin se informaatio mitä näyttö sinulle näyttää on suurimmaksi osaksi algoritmien keksimää. Todellista pelimoottorin tuottamaa dataa on resoluutiosta 1:4 ja joka toinen frame interpoloitu, eli 1:8 on oikeasti pelimoottorin tuottamaa kuvaa.
Kai ymmärrät, että lähtökohtaisesti kaikki tietokonegrafiikka on "feikkiä" ja "algoritmien keksimää"?
En oikein ymmärrä, miksi ihmiset tarttuvat menetelmään, jolla ruudulla näytettävä grafiikka tuotetaan, eikä oleellisiin asioihin, kuten nopeuteen ja laatuun. Vai onko kyse siitä, että "väärä" yritys on teknologiakehityksen aallonharjalla ja tämän vuoksi kehitystä pitää vastustaa ihan periaatteesta?
Eikö tuo olisi loistava kehitysaskel, jos vain 1/8 pikselistä pitäisi renderöidä perinteisin menetelmin ja loput voitaisiin generoida muin keinoin laadun pysyessä lähes samana? Tällöin voitaisiin sen yhden pikselin renderöintiin käyttää 8 kertaa enemmän aikaa (parempaa grafiikkaa) suorituskyvyn pysyessä samana tai 4 kertaa enemmän aikaa suorituskyvyn tuplaantuessa.
 
Kai ymmärrät, että lähtökohtaisesti kaikki tietokonegrafiikka on "feikkiä" ja "algoritmien keksimää"?
En oikein ymmärrä, miksi ihmiset tarttuvat menetelmään, jolla ruudulla näytettävä grafiikka tuotetaan, eikä oleellisiin asioihin, kuten nopeuteen ja laatuun. Vai onko kyse siitä, että "väärä" yritys on teknologiakehityksen aallonharjalla ja tämän vuoksi kehitystä pitää vastustaa ihan periaatteesta?
Eikö tuo olisi loistava kehitysaskel, jos vain 1/8 pikselistä pitäisi renderöidä perinteisin menetelmin ja loput voitaisiin generoida muin keinoin laadun pysyessä lähes samana? Tällöin voitaisiin sen yhden pikselin renderöintiin käyttää 8 kertaa enemmän aikaa (parempaa grafiikkaa) suorituskyvyn pysyessä samana tai 4 kertaa enemmän aikaa suorituskyvyn tuplaantuessa.

Kyse on siitä informaatiosta mitä näet. Jos ruudulla liikkuu pikseleitä joita sinun pitää seurata ja joihin pitää osua tai huomata niistä jotain muutoksia, niin itse ainakin tykkäisin että kaikki mitä näen tulee suoraan pelimoottorilta. Jos 7/8 informaatiosta tulee jostain muualta kuin pelimoottorista, niin miten voi yhtään luottaa siihen mitä näkee? Ihmisen silmä on erittäin tehokas huomaamaan äkillisiä muutoksia, esim. pimeässä huoneessa pieni valon pilkahdus. Jos nyt siellä yksi pikseli käy valkoisena hetkellisesti, niin se saattoikin olla skaalauksen terävöinnin aiheuttama artifaktivirhe joka vielä keksittyä framea luodessa vahvistettiin.

Toki jos tälle tielle lähdetään niin mikä ettei saman tien sitten koodata pelejä ja pelimoottoreita tyyliin "piirrä tähän tiiliseinä" ja sitten näytönohjaimen AI miettii itse miltä tiiliseinän pitäisi näyttää sen sijaan että pelintekijä olisi itse valinnut siihen tekstuuria. Ja jokaisella eri näyttiksellä ja jokaisella eri pelikerralla peli näyttää vähän erilaiselta. Tuo olisi ikään kuin paluu 90-luvulle kun pelien musiikit olivat MIDI-formaatissa, ja jokaisella pelaajalla oli erilaiset äänikortit joissa saattoi olla käyttäjän itsensä asentamia äänipaketteja, jolloin pelien äänet kuulostivat aivan erilaisilta riippuen siitä millä koneella niitä pelataan.
 
Viimeksi muokattu:
Voit laittaa tekstuurit tappiin jolloin ja käyttää varjoja jne. Eli peli näyttää varsin erilaiselta 4090 kortilla 4k resolla maks asetuuksilla kuin 300 euron kortilla 1080p low asetuksilla.
Peli siis näyttää hyvinkin erilaiselta riippuen millaisella kokoonpanolla sitä pelataan.

Ja tämä taas niin paska puhetta kuin olla ja voi.
1080p low asetuksiin ei tarvitse tyytyä edes 40€ käytetyllä kortilla.
Jos sijoittaa 100€ korttiin niin voi vetää huoletta 1080p Ultralla jos 60 - 100fps riittää.

Eli sillä RTX 4090 saat vain korkeamman reson ja fps:t.
 
Meinaatko että se AI generoitu kuva vedetään ihan hatusta eikä enne sen luontia ole analysoitu sitä mitä ruudulle on piirretty aikaisemmin ?
Miten se että pelissä liikut vaikka kaupungissa jotain katua ja ja AI sitten piirtää sitä rakennus taustaa eroaa siitä että sen piirtäisi pelin engine ?



En ymmärrä, tässä esimerkissä on kyse käyttäjän itsensä omasta valinnasta, eli pelin customoinnista sellaiseksi mistä itse eniten pitää. Miten se on jotenkin huono asia ?
Itse ainakin käytin aina omia midipankkeja juuri sen takia että sai soundit jotka kuulosti omaan korvaan parhaalta.

Se että default äänet kuulostivat erilaislta jos oli vaikka 8-bit vs. 16-bit äänikortti on ihan suoraan verrannollinen siihen että grafiikan osalta nykyään tehokkaampi ja parempi kortti tuottaa parempaa kuvaa.
Voit laittaa tekstuurit tappiin jolloin ja käyttää varjoja jne. Eli peli näyttää varsin erilaiselta 4090 kortilla 4k resolla maks asetuuksilla kuin 300 euron kortilla 1080p low asetuksilla.
Peli siis näyttää hyvinkin erilaiselta riippuen millaisella kokoonpanolla sitä pelataan.

Nykyään pelintekijä kuitenkin itse tekee valintoja sen suhteen että millaisia tekstuureja käytetään ja millaisia sävyjä ruudulla näkyy. Vastaavasti kuin musiikit äänitetään ja masteroidaan ja hifi-äänentoistojärjestelmän tarkoituksena on toistaa se mahdollisimman samanlaisena kuin alkuperäinen. Itse olen sen koulukunnan käyttäjä, että ajattelen että se ultra-tason kuvanlaatuasetus natiiviresoluutiolla on se referenssi jota koitetaan tavoitella. Jos ei koneen tehot siihen riitä, niin pitää joko madaltaa asetuksia tai laittaa skaalauskikkoja päälle. Asetuksia madaltamalla jää ehkä jotain puiden lehtiä tai hiuskarvoja piirtämättä, mutta skaalaimien ja framegeneraattorien kanssa ruudulle saattaa ilmestyä sellaisia pikseleitä joita siellä ei kuuluisi olla. Sitten jos siirrytään kokonaan lennosta käyttäjän koneella generoituun ulkoasuun, niin pitää vaan unohtaa että pelintekijällä olisi ollut joku referenssi mielessä siitä miltä tämän kuuluisi näyttää ja koittaa valita sellaiset osat jotka tuottavat itselle mieluista kuvaa.
 
Ja tämä taas niin paska puhetta kuin olla ja voi.
1080p low asetuksiin ei tarvitse tyytyä edes 40€ käytetyllä kortilla.
Jos sijoittaa 100€ korttiin niin voi vetää huoletta 1080p Ultralla jos 60 - 100fps riittää.

Eli sillä RTX 4090 saat vain korkeamman reson ja fps:t.

Ehkä niissä kevytpeleissä mitä lähinnä tunnut testaavan. Mites vaikka Cyberpunk asetukset tapissa 1080p?
 
Asetuksia madaltamalla jää ehkä jotain puiden lehtiä tai hiuskarvoja piirtämättä, mutta skaalaimien ja framegeneraattorien kanssa ruudulle saattaa ilmestyä sellaisia pikseleitä joita siellä ei kuuluisi olla.
Nämä epätäydelliset pikselit eivät tosin ole mikään skaalaimien ja frame generaattorien mukanaan tuoma uusi vitsaus. Sama ongelma koskee kaikkea temporaalista/stokastista renderöintiä. Esim. TAA ja SSR tai säteenseuranta efektit tuottavat ruudulle virheitä (TAA haamuja, SSR/RT kohinan suodastukseen liittyviä artefakteja).

Samastahan on väännetty ennenkin ja päästy lopputulokseen että joillekin kelpaa periaatesyistä vain "aito" kuva yhdellä tai mieluummin neljällä näytteellä (SSAA) per pikseli eikä pikseleiden/näytteiden uudelleenkäyttö kelpaa. Omasta mielestäni kummallinen niche positio, mutta onneksi en joudu itse tuosta nirsoudesta kärsimään.
 
Nämä epätäydelliset pikselit eivät tosin ole mikään skaalaimien ja frame generaattorien mukanaan tuoma uusi vitsaus. Sama ongelma koskee kaikkea temporaalista/stokastista renderöintiä. Esim. TAA ja SSR tai säteenseuranta efektit tuottavat ruudulle virheitä (TAA haamuja, SSR/RT kohinan suodastukseen liittyviä artefakteja).

Samastahan on väännetty ennenkin ja päästy lopputulokseen että joillekin kelpaa periaatesyistä vain "aito" kuva yhdellä tai mieluummin neljällä näytteellä (SSAA) per pikseli eikä pikseleiden/näytteiden uudelleenkäyttö kelpaa. Omasta mielestäni kummallinen niche positio, mutta onneksi en joudu itse tuosta nirsoudesta kärsimään.

Itse olen nyt tämän tykimmän näyttiksen saatuani siirtynyt vähän vanhemmissa peleissä (esim. Skyrim ja Fallout 4) siirtynyt TAA:sta pois Virtual Super Resolutionin avulla. Eli peli renderöityy 2x natiivilla resoluutiolla (1440p ruudulla 5120x2880 resoluutiolla) ja skaalataan siitä alas, niin suurin osa antialiasointia vaativista ikävistä sahalaidoista häviää. Tämä auttaa tosi paljon myös kaiken ruohokasvillisuuden ja kaukana olevien puiden piirtämiseen. Natiiviresolla TAA:n kanssa näyttävät huonommalta.
 
Viimeksi muokattu:
Vai onko kyse siitä, että "väärä" yritys on teknologiakehityksen aallonharjalla ja tämän vuoksi kehitystä pitää vastustaa ihan periaatteesta?

Niin pitkään kuin firmalla on tarkoitus taklata kilpailijat pois pelikentältä että päästäisiin rahastamaan entistä enemmän korteilla niin kyllä, tämä on syy. DLSS ensisijainen tarkoitus on nimenomaan kilpailun tappaminen.
Niin pitkään kuin hommat ei perustu joihinkin stantardeihin tai avoimeen koodiin, niin niillä haetaan kilpailullista etua muihin samalla alalla toimijoihin.

Lisäksi se ei ainakaan kehitystä vie eteenpäin että joka pelurilta tulee omaa härpäkettä millä tehdään käytännössä samoja asioita. Se on devaajille aina ylimääräistä työtä, jonka voisi hyvin käyttää johonkin muuhun jos homma perustuisi stantardiin taikka avoimeen koodiin että se huttu toimisi kaikkien valmistajien raudalla.
 
Niin pitkään kuin firmalla on tarkoitus taklata kilpailijat pois pelikentältä että päästäisiin rahastamaan entistä enemmän korteilla niin kyllä, tämä on syy. DLSS ensisijainen tarkoitus on nimenomaan kilpailun tappaminen.
Niin pitkään kuin hommat ei perustu joihinkin stantardeihin tai avoimeen koodiin, niin niillä haetaan kilpailullista etua muihin samalla alalla toimijoihin.

Lisäksi se ei ainakaan kehitystä vie eteenpäin että joka pelurilta tulee omaa härpäkettä millä tehdään käytännössä samoja asioita. Se on devaajille aina ylimääräistä työtä, jonka voisi hyvin käyttää johonkin muuhun jos homma perustuisi stantardiin taikka avoimeen koodiin että se huttu toimisi kaikkien valmistajien raudalla.
Kukas sen avoimen koodin kirjoittaa ja millä rahalla? Tietyillä yrityksillä avoimeen lähdekoodiin panostamisen suurin motivaatio on omien resurssien puute. Halutaan, että joku muu tekee työn ja mielellään ilmaiseksi.
 
Ja tämä taas niin paska puhetta kuin olla ja voi.
1080p low asetuksiin ei tarvitse tyytyä edes 40€ käytetyllä kortilla.
Jos sijoittaa 100€ korttiin niin voi vetää huoletta 1080p Ultralla jos 60 - 100fps riittää.

Eli sillä RTX 4090 saat vain korkeamman reson ja fps:t.

Kyllä aika pitkälti AAA pelit vaatii huomattavasti nopeampaa rautaa 1080p Ultralle kuin mitä 100€:lla saa. Uutena ei taida saada mitään ja käytettynä ehkä jonkun gtx 1070 parhaimmillaan...
 
George hotz yritti amd:n raudalla tehdä koneoppimista ja hajos atomeiksi, kun ajurit niin huonot. Pelkät amd:n esimerkkisoftat loopissa ajettuna sai koneen jumiin. Videolla pitkä selitys miksi hotzin mielestä amd:lla on huono tekemisen kulttuuri softan kanssa ja miksi hänen vinkkelistään tilanne ei tule parantumaan ellei tehdä isoja muutoksia. Ottaa myös kantaa siihen, että ei voi vain olettaa "open source" ja kaikki toimii hetken päästä.

Kai AMD:n konesalipiirien ajurit ovat paremmat. Tosin aika moni tekee koneoppimista kuluttajaraudalla vaikka lopulliset neuroverkot opetettaisiinkiin konesalissa.

Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.
 
Kyllä aika pitkälti AAA pelit vaatii huomattavasti nopeampaa rautaa 1080p Ultralle kuin mitä 100€:lla saa. Uutena ei taida saada mitään ja käytettynä ehkä jonkun gtx 1070 parhaimmillaan...

Luulo ei ole tiedon väärti ;)
AMD aliarvostetut Vega kortit ovat hemmetin hyvin vanhentuneet. Eli Vega 56 sekä Vega 64 ovat 100€ hintaluokassa hemmetin hyviä vielä peleihin.
Tai ylipäätään AMD kortit ovat vanhentuneet hienosti, mutta Nvidian kortit taas ei niinkään. Miksi näin ? No ei hajuakaan mutta mitä noita tullut testailtua niin silleen noi nyt tuppaa menemään.

Ehkä niissä kevytpeleissä mitä lähinnä tunnut testaavan. Mites vaikka Cyberpunk asetukset tapissa 1080p?

Ensinnäkin Cyberpunk oli testipelinäni ajat sitten ja se ei kiinnostanut ketään. Ja omasta mielestäni ei niin hääppöinen peli joten tiputin sen pois testipeleistä.
Ja olen huomannut että sinua ja pari muuta täällä näyttää vituttavan kuin pientä eläintä jos näytän että se uusi ja mahtava peli toimiikin paljon vanhemmalla raudalla enemmän kuin hyvin.
Kun te ette selvästikkään halua että kukaan muu voi nauttia pelistä halvemmalla kuin TE.
Joten muutatte jatkuvasti mikä kelpaa ja mikä ei kelpaa testipeliksi sen mukaan mikä istuu teidän agendaanne parhaiten.

Ja mitä pelejä tuossa äsken lueteltiin mitä pitäisi testata, niin kattelin niitä vasta uusiksi testipeleiksi syksyksi.
Mutta pelit näyttivät siltä että eivät itseäni kiinnosta pelata ja kun en tästä tienaa mitään. Joten en osta mitään 60€ peli sen takia kun jotkut TechBBSsä niin vaativat.

Vastakin vaadittiin Resident Evil 4:sta testipeliksi kun se vaatii 12GB VRAMia ja se kyykyttää vanhat kortit.
No en lähtenyt 60€ sijoittamaan peliin mikä itseäni ei kiinnosta yhtään, mutta demolla olen nyt testaillut jokusen kortin ja pienosti pyörii vanhemmallakin raudalla.
Tai no Intelin (A750) ja AMD ( RX 5700 XT ja RX 5500 XT ) korteilla ei ongelmia, mutta Nvidian RTX 2060:lla kun 6GB VRAM loppu kesken niin peli aina kaatu.
Että mahtavaa ajuri työtä taas Nvidialta tuon asian suhteen.
 
No millä auktoriteetillä sitten yleistät mitään resoluutioista ja asetuksista lun testipelisi edustavat vanhaa ja/tai kevyttä aliosuutta pelimarkknoista?

Joku RE4 on kevyt kuin mikä.
 
Viimeksi muokattu:
George hotz yritti amd:n raudalla tehdä koneoppimista ja hajos atomeiksi, kun ajurit niin huonot. Pelkät amd:n esimerkkisoftat loopissa ajettuna sai koneen jumiin. Videolla pitkä selitys miksi hotzin mielestä amd:lla on huono tekemisen kulttuuri softan kanssa ja miksi hänen vinkkelistään tilanne ei tule parantumaan ellei tehdä isoja muutoksia. Ottaa myös kantaa siihen, että ei voi vain olettaa "open source" ja kaikki toimii hetken päästä.

Kai AMD:n konesalipiirien ajurit ovat paremmat. Tosin aika moni tekee koneoppimista kuluttajaraudalla vaikka lopulliset neuroverkot opetettaisiinkiin konesalissa.

Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.


Minä olen henkilökohtaisesti tehnyt 5900X ja 6900XT yhdistelmällä konenäköön ja koneoppimiseen liittyvää sovellusta. Eikä ollut mitään ongelmaa....... Aika laukalle lähtee jutut vaihteeksi......

Edit: tuo siis minun taidoilla. Silloin onnistuu myös naapurin mummolta.
 
Minä olen henkilökohtaisesti tehnyt 5900X ja 6900XT yhdistelmällä konenäköön ja koneoppimiseen liittyvää sovellusta. Eikä ollut mitään ongelmaa....... Aika laukalle lähtee jutut vaihteeksi......

Edit: tuo siis minun taidoilla. Silloin onnistuu myös naapurin mummolta.
Millä käyttiksellä ja frameworkilla devasit? Mun linkkaama liittyi isoihin kielimalleihin ja linuxin päällä devaamiseen. Samat frameworkit ja mallien opettaminen toimii hyvin intelilla ja nvidialla. Linuxin päällä loopissa ajettuna amd:n esimerkit kyllä kaataa koneita. Linkin tyyppihän käy yhtä amd:n hänelle tarjoamaa ajurikorjausta läpi minkä pitäisi vähentää kaatuilua.

Toi heppu devaa tinygrad:ia GitHub - geohot/tinygrad: You like pytorch? You like micrograd? You love tinygrad! ❤
 
Kyllä AMD:n ajurit olivat ainakin 6xxx-sarjan aikaan oli paljon bugisempia kuin Nvidian. 6900 XT kun vaihtoi toiseen 6900 XT korttiin niin ei antanut edes kuvaa ennen kuin poisti vanhat ajurit, kerran ajurit rikkoivat windowsin ja melkein päivittäin ainakin kerran oli sitä black screen ongelmaa, että meni ruutu ihan mustaksi ja kuva palautui 1-2min sisällä. Tosin kun oli kuukauden testissä RX 7900 XTX niin ei ollut kertaakaan mitään ongelmaa, eli jäi oikein positiivinen maku siitä ja ajureista, mutta DLSS 3 ja RT-suorituskyky saivat siirtymään takaisin nvidiaan.
 
Millä käyttiksellä ja frameworkilla devasit? Mun linkkaama liittyi isoihin kielimalleihin ja linuxin päällä devaamiseen. Samat frameworkit ja mallien opettaminen toimii hyvin intelilla ja nvidialla. Linuxin päällä loopissa ajettuna amd:n esimerkit kyllä kaataa koneita. Linkin tyyppihän käy yhtä amd:n hänelle tarjoamaa ajurikorjausta läpi minkä pitäisi vähentää kaatuilua.

Toi heppu devaa tinygrad:ia GitHub - geohot/tinygrad: You like pytorch? You like micrograd? You love tinygrad! ❤

WIN10/Anaconda.

Edit: Lähinnä sillä nostin esiin kun lähtee yleistäminen laukalle. On totta, että monessa asiassa AMD:n kuluttaja tuotteet eivät ole hyviä, mutta onko tarkoitettu siihen? Ihan yhtälailla voisin sanoa, että Intel/Nvidia pohjainen läppäri on kuraa koneoppimiseen kun ei suoriutunut mallin opettamisesta ja AMD pohjainen pöytäkone suoriutui......
 
Viimeksi muokattu:
WIN10/Anaconda.

Edit: Lähinnä sillä nostin esiin kun lähtee yleistäminen laukalle. On totta, että monessa asiassa AMD:n kuluttaja tuotteet eivät ole hyviä, mutta onko tarkoitettu siihen? Ihan yhtälailla voisin sanoa, että Intel/Nvidia pohjainen läppäri on kuraa koneoppimiseen kun ei suoriutunut mallin opettamisesta ja AMD pohjainen pöytäkone suoriutui......

Kokeiles käyttää hiljattain kuluttajakorteillekin tarjottua rocm alustaa linuxin päällä ja sun mieli laukasta voi muuttua. Rocm siis amd:n ratkaisu mitä suositellaan raskaampaan koneoppimiskäyttöön. Toki joku windows juttu toiminee, mutta niistä ei isommin ole iloa, jos tarkoitus olis myöhemmin konesalissakin ajaa samaa koodia. Nimenomaan ne amd:n rocm samplet mitkä kaataa konetta,...

 
Kokeiles käyttää hiljattain kuluttajakorteillekin tarjottua rocm alustaa linuxin päällä ja sun mieli laukasta voi muuttua. Rocm siis amd:n ratkaisu mitä suositellaan raskaampaan koneoppimiskäyttöön. Toki joku windows juttu toiminee, mutta niistä ei isommin ole iloa, jos tarkoitus olis myöhemmin konesalissakin ajaa samaa koodia. Nimenomaan ne amd:n rocm samplet mitkä kaataa konetta,...


Just.... Kuinka monta lausetta löytyy missä puhutaan RX sarjan kuluttaja ohjaimista ja ROCm alustasta? Entä kuinka monta instinct sarjasta?

Kummallehan meinaat, että alusta on optimoitu? Suositteleeko AMD RX-sarjan ohjaimia raskaaseen koneoppimiseen?
 
Tai no Intelin (A750) ja AMD ( RX 5700 XT ja RX 5500 XT ) korteilla ei ongelmia, mutta Nvidian RTX 2060:lla kun 6GB VRAM loppu kesken niin peli aina kaatu.
Että mahtavaa ajuri työtä taas Nvidialta tuon asian suhteen.
Hmm, mitä ajuri työtä pitäisi tehdä kun vertaat 8GB kortteja 6GB korttiin, josta loppuu vram kesken? Pitäisikö nvidian tehdä sellaiset ajurit millä saisi 2GB lisää Vrammia?

Edit. Poistetaan osa viestistä, ettei aiheidu sen enempää polemiikkia. Varsinkin kun jotkut eivät ymmärrä kevennyksiä/huumoria :)
 
Viimeksi muokattu:
Just.... Kuinka monta lausetta löytyy missä puhutaan RX sarjan kuluttaja ohjaimista ja ROCm alustasta? Entä kuinka monta instinct sarjasta?

Kummallehan meinaat, että alusta on optimoitu? Suositteleeko AMD RX-sarjan ohjaimia raskaaseen koneoppimiseen?
Mun linkkaama video oli 100% rocm+linux hommaa, raskaaseen koneoppimiskäyttöön kuten isojen kielimallien opettamiseen. ChatGPT on jonkinsortin juttu, moni haluaa jotain tehdä isojen kielimallien kanssa. Tinygradin tekijä hiiltyi amd:hen ihan huolella, kun amd:n samplet kaatoi konetta. Samalla videolla käy läpi esim. patchia mitä amd tarjosi open source ajuriin, että kaatuilu vähenisi. Lopputulemana hotz ei ihan kovin paljoa arvosta amd:n softaosaamista.

Mr. Hotzilla oli mielenpäällä rakentaa referenssi amd, intel ja nvidia kokoonpanot tinygrad käyttöä varten. AMD vempelettä ei saanut toimimaan ja hiiltyi.

Mä en itse ole väittämässä mitään asiasta. Kunhan referoin videoa. Toi video tuli mieleen, kun ketjussa oli keskustelua open sourcesta. Open Source ei tee autuaaksi/takaa laatua.
 
Eikö tuo ole aika monen toimijan kohdalla todettu, että Nvidia laski tarkkaan, kuinka paljon muistia riittää nykyisen sukupolven ajaksi ja onnistuikin siinä? Nyt esimerkiksi paskamyrskyn seurauksena on tulossa 16GB RTX 4060 Ti. Sen tiedostan, että muistiväylä rajoittaa käytettävän muistin määrää. Kuitenkin AMD ja Intel ovat saaneet hieman edullisemmankin pään kortteihin 12GB ja 16GB muistia. Ei luulisi olevan mahdoton paikka Nvidiallekaan.

12GB riittää tällä hetkellä. Kuitenkin oma pelko oli siinä, että muutaman vuoden päästä tulee taas tilanne, että kortin teho riittää, mutta muisti ei. En halua, että käy samaa kuin kävi oman 8GB RTX 3070 Ti:n kanssa. Jos tuossa kortissa olisi ollut enemmän muistia, olisin varmaan jatkanut sillä pidempään.

Se, ettei löydä pelien asetuksista sitä säätöä, jolla tekstuureista valitaan vähän vähemmän tarkat versiot on kyllä melko käyttäjän oma ongelma.

Sen, että seinä näyttää vähän epätarkemmalta kun sitä menee metrin päästä paikallaan tuijottelemaan, ei pitäisi olla oieka ongelma jonka takia tarvii näyttistä vaihtaa.

Lisäksi esimerkiksi DLSS 3 FG nostaa VRAM:n käyttöä yli gigalla ja RT-efektit jopa useammalla.

Höpöhöpö.

Siinä vaiheessa kun peli tehdään täysin säteenjäljityksellä, se muistintarve putoaa merkittävästi, koska ei tarvi olla ziljoona purkkavalopuskuria muistissa.

Voi hyvinkin tulla vastaan tilanne, jossa joku peli näyttäisi upealta ja pyörisi Frame Generationin kanssa hyvin, mutta muisti ei meinaa riittää.

Riittää oikein hyvin, kun vaan valitsee hiukan pienempiresoluutoiset tekstuurit.

Mutta kun pään sisällä on se asennevamma että pakko olla "ultra" ja kaikki nupit kaakossa.

Ja se, että väliin interpoloidaan tyhjästä edellisen ja seuraavan framen perusteella keinotekoisia frameja on todella huono juttu viiveen kannalta. Se huonontaa sitä pelin efektiivistä pyörimistä.

Nvidian RT:n ja DLSS 3:n markkinoinnilla ratsastaminen voi nousta ongelmaksi, jos muisti ei riitä niihin. Etenkin 8GB RTX 4060 -sarjaan tuo voi iskeä kovasti.

Aina voi toki laskea asetuksia, mutta jos ostan tonnin RTX 4070 Ti:n, oletan, että peleissä voi lyödä huoletta grafiikat tappiin 1440p-resoluutiolla, eikä pudotella asetuksia mediumille.

"huoletta tappiin" on typerä asenne. Ne asetukset on säädettäviä sen takia, että ne säädetään sen raudan mukaan millä pelataan. Se, että maksetaan satoja euroja lisää näyttiksestä sen takia että voi "huoletta laittaa tappiin" on vaan typeryyttä.

Ja jos se vaiva on siinä se ongelma, ja haluaa sitä "huolettomuutta" niin melkein joka pelistä löytyy asetuksista toiminto, jolla peli itse arpoo itse itselleen sellaiset asetukset, että se pyörii sillä raudalla hyvin.

Nvidia on valinnut, että tuo muistin määrä on nyt jo rajoilla ja lähivuosina tilanne voi pahentua. 12GB muistia siihen on niukasti ja 16GB taas olisi turvallisempi tulevaisuuden kannalta. 8GB korteilla tilanne meni niin pahaksi, että edes reilu grafiikoiden pudottelu ei meinannut auttaa. Samoin tekstuurit saattoivat olla mössöä, oli niillä mikä tahansa asetus päällä.

Jos haluaa sen isomman muistin ja tarkemmat tekstuurit, sitten ostaa sen kalliimman 4080n. Mikä tässä on niin vaikeaa ymmärtää?

Ja jos samoilla valmistuskustannuksilla olisi haluttu tehdä piiri, jossa on 256-bittinen muistiväylä ja se 16 gigaa muistia, sitten siihen olisi pitänyt laittaa paljon vähemmän itse laskentayksiköitä ja piiri olisi ollut paljon mopompi. Ne PHYt on oikeasti kalliita nykyisillä valmistustekniikoilla. Ja monikerroksisempi PCB on kalliimpi. Ja itse muistipiirit maksaa myös.
Se, että muistiväylästä tehtiin vain 192-bittinen ja muistia on kolmella jaollinen määrä oli oikein hyvä kompromissi.

AMD pystyy tuomaan 256-bittisen muistiväylän navi 32-piiriinsä halvemmalla, koska siinä muistinohjaimet on erillisillä piilastulla, jotka on tehty vanhemmalla halvemmalla valmistusprosessilla. Ja tämäkään piiri ei ole vielä ulkona eikä sen hinnasta ole varmaa tietoa.

Ja AMDn 320-bittisellä väylällä oleva navi 31-malli (joka myös hyötyy vanhemmasta valmistustekniikasta) on myös selvästi kalliimpi kuin 4070.
 
Hmm, mitä ajuri työtä pitäisi tehdä kun vertaat 8GB kortteja 6GB korttiin, josta loppuu vram kesken? Pitäisikö nvidian tehdä sellaiset ajurit millä saisi 2GB lisää Vrammia? Sehän onnistuu samalla tavalla ku laittaa googleen "download more ram"

Näyttiksen muistin loppumisen kesken ei pitäisi johtaa kaatumiseen.

Sen, että näyttämuisti käy vähiin, pitäisi johtaa siihen, että tekstuureita säilytetään siellä näyttömuistissa vähemmän, ja lataillaan sitten käyttöä varten (hitaasti) koneen keskusmuistista (ja heti käytön jälkeen heivataan mäkeen että mahtuu seuraava tilalle).

Ja jos se muisti loppuu kesken niin pahasti, ettei sinne mahdu edes framepuskureita, silloinkin pitäisi antaa siisti virhekoodi, että ei voida vaihtaa haluttuun näyttötilaan tai allokoida haluttuja puskureita, eikä softan kaatua.
Toki onhan se mahdollista, että softa ei osaa tarkastaa näitä virhekoodeja, jolloin vika on softassa eikä ajureissa.

Että jotkut "download more ram"-heitot on todella typeriä ja kertoo vain siitä, kuinka pihalla itse olet kun yrität haukkua toista.
 

Statistiikka

Viestiketjuista
297 661
Viestejä
5 074 327
Jäsenet
81 358
Uusin jäsen
DonCapone

Hinta.fi

Back
Ylös Bottom