Follow along with the video below to see how to install our site as a web app on your home screen.
Huomio: This feature may not be available in some browsers.
Kai ymmärrät, että lähtökohtaisesti kaikki tietokonegrafiikka on "feikkiä" ja "algoritmien keksimää"?Varsinkin nuo frame generation -kikkareet ovat kyllä semmoista huttua että enpä olisi kuvitellut näkeväni. Tosiaan jos pelataan 4K-ruudulla DLSS tai FSR performance-asetuksella, eli peli rendataan sisäisesti 1080p resolla ja sitten vielä FG-päällä, niin se informaatio mitä näyttö sinulle näyttää on suurimmaksi osaksi algoritmien keksimää. Todellista pelimoottorin tuottamaa dataa on resoluutiosta 1:4 ja joka toinen frame interpoloitu, eli 1:8 on oikeasti pelimoottorin tuottamaa kuvaa.
Kai ymmärrät, että lähtökohtaisesti kaikki tietokonegrafiikka on "feikkiä" ja "algoritmien keksimää"?
En oikein ymmärrä, miksi ihmiset tarttuvat menetelmään, jolla ruudulla näytettävä grafiikka tuotetaan, eikä oleellisiin asioihin, kuten nopeuteen ja laatuun. Vai onko kyse siitä, että "väärä" yritys on teknologiakehityksen aallonharjalla ja tämän vuoksi kehitystä pitää vastustaa ihan periaatteesta?
Eikö tuo olisi loistava kehitysaskel, jos vain 1/8 pikselistä pitäisi renderöidä perinteisin menetelmin ja loput voitaisiin generoida muin keinoin laadun pysyessä lähes samana? Tällöin voitaisiin sen yhden pikselin renderöintiin käyttää 8 kertaa enemmän aikaa (parempaa grafiikkaa) suorituskyvyn pysyessä samana tai 4 kertaa enemmän aikaa suorituskyvyn tuplaantuessa.
Tuo olisi ikään kuin paluu 90-luvulle kun pelien musiikit olivat MIDI-formaatissa, ja jokaisella pelaajalla oli erilaiset äänikortit joissa saattoi olla käyttäjän itsensä asentamia äänipaketteja, jolloin pelien äänet kuulostivat aivan erilaisilta riippuen siitä millä koneella niitä pelataan.
Voit laittaa tekstuurit tappiin jolloin ja käyttää varjoja jne. Eli peli näyttää varsin erilaiselta 4090 kortilla 4k resolla maks asetuuksilla kuin 300 euron kortilla 1080p low asetuksilla.
Peli siis näyttää hyvinkin erilaiselta riippuen millaisella kokoonpanolla sitä pelataan.
Meinaatko että se AI generoitu kuva vedetään ihan hatusta eikä enne sen luontia ole analysoitu sitä mitä ruudulle on piirretty aikaisemmin ?
Miten se että pelissä liikut vaikka kaupungissa jotain katua ja ja AI sitten piirtää sitä rakennus taustaa eroaa siitä että sen piirtäisi pelin engine ?
En ymmärrä, tässä esimerkissä on kyse käyttäjän itsensä omasta valinnasta, eli pelin customoinnista sellaiseksi mistä itse eniten pitää. Miten se on jotenkin huono asia ?
Itse ainakin käytin aina omia midipankkeja juuri sen takia että sai soundit jotka kuulosti omaan korvaan parhaalta.
Se että default äänet kuulostivat erilaislta jos oli vaikka 8-bit vs. 16-bit äänikortti on ihan suoraan verrannollinen siihen että grafiikan osalta nykyään tehokkaampi ja parempi kortti tuottaa parempaa kuvaa.
Voit laittaa tekstuurit tappiin jolloin ja käyttää varjoja jne. Eli peli näyttää varsin erilaiselta 4090 kortilla 4k resolla maks asetuuksilla kuin 300 euron kortilla 1080p low asetuksilla.
Peli siis näyttää hyvinkin erilaiselta riippuen millaisella kokoonpanolla sitä pelataan.
Ja tämä taas niin paska puhetta kuin olla ja voi.
1080p low asetuksiin ei tarvitse tyytyä edes 40€ käytetyllä kortilla.
Jos sijoittaa 100€ korttiin niin voi vetää huoletta 1080p Ultralla jos 60 - 100fps riittää.
Eli sillä RTX 4090 saat vain korkeamman reson ja fps:t.
Ehkä niissä kevytpeleissä mitä lähinnä tunnut testaavan. Mites vaikka Cyberpunk asetukset tapissa 1080p?
Nämä epätäydelliset pikselit eivät tosin ole mikään skaalaimien ja frame generaattorien mukanaan tuoma uusi vitsaus. Sama ongelma koskee kaikkea temporaalista/stokastista renderöintiä. Esim. TAA ja SSR tai säteenseuranta efektit tuottavat ruudulle virheitä (TAA haamuja, SSR/RT kohinan suodastukseen liittyviä artefakteja).Asetuksia madaltamalla jää ehkä jotain puiden lehtiä tai hiuskarvoja piirtämättä, mutta skaalaimien ja framegeneraattorien kanssa ruudulle saattaa ilmestyä sellaisia pikseleitä joita siellä ei kuuluisi olla.
Nämä epätäydelliset pikselit eivät tosin ole mikään skaalaimien ja frame generaattorien mukanaan tuoma uusi vitsaus. Sama ongelma koskee kaikkea temporaalista/stokastista renderöintiä. Esim. TAA ja SSR tai säteenseuranta efektit tuottavat ruudulle virheitä (TAA haamuja, SSR/RT kohinan suodastukseen liittyviä artefakteja).
Samastahan on väännetty ennenkin ja päästy lopputulokseen että joillekin kelpaa periaatesyistä vain "aito" kuva yhdellä tai mieluummin neljällä näytteellä (SSAA) per pikseli eikä pikseleiden/näytteiden uudelleenkäyttö kelpaa. Omasta mielestäni kummallinen niche positio, mutta onneksi en joudu itse tuosta nirsoudesta kärsimään.
Vai onko kyse siitä, että "väärä" yritys on teknologiakehityksen aallonharjalla ja tämän vuoksi kehitystä pitää vastustaa ihan periaatteesta?
Kukas sen avoimen koodin kirjoittaa ja millä rahalla? Tietyillä yrityksillä avoimeen lähdekoodiin panostamisen suurin motivaatio on omien resurssien puute. Halutaan, että joku muu tekee työn ja mielellään ilmaiseksi.Niin pitkään kuin firmalla on tarkoitus taklata kilpailijat pois pelikentältä että päästäisiin rahastamaan entistä enemmän korteilla niin kyllä, tämä on syy. DLSS ensisijainen tarkoitus on nimenomaan kilpailun tappaminen.
Niin pitkään kuin hommat ei perustu joihinkin stantardeihin tai avoimeen koodiin, niin niillä haetaan kilpailullista etua muihin samalla alalla toimijoihin.
Lisäksi se ei ainakaan kehitystä vie eteenpäin että joka pelurilta tulee omaa härpäkettä millä tehdään käytännössä samoja asioita. Se on devaajille aina ylimääräistä työtä, jonka voisi hyvin käyttää johonkin muuhun jos homma perustuisi stantardiin taikka avoimeen koodiin että se huttu toimisi kaikkien valmistajien raudalla.
Ja tämä taas niin paska puhetta kuin olla ja voi.
1080p low asetuksiin ei tarvitse tyytyä edes 40€ käytetyllä kortilla.
Jos sijoittaa 100€ korttiin niin voi vetää huoletta 1080p Ultralla jos 60 - 100fps riittää.
Eli sillä RTX 4090 saat vain korkeamman reson ja fps:t.
Kyllä aika pitkälti AAA pelit vaatii huomattavasti nopeampaa rautaa 1080p Ultralle kuin mitä 100€:lla saa. Uutena ei taida saada mitään ja käytettynä ehkä jonkun gtx 1070 parhaimmillaan...
Ehkä niissä kevytpeleissä mitä lähinnä tunnut testaavan. Mites vaikka Cyberpunk asetukset tapissa 1080p?
George hotz yritti amd:n raudalla tehdä koneoppimista ja hajos atomeiksi, kun ajurit niin huonot. Pelkät amd:n esimerkkisoftat loopissa ajettuna sai koneen jumiin. Videolla pitkä selitys miksi hotzin mielestä amd:lla on huono tekemisen kulttuuri softan kanssa ja miksi hänen vinkkelistään tilanne ei tule parantumaan ellei tehdä isoja muutoksia. Ottaa myös kantaa siihen, että ei voi vain olettaa "open source" ja kaikki toimii hetken päästä.
Kai AMD:n konesalipiirien ajurit ovat paremmat. Tosin aika moni tekee koneoppimista kuluttajaraudalla vaikka lopulliset neuroverkot opetettaisiinkiin konesalissa.
Millä käyttiksellä ja frameworkilla devasit? Mun linkkaama liittyi isoihin kielimalleihin ja linuxin päällä devaamiseen. Samat frameworkit ja mallien opettaminen toimii hyvin intelilla ja nvidialla. Linuxin päällä loopissa ajettuna amd:n esimerkit kyllä kaataa koneita. Linkin tyyppihän käy yhtä amd:n hänelle tarjoamaa ajurikorjausta läpi minkä pitäisi vähentää kaatuilua.Minä olen henkilökohtaisesti tehnyt 5900X ja 6900XT yhdistelmällä konenäköön ja koneoppimiseen liittyvää sovellusta. Eikä ollut mitään ongelmaa....... Aika laukalle lähtee jutut vaihteeksi......
Edit: tuo siis minun taidoilla. Silloin onnistuu myös naapurin mummolta.
Millä käyttiksellä ja frameworkilla devasit? Mun linkkaama liittyi isoihin kielimalleihin ja linuxin päällä devaamiseen. Samat frameworkit ja mallien opettaminen toimii hyvin intelilla ja nvidialla. Linuxin päällä loopissa ajettuna amd:n esimerkit kyllä kaataa koneita. Linkin tyyppihän käy yhtä amd:n hänelle tarjoamaa ajurikorjausta läpi minkä pitäisi vähentää kaatuilua.
Toi heppu devaa tinygrad:ia GitHub - geohot/tinygrad: You like pytorch? You like micrograd? You love tinygrad! ❤
WIN10/Anaconda.
Edit: Lähinnä sillä nostin esiin kun lähtee yleistäminen laukalle. On totta, että monessa asiassa AMD:n kuluttaja tuotteet eivät ole hyviä, mutta onko tarkoitettu siihen? Ihan yhtälailla voisin sanoa, että Intel/Nvidia pohjainen läppäri on kuraa koneoppimiseen kun ei suoriutunut mallin opettamisesta ja AMD pohjainen pöytäkone suoriutui......
Kokeiles käyttää hiljattain kuluttajakorteillekin tarjottua rocm alustaa linuxin päällä ja sun mieli laukasta voi muuttua. Rocm siis amd:n ratkaisu mitä suositellaan raskaampaan koneoppimiskäyttöön. Toki joku windows juttu toiminee, mutta niistä ei isommin ole iloa, jos tarkoitus olis myöhemmin konesalissakin ajaa samaa koodia. Nimenomaan ne amd:n rocm samplet mitkä kaataa konetta,...
Hmm, mitä ajuri työtä pitäisi tehdä kun vertaat 8GB kortteja 6GB korttiin, josta loppuu vram kesken? Pitäisikö nvidian tehdä sellaiset ajurit millä saisi 2GB lisää Vrammia?Tai no Intelin (A750) ja AMD ( RX 5700 XT ja RX 5500 XT ) korteilla ei ongelmia, mutta Nvidian RTX 2060:lla kun 6GB VRAM loppu kesken niin peli aina kaatu.
Että mahtavaa ajuri työtä taas Nvidialta tuon asian suhteen.
Mun linkkaama video oli 100% rocm+linux hommaa, raskaaseen koneoppimiskäyttöön kuten isojen kielimallien opettamiseen. ChatGPT on jonkinsortin juttu, moni haluaa jotain tehdä isojen kielimallien kanssa. Tinygradin tekijä hiiltyi amd:hen ihan huolella, kun amd:n samplet kaatoi konetta. Samalla videolla käy läpi esim. patchia mitä amd tarjosi open source ajuriin, että kaatuilu vähenisi. Lopputulemana hotz ei ihan kovin paljoa arvosta amd:n softaosaamista.Just.... Kuinka monta lausetta löytyy missä puhutaan RX sarjan kuluttaja ohjaimista ja ROCm alustasta? Entä kuinka monta instinct sarjasta?
Kummallehan meinaat, että alusta on optimoitu? Suositteleeko AMD RX-sarjan ohjaimia raskaaseen koneoppimiseen?
Eikö tuo ole aika monen toimijan kohdalla todettu, että Nvidia laski tarkkaan, kuinka paljon muistia riittää nykyisen sukupolven ajaksi ja onnistuikin siinä? Nyt esimerkiksi paskamyrskyn seurauksena on tulossa 16GB RTX 4060 Ti. Sen tiedostan, että muistiväylä rajoittaa käytettävän muistin määrää. Kuitenkin AMD ja Intel ovat saaneet hieman edullisemmankin pään kortteihin 12GB ja 16GB muistia. Ei luulisi olevan mahdoton paikka Nvidiallekaan.
12GB riittää tällä hetkellä. Kuitenkin oma pelko oli siinä, että muutaman vuoden päästä tulee taas tilanne, että kortin teho riittää, mutta muisti ei. En halua, että käy samaa kuin kävi oman 8GB RTX 3070 Ti:n kanssa. Jos tuossa kortissa olisi ollut enemmän muistia, olisin varmaan jatkanut sillä pidempään.
Lisäksi esimerkiksi DLSS 3 FG nostaa VRAM:n käyttöä yli gigalla ja RT-efektit jopa useammalla.
Voi hyvinkin tulla vastaan tilanne, jossa joku peli näyttäisi upealta ja pyörisi Frame Generationin kanssa hyvin, mutta muisti ei meinaa riittää.
Nvidian RT:n ja DLSS 3:n markkinoinnilla ratsastaminen voi nousta ongelmaksi, jos muisti ei riitä niihin. Etenkin 8GB RTX 4060 -sarjaan tuo voi iskeä kovasti.
Aina voi toki laskea asetuksia, mutta jos ostan tonnin RTX 4070 Ti:n, oletan, että peleissä voi lyödä huoletta grafiikat tappiin 1440p-resoluutiolla, eikä pudotella asetuksia mediumille.
Nvidia on valinnut, että tuo muistin määrä on nyt jo rajoilla ja lähivuosina tilanne voi pahentua. 12GB muistia siihen on niukasti ja 16GB taas olisi turvallisempi tulevaisuuden kannalta. 8GB korteilla tilanne meni niin pahaksi, että edes reilu grafiikoiden pudottelu ei meinannut auttaa. Samoin tekstuurit saattoivat olla mössöä, oli niillä mikä tahansa asetus päällä.
Hmm, mitä ajuri työtä pitäisi tehdä kun vertaat 8GB kortteja 6GB korttiin, josta loppuu vram kesken? Pitäisikö nvidian tehdä sellaiset ajurit millä saisi 2GB lisää Vrammia? Sehän onnistuu samalla tavalla ku laittaa googleen "download more ram"
Riippuu käyttäjästä. Jotkut eivät huomaa, vaikka tekstuurit eivät lataudu kunnolla. Itse taas fiilistelen peleissä hyvin tehtyjä yksityiskohtia. Esimerkiksi The Last of Us Part 1 on nyt menossa ja siinä on panostettu valtavasti yksityiskohtiin ja tykkään lukea julisteita ja vaikka levyjen ja kirjojen kansia. Noista irtoaa jopa uutta lorea. Kyllä se vähän häiritsisi, jos kaikki olisi niin puuroa, ettei saa selvää. Hiljattain pelasin Metro Exodus Enhanced Editionia ja kirosin jatkuvasti sumeita tekstuureita muuten upeassa pelissä ja googlasin, jos ongelmaan olisi joku ratkaisu.Se, ettei löydä pelien asetuksista sitä säätöä, jolla tekstuureista valitaan vähän vähemmän tarkat versiot on kyllä melko käyttäjän oma ongelma.
Sen, että seinä näyttää vähän epätarkemmalta kun sitä menee metrin päästä paikallaan tuijottelemaan, ei pitäisi olla oieka ongelma jonka takia tarvii näyttistä vaihtaa
Mitä höpö höpöä se on, jos sanon sekä säteenseurannan että DLSS 3:n lisäävän muistin kulutusta. Tuo on ihan fakta, jonka voi kokeilla ja todeta itsekin En usko, että pelejä ihan heti ruvetaan tekemään rasterointi täysin unohtaen. Ihmisten vanha rauta ja konsolit on yhä taakkana.Höpöhöpö.
Siinä vaiheessa kun peli tehdään täysin säteenjäljityksellä, se muistintarve putoaa merkittävästi, koska ei tarvi olla ziljoona purkkavalopuskuria muistissa.
Omalla 8GB RTX 3070 Ti kortilla ei yksinkertaisesti meinannut löytyä asetuksia moniin uusiin peleihin, joilla kuva ei näyttänyt puurolta tai saisi tasaiset frametimet, vaikka kyseessä oli tehokas ja hyvin kellottuva kortti. Esimerkiksi HU:lla oli Hogwart's Legacyssa ja The Last of Us Part 1:ssä 1080p Medium asetuksillakin frametimejen kanssa ongelmaa. Vielä hetki sitten noita mainostettiin 1440p High-Ultra korteiksi. Moni varoitti, että 8GB ei tule riittämään, mutta suurin osa, kuten itse, en uskonut. Useasta pelistä katosi kaikki FPS dropit ja ongelmat korttia vaihtamalla. Ja esimerkiksi Forspokenissa ja Deathloopissa näyttis ei vain välillä suostunut lataamaan tekstuureita, vaikka seisoisi päällään."huoletta tappiin" on typerä asenne. Ne asetukset on säädettäviä sen takia, että ne säädetään sen raudan mukaan millä pelataan. Se, että maksetaan satoja euroja lisää näyttiksestä sen takia että voi "huoletta laittaa tappiin" on vaan typeryyttä.
Ja jos se vaiva on siinä se ongelma, ja haluaa sitä "huolettomuutta" niin melkein joka pelistä löytyy asetuksista toiminto, jolla peli itse arpoo itse itselleen sellaiset asetukset, että se pyörii sillä raudalla hyvin.
Onhan se vähän suolaista, että Nvidialla pitää laittaa melkein 1.5 tonnia rahaa tiskiin, jotta saa kortin, jossa on vasta monen suosittelema määrä VRAMia 1440p-resoluutiolle ja jota AMD ja Intel tarjoaa 400-500€ kortteihin. Aika harvalla on varaa semmoiseen lopulta. Itse arvoin pariin kertaan tonnin RX 7900 XT ostoskorissa ja en lopulta pystynyt, vaan ostin 709€ RX 6950 XT:n.Jos haluaa sen isomman muistin ja tarkemmat tekstuurit, sitten ostaa sen kalliimman 4080n. Mikä tässä on niin vaikeaa ymmärtää?
Kukas sen avoimen koodin kirjoittaa ja millä rahalla? Tietyillä yrityksillä avoimeen lähdekoodiin panostamisen suurin motivaatio on omien resurssien puute. Halutaan, että joku muu tekee työn ja mielellään ilmaiseksi.
Rocm siis amd:n ratkaisu mitä suositellaan raskaampaan koneoppimiskäyttöön.
The landscape will generally drive the virtual texture update, and you'd want the grass to sample the same mip used on the landscape. Using this option stops the grass from requesting higher mips than necessary.
The general process of loading texture data on-demand, rather than upfront-all-at-once, is called texture streaming in this document, or streaming for short.
Independently of whether sampler feedback is available, Direct3D12-based applications have, through tiled resources, the ability to progressively load the mip chain.
Mitähän korttia tämä hiilenä käyvä ohjelmoija guru oikein on mahtanut käyttää?
Henkisesti ihan egoistinen lapsihan se on, mutta teknisesti pätevä. Viimeisin firma siltä comma ai, missä tekevät kamera ja neuroverkkopohjaista ajoavustinta. Toimii isossa määrässä autoja. Kolmosversio raudasta myynnissä.Käsittääkseni ko. kaveria ei muutenkaan pidetä erityisen luotettavana, ilmeisesti ratsastaa edelleen vanhoilla Apple/PS3 häkkien maineella.
Kyllä se vaan niin tuppaa olemaan että kun näyttömuisti loppuu kesken tai käy vähiin niin peli kyykkää/kaatuu.Näyttiksen muistin loppumisen kesken ei pitäisi johtaa kaatumiseen.
Sen, että näyttämuisti käy vähiin, pitäisi johtaa siihen, että tekstuureita säilytetään siellä näyttömuistissa vähemmän, ja lataillaan sitten käyttöä varten (hitaasti) koneen keskusmuistista (ja heti käytön jälkeen heivataan mäkeen että mahtuu seuraava tilalle).
Ja jos se muisti loppuu kesken niin pahasti, ettei sinne mahdu edes framepuskureita, silloinkin pitäisi antaa siisti virhekoodi, että ei voida vaihtaa haluttuun näyttötilaan tai allokoida haluttuja puskureita, eikä softan kaatua.
Toki onhan se mahdollista, että softa ei osaa tarkastaa näitä virhekoodeja, jolloin vika on softassa eikä ajureissa.
Että jotkut "download more ram"-heitot on todella typeriä ja kertoo vain siitä, kuinka pihalla itse olet kun yrität haukkua toista.
Mää en myöskään sulata sitä väitettä että peli kaatuisi, havaittavaa hidastumista varmasti tulee. Vika on silloin muualla jos ohjelma kippaa.
Nvidian developer ohjeistus puhuu vain nylkytyksen / stutter havaitsemisesta ja analysoinnista overcommitment tilanteessa eri työkaluilla eikä sanaakaan mistään epästabiiliudesta.
Suomen elektroniikan (sis tietokonejutut) hintataso on Euroopan keskitasoa, ei kalleinta päätä. Ja tosiaan siellä on päässyt tuo 500€ Strixi otsikkoon, kuvassa näkyy toki edullisemmatkin mallit alkaen 350€Se on proshoppi suomesta päässyt näköjään videocardzin uutisiin asti RTX4060 edullisella hinnoittelulla. Ottaen huomioon suomen markkinat voisin veikata että täällä myydään todennäköisesti vielä 3 vuoden päästä RTX 3000-sarjalaisia 500-600 eurolla. Ja ulkomaisten toimitusten etsiessä vertailuhintoja verrattain kalliimpaan pään hinnoittelulle suomi pitää todennäköisesti kärkipaikkaa.
Koodi muodostuu monesti eri projektin toimijoiden yhteistyönä. Firma millä suurin intressi asiaan ottaa monesti vetovastuussa mutta jokaisella firmalla on intressit varmasti kehittää kun kaikilla on sama päämäärä lopulta vaikkakin ehkä eri syistä. Ei avoimen ja yhteisen standardin käyttäminen ole mikään ylitsepääsemätön juttu softapuolellakaan. Käytännössä näytönohjaimet on valmiiksi täynnä yhdessä sovittuja ja laadittuja standardeja raudan osalta.Kukas sen avoimen koodin kirjoittaa ja millä rahalla? Tietyillä yrityksillä avoimeen lähdekoodiin panostamisen suurin motivaatio on omien resurssien puute. Halutaan, että joku muu tekee työn ja mielellään ilmaiseksi.
Koodi muodostuu monesti eri projektin toimijoiden yhteistyönä. Firma millä suurin intressi asiaan ottaa monesti vetovastuussa mutta jokaisella firmalla on intressit varmasti kehittää kun kaikilla on sama päämäärä lopulta vaikkakin ehkä eri syistä. Ei avoimen ja yhteisen standardin käyttäminen ole mikään ylitsepääsemätön juttu softapuolellakaan. Käytännössä näytönohjaimet on valmiiksi täynnä yhdessä sovittuja ja laadittuja standardeja raudan osalta.
Kuten @JiiPee aikaisemmin totesi. Suljetuilla softaratkaisuilla ei ole tosielämässä muuta tavoitetta kuin rahastaminen ja etumatkan kurominen kilpailijoihin. Joka loppujen lopuksi kaventuu ajan kanssa tilanteeseen jossa kilpailijat pääset samalle tasalle ja tuottavat monesti jopa paremmin tuettua softaa/koodia vs proprietary ratkaisut.
Sillä näiden proprietary kehittäjien intressi päivittämiseen lakkaa monesti siinä vaiheessa kun johdon mielestä tuote ei tee enää riittävästi rahaa yritykselle tai sen tukeminen uuden raudan kanssa ei tunnu enää niin "hauskalta". Avoimen ratkaisun kanssa tätä ongelmaa ei ole sillä loppupeleissä koodin ylläpidon voi ottaa käytännössä kuka tahansa haltuun lisenssin salliessa ja monesti yhteisöt myös haluavat ylläpitää (tai tähän on ainakin mahdollisuus olemassa vs suljettu koodi) koodia sen "parasta ennen" ajankin jälkeen.
Eikös tuo nyt ole aika loogista, että jos kehittää alaa eteenpäin vievää teknologiaa, niin siitä olisi kiva myös hyötyä...
Mielenkiintoinen video, samoilla freimeillä AMD:n 7900 xtx vei yli tuplasti virtaa mitä Nvidian 4080. Mikä noissa 7000-sarjan korteissa hörppää tuota virtaa noin paljon enemmän?
punainen 7900xtx ja harmaa 4080