Virallinen: NVIDIA vs AMD (vs Intel) keskustelu- ja väittelyketju

  • Keskustelun aloittaja Keskustelun aloittaja Sampsa
  • Aloitettu Aloitettu
Nämä epäsynkkajutut on vähän historiaa kun jotkauinkin kaikissa näytöissä ja telkkarissa on nykyään VRR.
 
Varsinkin nuo frame generation -kikkareet ovat kyllä semmoista huttua että enpä olisi kuvitellut näkeväni. Tosiaan jos pelataan 4K-ruudulla DLSS tai FSR performance-asetuksella, eli peli rendataan sisäisesti 1080p resolla ja sitten vielä FG-päällä, niin se informaatio mitä näyttö sinulle näyttää on suurimmaksi osaksi algoritmien keksimää. Todellista pelimoottorin tuottamaa dataa on resoluutiosta 1:4 ja joka toinen frame interpoloitu, eli 1:8 on oikeasti pelimoottorin tuottamaa kuvaa.
Kai ymmärrät, että lähtökohtaisesti kaikki tietokonegrafiikka on "feikkiä" ja "algoritmien keksimää"?
En oikein ymmärrä, miksi ihmiset tarttuvat menetelmään, jolla ruudulla näytettävä grafiikka tuotetaan, eikä oleellisiin asioihin, kuten nopeuteen ja laatuun. Vai onko kyse siitä, että "väärä" yritys on teknologiakehityksen aallonharjalla ja tämän vuoksi kehitystä pitää vastustaa ihan periaatteesta?
Eikö tuo olisi loistava kehitysaskel, jos vain 1/8 pikselistä pitäisi renderöidä perinteisin menetelmin ja loput voitaisiin generoida muin keinoin laadun pysyessä lähes samana? Tällöin voitaisiin sen yhden pikselin renderöintiin käyttää 8 kertaa enemmän aikaa (parempaa grafiikkaa) suorituskyvyn pysyessä samana tai 4 kertaa enemmän aikaa suorituskyvyn tuplaantuessa.
 
Kai ymmärrät, että lähtökohtaisesti kaikki tietokonegrafiikka on "feikkiä" ja "algoritmien keksimää"?
En oikein ymmärrä, miksi ihmiset tarttuvat menetelmään, jolla ruudulla näytettävä grafiikka tuotetaan, eikä oleellisiin asioihin, kuten nopeuteen ja laatuun. Vai onko kyse siitä, että "väärä" yritys on teknologiakehityksen aallonharjalla ja tämän vuoksi kehitystä pitää vastustaa ihan periaatteesta?
Eikö tuo olisi loistava kehitysaskel, jos vain 1/8 pikselistä pitäisi renderöidä perinteisin menetelmin ja loput voitaisiin generoida muin keinoin laadun pysyessä lähes samana? Tällöin voitaisiin sen yhden pikselin renderöintiin käyttää 8 kertaa enemmän aikaa (parempaa grafiikkaa) suorituskyvyn pysyessä samana tai 4 kertaa enemmän aikaa suorituskyvyn tuplaantuessa.

Kyse on siitä informaatiosta mitä näet. Jos ruudulla liikkuu pikseleitä joita sinun pitää seurata ja joihin pitää osua tai huomata niistä jotain muutoksia, niin itse ainakin tykkäisin että kaikki mitä näen tulee suoraan pelimoottorilta. Jos 7/8 informaatiosta tulee jostain muualta kuin pelimoottorista, niin miten voi yhtään luottaa siihen mitä näkee? Ihmisen silmä on erittäin tehokas huomaamaan äkillisiä muutoksia, esim. pimeässä huoneessa pieni valon pilkahdus. Jos nyt siellä yksi pikseli käy valkoisena hetkellisesti, niin se saattoikin olla skaalauksen terävöinnin aiheuttama artifaktivirhe joka vielä keksittyä framea luodessa vahvistettiin.

Toki jos tälle tielle lähdetään niin mikä ettei saman tien sitten koodata pelejä ja pelimoottoreita tyyliin "piirrä tähän tiiliseinä" ja sitten näytönohjaimen AI miettii itse miltä tiiliseinän pitäisi näyttää sen sijaan että pelintekijä olisi itse valinnut siihen tekstuuria. Ja jokaisella eri näyttiksellä ja jokaisella eri pelikerralla peli näyttää vähän erilaiselta. Tuo olisi ikään kuin paluu 90-luvulle kun pelien musiikit olivat MIDI-formaatissa, ja jokaisella pelaajalla oli erilaiset äänikortit joissa saattoi olla käyttäjän itsensä asentamia äänipaketteja, jolloin pelien äänet kuulostivat aivan erilaisilta riippuen siitä millä koneella niitä pelataan.
 
Viimeksi muokattu:
Meinaatko että se AI generoitu kuva vedetään ihan hatusta eikä enne sen luontia ole analysoitu sitä mitä ruudulle on piirretty aikaisemmin ?
Miten se että pelissä liikut vaikka kaupungissa jotain katua ja ja AI sitten piirtää sitä rakennus taustaa eroaa siitä että sen piirtäisi pelin engine ?

Tuo olisi ikään kuin paluu 90-luvulle kun pelien musiikit olivat MIDI-formaatissa, ja jokaisella pelaajalla oli erilaiset äänikortit joissa saattoi olla käyttäjän itsensä asentamia äänipaketteja, jolloin pelien äänet kuulostivat aivan erilaisilta riippuen siitä millä koneella niitä pelataan.

En ymmärrä, tässä esimerkissä on kyse käyttäjän itsensä omasta valinnasta, eli pelin customoinnista sellaiseksi mistä itse eniten pitää. Miten se on jotenkin huono asia ?
Itse ainakin käytin aina omia midipankkeja juuri sen takia että sai soundit jotka kuulosti omaan korvaan parhaalta.

Se että default äänet kuulostivat erilaislta jos oli vaikka 8-bit vs. 16-bit äänikortti on ihan suoraan verrannollinen siihen että grafiikan osalta nykyään tehokkaampi ja parempi kortti tuottaa parempaa kuvaa.
Voit laittaa tekstuurit tappiin jolloin ja käyttää varjoja jne. Eli peli näyttää varsin erilaiselta 4090 kortilla 4k resolla maks asetuuksilla kuin 300 euron kortilla 1080p low asetuksilla.
Peli siis näyttää hyvinkin erilaiselta riippuen millaisella kokoonpanolla sitä pelataan.
 
Voit laittaa tekstuurit tappiin jolloin ja käyttää varjoja jne. Eli peli näyttää varsin erilaiselta 4090 kortilla 4k resolla maks asetuuksilla kuin 300 euron kortilla 1080p low asetuksilla.
Peli siis näyttää hyvinkin erilaiselta riippuen millaisella kokoonpanolla sitä pelataan.

Ja tämä taas niin paska puhetta kuin olla ja voi.
1080p low asetuksiin ei tarvitse tyytyä edes 40€ käytetyllä kortilla.
Jos sijoittaa 100€ korttiin niin voi vetää huoletta 1080p Ultralla jos 60 - 100fps riittää.

Eli sillä RTX 4090 saat vain korkeamman reson ja fps:t.
 
Meinaatko että se AI generoitu kuva vedetään ihan hatusta eikä enne sen luontia ole analysoitu sitä mitä ruudulle on piirretty aikaisemmin ?
Miten se että pelissä liikut vaikka kaupungissa jotain katua ja ja AI sitten piirtää sitä rakennus taustaa eroaa siitä että sen piirtäisi pelin engine ?



En ymmärrä, tässä esimerkissä on kyse käyttäjän itsensä omasta valinnasta, eli pelin customoinnista sellaiseksi mistä itse eniten pitää. Miten se on jotenkin huono asia ?
Itse ainakin käytin aina omia midipankkeja juuri sen takia että sai soundit jotka kuulosti omaan korvaan parhaalta.

Se että default äänet kuulostivat erilaislta jos oli vaikka 8-bit vs. 16-bit äänikortti on ihan suoraan verrannollinen siihen että grafiikan osalta nykyään tehokkaampi ja parempi kortti tuottaa parempaa kuvaa.
Voit laittaa tekstuurit tappiin jolloin ja käyttää varjoja jne. Eli peli näyttää varsin erilaiselta 4090 kortilla 4k resolla maks asetuuksilla kuin 300 euron kortilla 1080p low asetuksilla.
Peli siis näyttää hyvinkin erilaiselta riippuen millaisella kokoonpanolla sitä pelataan.

Nykyään pelintekijä kuitenkin itse tekee valintoja sen suhteen että millaisia tekstuureja käytetään ja millaisia sävyjä ruudulla näkyy. Vastaavasti kuin musiikit äänitetään ja masteroidaan ja hifi-äänentoistojärjestelmän tarkoituksena on toistaa se mahdollisimman samanlaisena kuin alkuperäinen. Itse olen sen koulukunnan käyttäjä, että ajattelen että se ultra-tason kuvanlaatuasetus natiiviresoluutiolla on se referenssi jota koitetaan tavoitella. Jos ei koneen tehot siihen riitä, niin pitää joko madaltaa asetuksia tai laittaa skaalauskikkoja päälle. Asetuksia madaltamalla jää ehkä jotain puiden lehtiä tai hiuskarvoja piirtämättä, mutta skaalaimien ja framegeneraattorien kanssa ruudulle saattaa ilmestyä sellaisia pikseleitä joita siellä ei kuuluisi olla. Sitten jos siirrytään kokonaan lennosta käyttäjän koneella generoituun ulkoasuun, niin pitää vaan unohtaa että pelintekijällä olisi ollut joku referenssi mielessä siitä miltä tämän kuuluisi näyttää ja koittaa valita sellaiset osat jotka tuottavat itselle mieluista kuvaa.
 
Ja tämä taas niin paska puhetta kuin olla ja voi.
1080p low asetuksiin ei tarvitse tyytyä edes 40€ käytetyllä kortilla.
Jos sijoittaa 100€ korttiin niin voi vetää huoletta 1080p Ultralla jos 60 - 100fps riittää.

Eli sillä RTX 4090 saat vain korkeamman reson ja fps:t.

Ehkä niissä kevytpeleissä mitä lähinnä tunnut testaavan. Mites vaikka Cyberpunk asetukset tapissa 1080p?
 
Ehkä niissä kevytpeleissä mitä lähinnä tunnut testaavan. Mites vaikka Cyberpunk asetukset tapissa 1080p?

No tämähän on ihan selvää jokaiselle että uudemmissa AAA peleissä karsia saa 1080p aika lailla jos ei ole vähän tykimpää rautaa.
Otetaan nyt vaikka the last of us, cyberpunk, a tale of plague jne. jne.

1080;





 
Asetuksia madaltamalla jää ehkä jotain puiden lehtiä tai hiuskarvoja piirtämättä, mutta skaalaimien ja framegeneraattorien kanssa ruudulle saattaa ilmestyä sellaisia pikseleitä joita siellä ei kuuluisi olla.
Nämä epätäydelliset pikselit eivät tosin ole mikään skaalaimien ja frame generaattorien mukanaan tuoma uusi vitsaus. Sama ongelma koskee kaikkea temporaalista/stokastista renderöintiä. Esim. TAA ja SSR tai säteenseuranta efektit tuottavat ruudulle virheitä (TAA haamuja, SSR/RT kohinan suodastukseen liittyviä artefakteja).

Samastahan on väännetty ennenkin ja päästy lopputulokseen että joillekin kelpaa periaatesyistä vain "aito" kuva yhdellä tai mieluummin neljällä näytteellä (SSAA) per pikseli eikä pikseleiden/näytteiden uudelleenkäyttö kelpaa. Omasta mielestäni kummallinen niche positio, mutta onneksi en joudu itse tuosta nirsoudesta kärsimään.
 
Nämä epätäydelliset pikselit eivät tosin ole mikään skaalaimien ja frame generaattorien mukanaan tuoma uusi vitsaus. Sama ongelma koskee kaikkea temporaalista/stokastista renderöintiä. Esim. TAA ja SSR tai säteenseuranta efektit tuottavat ruudulle virheitä (TAA haamuja, SSR/RT kohinan suodastukseen liittyviä artefakteja).

Samastahan on väännetty ennenkin ja päästy lopputulokseen että joillekin kelpaa periaatesyistä vain "aito" kuva yhdellä tai mieluummin neljällä näytteellä (SSAA) per pikseli eikä pikseleiden/näytteiden uudelleenkäyttö kelpaa. Omasta mielestäni kummallinen niche positio, mutta onneksi en joudu itse tuosta nirsoudesta kärsimään.

Itse olen nyt tämän tykimmän näyttiksen saatuani siirtynyt vähän vanhemmissa peleissä (esim. Skyrim ja Fallout 4) siirtynyt TAA:sta pois Virtual Super Resolutionin avulla. Eli peli renderöityy 2x natiivilla resoluutiolla (1440p ruudulla 5120x2880 resoluutiolla) ja skaalataan siitä alas, niin suurin osa antialiasointia vaativista ikävistä sahalaidoista häviää. Tämä auttaa tosi paljon myös kaiken ruohokasvillisuuden ja kaukana olevien puiden piirtämiseen. Natiiviresolla TAA:n kanssa näyttävät huonommalta.
 
Viimeksi muokattu:
Vai onko kyse siitä, että "väärä" yritys on teknologiakehityksen aallonharjalla ja tämän vuoksi kehitystä pitää vastustaa ihan periaatteesta?

Niin pitkään kuin firmalla on tarkoitus taklata kilpailijat pois pelikentältä että päästäisiin rahastamaan entistä enemmän korteilla niin kyllä, tämä on syy. DLSS ensisijainen tarkoitus on nimenomaan kilpailun tappaminen.
Niin pitkään kuin hommat ei perustu joihinkin stantardeihin tai avoimeen koodiin, niin niillä haetaan kilpailullista etua muihin samalla alalla toimijoihin.

Lisäksi se ei ainakaan kehitystä vie eteenpäin että joka pelurilta tulee omaa härpäkettä millä tehdään käytännössä samoja asioita. Se on devaajille aina ylimääräistä työtä, jonka voisi hyvin käyttää johonkin muuhun jos homma perustuisi stantardiin taikka avoimeen koodiin että se huttu toimisi kaikkien valmistajien raudalla.
 
Niin pitkään kuin firmalla on tarkoitus taklata kilpailijat pois pelikentältä että päästäisiin rahastamaan entistä enemmän korteilla niin kyllä, tämä on syy. DLSS ensisijainen tarkoitus on nimenomaan kilpailun tappaminen.
Niin pitkään kuin hommat ei perustu joihinkin stantardeihin tai avoimeen koodiin, niin niillä haetaan kilpailullista etua muihin samalla alalla toimijoihin.

Lisäksi se ei ainakaan kehitystä vie eteenpäin että joka pelurilta tulee omaa härpäkettä millä tehdään käytännössä samoja asioita. Se on devaajille aina ylimääräistä työtä, jonka voisi hyvin käyttää johonkin muuhun jos homma perustuisi stantardiin taikka avoimeen koodiin että se huttu toimisi kaikkien valmistajien raudalla.
Kukas sen avoimen koodin kirjoittaa ja millä rahalla? Tietyillä yrityksillä avoimeen lähdekoodiin panostamisen suurin motivaatio on omien resurssien puute. Halutaan, että joku muu tekee työn ja mielellään ilmaiseksi.
 
Ja tämä taas niin paska puhetta kuin olla ja voi.
1080p low asetuksiin ei tarvitse tyytyä edes 40€ käytetyllä kortilla.
Jos sijoittaa 100€ korttiin niin voi vetää huoletta 1080p Ultralla jos 60 - 100fps riittää.

Eli sillä RTX 4090 saat vain korkeamman reson ja fps:t.

Kyllä aika pitkälti AAA pelit vaatii huomattavasti nopeampaa rautaa 1080p Ultralle kuin mitä 100€:lla saa. Uutena ei taida saada mitään ja käytettynä ehkä jonkun gtx 1070 parhaimmillaan...
 
George hotz yritti amd:n raudalla tehdä koneoppimista ja hajos atomeiksi, kun ajurit niin huonot. Pelkät amd:n esimerkkisoftat loopissa ajettuna sai koneen jumiin. Videolla pitkä selitys miksi hotzin mielestä amd:lla on huono tekemisen kulttuuri softan kanssa ja miksi hänen vinkkelistään tilanne ei tule parantumaan ellei tehdä isoja muutoksia. Ottaa myös kantaa siihen, että ei voi vain olettaa "open source" ja kaikki toimii hetken päästä.

Kai AMD:n konesalipiirien ajurit ovat paremmat. Tosin aika moni tekee koneoppimista kuluttajaraudalla vaikka lopulliset neuroverkot opetettaisiinkiin konesalissa.

 
Kyllä aika pitkälti AAA pelit vaatii huomattavasti nopeampaa rautaa 1080p Ultralle kuin mitä 100€:lla saa. Uutena ei taida saada mitään ja käytettynä ehkä jonkun gtx 1070 parhaimmillaan...

Luulo ei ole tiedon väärti ;)
AMD aliarvostetut Vega kortit ovat hemmetin hyvin vanhentuneet. Eli Vega 56 sekä Vega 64 ovat 100€ hintaluokassa hemmetin hyviä vielä peleihin.
Tai ylipäätään AMD kortit ovat vanhentuneet hienosti, mutta Nvidian kortit taas ei niinkään. Miksi näin ? No ei hajuakaan mutta mitä noita tullut testailtua niin silleen noi nyt tuppaa menemään.

Ehkä niissä kevytpeleissä mitä lähinnä tunnut testaavan. Mites vaikka Cyberpunk asetukset tapissa 1080p?

Ensinnäkin Cyberpunk oli testipelinäni ajat sitten ja se ei kiinnostanut ketään. Ja omasta mielestäni ei niin hääppöinen peli joten tiputin sen pois testipeleistä.
Ja olen huomannut että sinua ja pari muuta täällä näyttää vituttavan kuin pientä eläintä jos näytän että se uusi ja mahtava peli toimiikin paljon vanhemmalla raudalla enemmän kuin hyvin.
Kun te ette selvästikkään halua että kukaan muu voi nauttia pelistä halvemmalla kuin TE.
Joten muutatte jatkuvasti mikä kelpaa ja mikä ei kelpaa testipeliksi sen mukaan mikä istuu teidän agendaanne parhaiten.

Ja mitä pelejä tuossa äsken lueteltiin mitä pitäisi testata, niin kattelin niitä vasta uusiksi testipeleiksi syksyksi.
Mutta pelit näyttivät siltä että eivät itseäni kiinnosta pelata ja kun en tästä tienaa mitään. Joten en osta mitään 60€ peli sen takia kun jotkut TechBBSsä niin vaativat.

Vastakin vaadittiin Resident Evil 4:sta testipeliksi kun se vaatii 12GB VRAMia ja se kyykyttää vanhat kortit.
No en lähtenyt 60€ sijoittamaan peliin mikä itseäni ei kiinnosta yhtään, mutta demolla olen nyt testaillut jokusen kortin ja pienosti pyörii vanhemmallakin raudalla.
Tai no Intelin (A750) ja AMD ( RX 5700 XT ja RX 5500 XT ) korteilla ei ongelmia, mutta Nvidian RTX 2060:lla kun 6GB VRAM loppu kesken niin peli aina kaatu.
Että mahtavaa ajuri työtä taas Nvidialta tuon asian suhteen.
 
No millä auktoriteetillä sitten yleistät mitään resoluutioista ja asetuksista lun testipelisi edustavat vanhaa ja/tai kevyttä aliosuutta pelimarkknoista?

Joku RE4 on kevyt kuin mikä.
 
Viimeksi muokattu:
George hotz yritti amd:n raudalla tehdä koneoppimista ja hajos atomeiksi, kun ajurit niin huonot. Pelkät amd:n esimerkkisoftat loopissa ajettuna sai koneen jumiin. Videolla pitkä selitys miksi hotzin mielestä amd:lla on huono tekemisen kulttuuri softan kanssa ja miksi hänen vinkkelistään tilanne ei tule parantumaan ellei tehdä isoja muutoksia. Ottaa myös kantaa siihen, että ei voi vain olettaa "open source" ja kaikki toimii hetken päästä.

Kai AMD:n konesalipiirien ajurit ovat paremmat. Tosin aika moni tekee koneoppimista kuluttajaraudalla vaikka lopulliset neuroverkot opetettaisiinkiin konesalissa.



Minä olen henkilökohtaisesti tehnyt 5900X ja 6900XT yhdistelmällä konenäköön ja koneoppimiseen liittyvää sovellusta. Eikä ollut mitään ongelmaa....... Aika laukalle lähtee jutut vaihteeksi......

Edit: tuo siis minun taidoilla. Silloin onnistuu myös naapurin mummolta.
 
Minä olen henkilökohtaisesti tehnyt 5900X ja 6900XT yhdistelmällä konenäköön ja koneoppimiseen liittyvää sovellusta. Eikä ollut mitään ongelmaa....... Aika laukalle lähtee jutut vaihteeksi......

Edit: tuo siis minun taidoilla. Silloin onnistuu myös naapurin mummolta.
Millä käyttiksellä ja frameworkilla devasit? Mun linkkaama liittyi isoihin kielimalleihin ja linuxin päällä devaamiseen. Samat frameworkit ja mallien opettaminen toimii hyvin intelilla ja nvidialla. Linuxin päällä loopissa ajettuna amd:n esimerkit kyllä kaataa koneita. Linkin tyyppihän käy yhtä amd:n hänelle tarjoamaa ajurikorjausta läpi minkä pitäisi vähentää kaatuilua.

Toi heppu devaa tinygrad:ia GitHub - geohot/tinygrad: You like pytorch? You like micrograd? You love tinygrad! ❤
 
Kyllä AMD:n ajurit olivat ainakin 6xxx-sarjan aikaan oli paljon bugisempia kuin Nvidian. 6900 XT kun vaihtoi toiseen 6900 XT korttiin niin ei antanut edes kuvaa ennen kuin poisti vanhat ajurit, kerran ajurit rikkoivat windowsin ja melkein päivittäin ainakin kerran oli sitä black screen ongelmaa, että meni ruutu ihan mustaksi ja kuva palautui 1-2min sisällä. Tosin kun oli kuukauden testissä RX 7900 XTX niin ei ollut kertaakaan mitään ongelmaa, eli jäi oikein positiivinen maku siitä ja ajureista, mutta DLSS 3 ja RT-suorituskyky saivat siirtymään takaisin nvidiaan.
 
Millä käyttiksellä ja frameworkilla devasit? Mun linkkaama liittyi isoihin kielimalleihin ja linuxin päällä devaamiseen. Samat frameworkit ja mallien opettaminen toimii hyvin intelilla ja nvidialla. Linuxin päällä loopissa ajettuna amd:n esimerkit kyllä kaataa koneita. Linkin tyyppihän käy yhtä amd:n hänelle tarjoamaa ajurikorjausta läpi minkä pitäisi vähentää kaatuilua.

Toi heppu devaa tinygrad:ia GitHub - geohot/tinygrad: You like pytorch? You like micrograd? You love tinygrad! ❤

WIN10/Anaconda.

Edit: Lähinnä sillä nostin esiin kun lähtee yleistäminen laukalle. On totta, että monessa asiassa AMD:n kuluttaja tuotteet eivät ole hyviä, mutta onko tarkoitettu siihen? Ihan yhtälailla voisin sanoa, että Intel/Nvidia pohjainen läppäri on kuraa koneoppimiseen kun ei suoriutunut mallin opettamisesta ja AMD pohjainen pöytäkone suoriutui......
 
Viimeksi muokattu:
WIN10/Anaconda.

Edit: Lähinnä sillä nostin esiin kun lähtee yleistäminen laukalle. On totta, että monessa asiassa AMD:n kuluttaja tuotteet eivät ole hyviä, mutta onko tarkoitettu siihen? Ihan yhtälailla voisin sanoa, että Intel/Nvidia pohjainen läppäri on kuraa koneoppimiseen kun ei suoriutunut mallin opettamisesta ja AMD pohjainen pöytäkone suoriutui......

Kokeiles käyttää hiljattain kuluttajakorteillekin tarjottua rocm alustaa linuxin päällä ja sun mieli laukasta voi muuttua. Rocm siis amd:n ratkaisu mitä suositellaan raskaampaan koneoppimiskäyttöön. Toki joku windows juttu toiminee, mutta niistä ei isommin ole iloa, jos tarkoitus olis myöhemmin konesalissakin ajaa samaa koodia. Nimenomaan ne amd:n rocm samplet mitkä kaataa konetta,...

 
Kokeiles käyttää hiljattain kuluttajakorteillekin tarjottua rocm alustaa linuxin päällä ja sun mieli laukasta voi muuttua. Rocm siis amd:n ratkaisu mitä suositellaan raskaampaan koneoppimiskäyttöön. Toki joku windows juttu toiminee, mutta niistä ei isommin ole iloa, jos tarkoitus olis myöhemmin konesalissakin ajaa samaa koodia. Nimenomaan ne amd:n rocm samplet mitkä kaataa konetta,...


Just.... Kuinka monta lausetta löytyy missä puhutaan RX sarjan kuluttaja ohjaimista ja ROCm alustasta? Entä kuinka monta instinct sarjasta?

Kummallehan meinaat, että alusta on optimoitu? Suositteleeko AMD RX-sarjan ohjaimia raskaaseen koneoppimiseen?
 
Tai no Intelin (A750) ja AMD ( RX 5700 XT ja RX 5500 XT ) korteilla ei ongelmia, mutta Nvidian RTX 2060:lla kun 6GB VRAM loppu kesken niin peli aina kaatu.
Että mahtavaa ajuri työtä taas Nvidialta tuon asian suhteen.
Hmm, mitä ajuri työtä pitäisi tehdä kun vertaat 8GB kortteja 6GB korttiin, josta loppuu vram kesken? Pitäisikö nvidian tehdä sellaiset ajurit millä saisi 2GB lisää Vrammia?

Edit. Poistetaan osa viestistä, ettei aiheidu sen enempää polemiikkia. Varsinkin kun jotkut eivät ymmärrä kevennyksiä/huumoria :)
 
Viimeksi muokattu:
Just.... Kuinka monta lausetta löytyy missä puhutaan RX sarjan kuluttaja ohjaimista ja ROCm alustasta? Entä kuinka monta instinct sarjasta?

Kummallehan meinaat, että alusta on optimoitu? Suositteleeko AMD RX-sarjan ohjaimia raskaaseen koneoppimiseen?
Mun linkkaama video oli 100% rocm+linux hommaa, raskaaseen koneoppimiskäyttöön kuten isojen kielimallien opettamiseen. ChatGPT on jonkinsortin juttu, moni haluaa jotain tehdä isojen kielimallien kanssa. Tinygradin tekijä hiiltyi amd:hen ihan huolella, kun amd:n samplet kaatoi konetta. Samalla videolla käy läpi esim. patchia mitä amd tarjosi open source ajuriin, että kaatuilu vähenisi. Lopputulemana hotz ei ihan kovin paljoa arvosta amd:n softaosaamista.

Mr. Hotzilla oli mielenpäällä rakentaa referenssi amd, intel ja nvidia kokoonpanot tinygrad käyttöä varten. AMD vempelettä ei saanut toimimaan ja hiiltyi.

Mä en itse ole väittämässä mitään asiasta. Kunhan referoin videoa. Toi video tuli mieleen, kun ketjussa oli keskustelua open sourcesta. Open Source ei tee autuaaksi/takaa laatua.
 
Eikö tuo ole aika monen toimijan kohdalla todettu, että Nvidia laski tarkkaan, kuinka paljon muistia riittää nykyisen sukupolven ajaksi ja onnistuikin siinä? Nyt esimerkiksi paskamyrskyn seurauksena on tulossa 16GB RTX 4060 Ti. Sen tiedostan, että muistiväylä rajoittaa käytettävän muistin määrää. Kuitenkin AMD ja Intel ovat saaneet hieman edullisemmankin pään kortteihin 12GB ja 16GB muistia. Ei luulisi olevan mahdoton paikka Nvidiallekaan.

12GB riittää tällä hetkellä. Kuitenkin oma pelko oli siinä, että muutaman vuoden päästä tulee taas tilanne, että kortin teho riittää, mutta muisti ei. En halua, että käy samaa kuin kävi oman 8GB RTX 3070 Ti:n kanssa. Jos tuossa kortissa olisi ollut enemmän muistia, olisin varmaan jatkanut sillä pidempään.

Se, ettei löydä pelien asetuksista sitä säätöä, jolla tekstuureista valitaan vähän vähemmän tarkat versiot on kyllä melko käyttäjän oma ongelma.

Sen, että seinä näyttää vähän epätarkemmalta kun sitä menee metrin päästä paikallaan tuijottelemaan, ei pitäisi olla oieka ongelma jonka takia tarvii näyttistä vaihtaa.

Lisäksi esimerkiksi DLSS 3 FG nostaa VRAM:n käyttöä yli gigalla ja RT-efektit jopa useammalla.

Höpöhöpö.

Siinä vaiheessa kun peli tehdään täysin säteenjäljityksellä, se muistintarve putoaa merkittävästi, koska ei tarvi olla ziljoona purkkavalopuskuria muistissa.

Voi hyvinkin tulla vastaan tilanne, jossa joku peli näyttäisi upealta ja pyörisi Frame Generationin kanssa hyvin, mutta muisti ei meinaa riittää.

Riittää oikein hyvin, kun vaan valitsee hiukan pienempiresoluutoiset tekstuurit.

Mutta kun pään sisällä on se asennevamma että pakko olla "ultra" ja kaikki nupit kaakossa.

Ja se, että väliin interpoloidaan tyhjästä edellisen ja seuraavan framen perusteella keinotekoisia frameja on todella huono juttu viiveen kannalta. Se huonontaa sitä pelin efektiivistä pyörimistä.

Nvidian RT:n ja DLSS 3:n markkinoinnilla ratsastaminen voi nousta ongelmaksi, jos muisti ei riitä niihin. Etenkin 8GB RTX 4060 -sarjaan tuo voi iskeä kovasti.

Aina voi toki laskea asetuksia, mutta jos ostan tonnin RTX 4070 Ti:n, oletan, että peleissä voi lyödä huoletta grafiikat tappiin 1440p-resoluutiolla, eikä pudotella asetuksia mediumille.

"huoletta tappiin" on typerä asenne. Ne asetukset on säädettäviä sen takia, että ne säädetään sen raudan mukaan millä pelataan. Se, että maksetaan satoja euroja lisää näyttiksestä sen takia että voi "huoletta laittaa tappiin" on vaan typeryyttä.

Ja jos se vaiva on siinä se ongelma, ja haluaa sitä "huolettomuutta" niin melkein joka pelistä löytyy asetuksista toiminto, jolla peli itse arpoo itse itselleen sellaiset asetukset, että se pyörii sillä raudalla hyvin.

Nvidia on valinnut, että tuo muistin määrä on nyt jo rajoilla ja lähivuosina tilanne voi pahentua. 12GB muistia siihen on niukasti ja 16GB taas olisi turvallisempi tulevaisuuden kannalta. 8GB korteilla tilanne meni niin pahaksi, että edes reilu grafiikoiden pudottelu ei meinannut auttaa. Samoin tekstuurit saattoivat olla mössöä, oli niillä mikä tahansa asetus päällä.

Jos haluaa sen isomman muistin ja tarkemmat tekstuurit, sitten ostaa sen kalliimman 4080n. Mikä tässä on niin vaikeaa ymmärtää?

Ja jos samoilla valmistuskustannuksilla olisi haluttu tehdä piiri, jossa on 256-bittinen muistiväylä ja se 16 gigaa muistia, sitten siihen olisi pitänyt laittaa paljon vähemmän itse laskentayksiköitä ja piiri olisi ollut paljon mopompi. Ne PHYt on oikeasti kalliita nykyisillä valmistustekniikoilla. Ja monikerroksisempi PCB on kalliimpi. Ja itse muistipiirit maksaa myös.
Se, että muistiväylästä tehtiin vain 192-bittinen ja muistia on kolmella jaollinen määrä oli oikein hyvä kompromissi.

AMD pystyy tuomaan 256-bittisen muistiväylän navi 32-piiriinsä halvemmalla, koska siinä muistinohjaimet on erillisillä piilastulla, jotka on tehty vanhemmalla halvemmalla valmistusprosessilla. Ja tämäkään piiri ei ole vielä ulkona eikä sen hinnasta ole varmaa tietoa.

Ja AMDn 320-bittisellä väylällä oleva navi 31-malli (joka myös hyötyy vanhemmasta valmistustekniikasta) on myös selvästi kalliimpi kuin 4070.
 
Hmm, mitä ajuri työtä pitäisi tehdä kun vertaat 8GB kortteja 6GB korttiin, josta loppuu vram kesken? Pitäisikö nvidian tehdä sellaiset ajurit millä saisi 2GB lisää Vrammia? Sehän onnistuu samalla tavalla ku laittaa googleen "download more ram"

Näyttiksen muistin loppumisen kesken ei pitäisi johtaa kaatumiseen.

Sen, että näyttämuisti käy vähiin, pitäisi johtaa siihen, että tekstuureita säilytetään siellä näyttömuistissa vähemmän, ja lataillaan sitten käyttöä varten (hitaasti) koneen keskusmuistista (ja heti käytön jälkeen heivataan mäkeen että mahtuu seuraava tilalle).

Ja jos se muisti loppuu kesken niin pahasti, ettei sinne mahdu edes framepuskureita, silloinkin pitäisi antaa siisti virhekoodi, että ei voida vaihtaa haluttuun näyttötilaan tai allokoida haluttuja puskureita, eikä softan kaatua.
Toki onhan se mahdollista, että softa ei osaa tarkastaa näitä virhekoodeja, jolloin vika on softassa eikä ajureissa.

Että jotkut "download more ram"-heitot on todella typeriä ja kertoo vain siitä, kuinka pihalla itse olet kun yrität haukkua toista.
 
Se, ettei löydä pelien asetuksista sitä säätöä, jolla tekstuureista valitaan vähän vähemmän tarkat versiot on kyllä melko käyttäjän oma ongelma.

Sen, että seinä näyttää vähän epätarkemmalta kun sitä menee metrin päästä paikallaan tuijottelemaan, ei pitäisi olla oieka ongelma jonka takia tarvii näyttistä vaihtaa
Riippuu käyttäjästä. Jotkut eivät huomaa, vaikka tekstuurit eivät lataudu kunnolla. Itse taas fiilistelen peleissä hyvin tehtyjä yksityiskohtia. Esimerkiksi The Last of Us Part 1 on nyt menossa ja siinä on panostettu valtavasti yksityiskohtiin ja tykkään lukea julisteita ja vaikka levyjen ja kirjojen kansia. Noista irtoaa jopa uutta lorea. Kyllä se vähän häiritsisi, jos kaikki olisi niin puuroa, ettei saa selvää. Hiljattain pelasin Metro Exodus Enhanced Editionia ja kirosin jatkuvasti sumeita tekstuureita muuten upeassa pelissä ja googlasin, jos ongelmaan olisi joku ratkaisu.
Höpöhöpö.

Siinä vaiheessa kun peli tehdään täysin säteenjäljityksellä, se muistintarve putoaa merkittävästi, koska ei tarvi olla ziljoona purkkavalopuskuria muistissa.
Mitä höpö höpöä se on, jos sanon sekä säteenseurannan että DLSS 3:n lisäävän muistin kulutusta. Tuo on ihan fakta, jonka voi kokeilla ja todeta itsekin :confused: En usko, että pelejä ihan heti ruvetaan tekemään rasterointi täysin unohtaen. Ihmisten vanha rauta ja konsolit on yhä taakkana.
"huoletta tappiin" on typerä asenne. Ne asetukset on säädettäviä sen takia, että ne säädetään sen raudan mukaan millä pelataan. Se, että maksetaan satoja euroja lisää näyttiksestä sen takia että voi "huoletta laittaa tappiin" on vaan typeryyttä.

Ja jos se vaiva on siinä se ongelma, ja haluaa sitä "huolettomuutta" niin melkein joka pelistä löytyy asetuksista toiminto, jolla peli itse arpoo itse itselleen sellaiset asetukset, että se pyörii sillä raudalla hyvin.
Omalla 8GB RTX 3070 Ti kortilla ei yksinkertaisesti meinannut löytyä asetuksia moniin uusiin peleihin, joilla kuva ei näyttänyt puurolta tai saisi tasaiset frametimet, vaikka kyseessä oli tehokas ja hyvin kellottuva kortti. Esimerkiksi HU:lla oli Hogwart's Legacyssa ja The Last of Us Part 1:ssä 1080p Medium asetuksillakin frametimejen kanssa ongelmaa. Vielä hetki sitten noita mainostettiin 1440p High-Ultra korteiksi. Moni varoitti, että 8GB ei tule riittämään, mutta suurin osa, kuten itse, en uskonut. Useasta pelistä katosi kaikki FPS dropit ja ongelmat korttia vaihtamalla. Ja esimerkiksi Forspokenissa ja Deathloopissa näyttis ei vain välillä suostunut lataamaan tekstuureita, vaikka seisoisi päällään.
Jos haluaa sen isomman muistin ja tarkemmat tekstuurit, sitten ostaa sen kalliimman 4080n. Mikä tässä on niin vaikeaa ymmärtää?
Onhan se vähän suolaista, että Nvidialla pitää laittaa melkein 1.5 tonnia rahaa tiskiin, jotta saa kortin, jossa on vasta monen suosittelema määrä VRAMia 1440p-resoluutiolle ja jota AMD ja Intel tarjoaa 400-500€ kortteihin. Aika harvalla on varaa semmoiseen lopulta. Itse arvoin pariin kertaan tonnin RX 7900 XT ostoskorissa ja en lopulta pystynyt, vaan ostin 709€ RX 6950 XT:n.

Itse koin juuri kantapään kautta sen, että 8GB muisti ei yhtäkkiä riitä mihinkään ja melkein jokaisessa uudessa ja myös vanhemmassa pelissä on ongelmia, jotka eivät välttämättä korjaannu edes asetuksia säätämällä. Useiden YouTube-kanavien, tekniikkasivustojen ja pelaajien mielipide oli, että Nvidia laski tarkkaan, mikä muistimäärä riittää juuri sen sukupolven ajan ja itse uskon samaan. 12GB on nyt vielä ihan kivasti 1440p-resoluutiolla. Toki esimerkiksi RTX 4070 Ti on hyvin tehokas kortti ja etenkin frame generationin päällä pyörittää pelejä varmasti vielä vuosien päästä. Lähivuosina voi kuitenkin tulla pelejä, joissa kortin teho riittäisi vaikka näyttävään säteenseurantaan ja FG päällä pyörisi hyvin, mutta 12GB muisti ei riitä. Ja jos kyseisessä pelissä FG hörppää esimerkiksi gigan näyttömuistia ja RT useamman, niin sitä ei voi ohittaa sanomalla höpö höpö. Esimerkiksi The Last of Us Part 1 vetää 1440p-resoluutiolla asetuksista riippuen 10-12GB pelkällä rasteroinnilla, niin jos PC:lle tuotaisiin RT ja DLSS3 siihen, voisi käydä huonosti. Itse olen sitä mieltä, että RTX 4070 korttiin 12GB on vielä hyväksyttävä, mutta vähän niukasti, mutta tehokkaampiin liian vähän. 8GB RTX 4060 -sarja ja RX 7600 taas on yksi vitsi.

Tuossa HU:n videolla näkee vielä, miten RTX 3070 yskii 1080p resoluutiolla ja kaikki mediumilla ja 16GB RX 6800 sen kuin porskuttaa vaikka kaikki ultralla. Samoin Forspokenissa näytetään, miten tekstuurit ovat oikeasti ihan puuroa, kun muistiin ei mahdu. Muistan todenneeni omalla kortilla samassa pelissä, että tekstuurien asetuksien vaihtaminen ei tuohon auttanut. Resident Evil 4:ssä RTX 3070 yskii jopa vaatimattomilla 1GB tekstuureilla, kun RX 6800 painelee 8GB tekstuureilla, eli paha tuossa enää sanoa "Pudota tekstuureita, niin mitään ongelmaa ei ole". En yhtään ihmettelisi, jos lähivuosina tulisi vastaavilla tuloksilla vastaava video "RTX 4070 12GB vs RX 7900 XT". Toki konsolisukupolvi ei välttämättä heti vaihdu, mutta konsoleilla datan striimaus on älyttömän nopeaa ja PC:lle voidaan tuoda ekslusiivisia ominaisuuksia, jotka lisäävät muistin käyttöä.

Eli tiivistäen voisin sanoa, että 8GB RTX 3070 Ti kortin VRAM-ongelmista oppineena huolehdin, että seuraavassa kortissa on vähintään 16GB muistia. 8GB muistista varoiteltiin, kun se alkoi olla jo rajoilla, mutta varoituksia ei kuunneltu. Moni väitti kovasti, ettei ongelmia tule, mutta toisin kävi. 12GB muistille voi käydä lähivuosina samoin etenkin tehokkaampien korttien kanssa ja RT ja DLSS 3 päällä. Tai sitten ei käy, mutta itse en ottanut riskiä.

 
Viimeksi muokattu:
Kukas sen avoimen koodin kirjoittaa ja millä rahalla? Tietyillä yrityksillä avoimeen lähdekoodiin panostamisen suurin motivaatio on omien resurssien puute. Halutaan, että joku muu tekee työn ja mielellään ilmaiseksi.

Vaikka kaikki kolme GPU valmistajaa yhdessä.

Mutta ilmeisesti sinun on vaikeaa ymmärtää taikka hyväksyä tätä kun ilmeisesti todella toivot sitä että muut tippuu pelistä pois.

Rocm siis amd:n ratkaisu mitä suositellaan raskaampaan koneoppimiskäyttöön.

ROCM on suunniteltu pääasiassa Vähän eri korteille kuin nää kuluttaja kamppeet. Jonkinlainen tuki toki on kuluttaja korteille, mutta pääpaino on vähän toisessa raudassa kuten Mi250 jne...

Jonkin sortin windows tukeakin alkaa pikkuhiljaa tulemaan

Mitähän korttia tämä hiilenä käyvä ohjelmoija guru oikein on mahtanut käyttää?
 
Viimeksi muokattu:
Offtopic mutta huomionarvoista: älä ruoki trollia. Esim. jos jonkun kirjoitukset vaikuttavat asiantuntevilta, mutta tuntuvat kummallisen aggressiivisilta, vilkaisen usein hänen viestihistoriaansa. Siitä voin jossain määrin päätellä, millaisesta keskustelijasta on kyse. Ääriajatteluun taipuvaisen henkilön kanssa väittely voi olla työlästä ja turhauttavaa.

Muuten olen sitä mieltä, että AMD tekee todella hyviä näytönohjaimia ainakin peruskäyttäjälle kuten minä. Nvidialla on myös erittäin hyviä tuotteita, mutta harmittavan kalliita.
 
Viimeksi muokattu:
Hyvin toteutettu striimaus ratkaisisi monta tekstuuriongelmaa. Ei ole mitenkään realistista ladata tarkimpia versioita kaikista tekstuureista kerralla muistiin jos peli on yhtään kunnianhimoisempi. UnrealEngine5.2 tukee 8k tekstuureita kaikille objekteille. Tekstuurit ja geometria objekteille ladataan muistiin sen mukaan miten ison osan näytöstä kappale täyttää. ue5.2:ssa oli asiaan liittyen myös bugikorjauksia.

Tekstuurien striimausta auttaa heuristiikan lisäksi directstorage api+ssd, tiled resources api ja sampler feedback api. Sampler feedback:in avulla saa engineen tiedon siitä mitä pikseleitä engine yritti teksuurista käyttää. Tiedon pohjalta voidaan ladata tiilitetysti alipalaset mip tasoisa mitä tarvitaan(tiled resources). Vältetään koko tekstuurin ja vältetään myös koko mip tason lataus "varmuuden" vuoksi. Paras on tietenkin yhdistää heuristiikkaa, joka yrittää arvata mitä tarvisi ja paikata loput aukot sampler feedback:lla. Heuristiikka hyvä sen vuoksi, että jos tulee liian paljon latauspyyntöjä niin niiden toteuttamisessa menee pidempi aika ja käyttäjä voi huomata tekstuurien latauksen hitauden.

lähteitä väitteille. ue5.2 fiksaus mimap tasoihin liittyen. Enginen julkaisuvideossa youtubesta saa paljon paremman yksityiskohtaisen selityksen tekstuureiden ja tekstuureiden mip tasojen lataamisesta dynaamisesti.

The landscape will generally drive the virtual texture update, and you'd want the grass to sample the same mip used on the landscape. Using this option stops the grass from requesting higher mips than necessary.


sampler feedback api
The general process of loading texture data on-demand, rather than upfront-all-at-once, is called texture streaming in this document, or streaming for short.

Independently of whether sampler feedback is available, Direct3D12-based applications have, through tiled resources, the ability to progressively load the mip chain.
SFSFlowChart.png


Sampler Feedback

Toivoisi, että optimoitu striimauksenkäyttö + ssd levyt yleistyisivät pelien minimivaatimuksena. Päästäisiin eroon muistinmääräväännöistä, jotka usein johtuvat typerästä enginestä/asetuksesta jolla pakotetaan tekstuureita muistiin vaikka ei tarvitsisi. Toinen yleinen keissi on optimoimaton peli kuten last of us jonka muistinkulutus on patchien myötä oleellisesti vähäisempi
 
Mitähän korttia tämä hiilenä käyvä ohjelmoija guru oikein on mahtanut käyttää?

2x 7900XTX, lähteenä [Driver] BUG: unable to handle page fault for address: ffffa7c13eaffff8 · Issue #2198 · RadeonOpenCompute/ROCm


Käsittääkseni ko. kaveria ei muutenkaan pidetä erityisen luotettavana, ilmeisesti ratsastaa edelleen vanhoilla Apple/PS3 häkkien maineella.

Esim. marcanin, erään toisen pelikonsolihakkerin ja nykyisen Asahi Linuxin leadin kommentit tästä ROCmgatesta:
1686370409863.png
 
Keskustelussa menee hieman sekaisin, että on tosiaan pelejä, joita
1) yleensä pelataan maksimiasetuksilla ja ruudunpäivitys on ihan riittävä kun näyttää sulavalta (yleensä ns. Tarinavetoisia yksinpelejä, seikkailupelejä jne). Sitten on pelejä
2) joita pelataan optimoiduilla grafiikka-asetuksilla siten että ruudunpäivitys on lähempänä näytön maksimikykyä, ja ylimääräisen koristeet karsittuna selkeämmän näkymän takaamiseksi (verkkomoninpelit, yleensä first person shootterit jne.)

ykköskorin peleissä yleensä tärkeimpiä asetuksia on tekstuurit, valaistukset ja varjot, jotka tekee ison osan näyttävyydestä, näissä myös rt-on useammin käytössä. Myös skaalaimet toimii näissä.

Kakkoskorin peleissä kytketään kaikki rt:t ja ylimääräiset valo- ja varjoefektit yms pois. Skaalaimet monesti näissä tekee myös välkettä ja muuta häröä jolloin ne on pois käytöstä jos rauta riittää riittäville ruudunpäivitystasoille ilman.
 
Itse nyt tällä viikolla totesin että en jaksa odottaa Amd Rx 7800(xt) ja tilasin Nvidian Rtx 4070 vaikka siinä on se 12gb vramia joka varmaan tarkoittaa että itse tulen sitten päivittämään seuraavassa sukupolvessa 2025(2024 tulee varmaan kalliimmat mallit ja halvemmat sitten 2025) joko Nvidia Rtx 5070/Amd Rx 8800(xt)/Intel joku?

Rtx 3060(12gb) kanssa joutunut liikaa kompromisseja tekemään 4k 144hz näytön kanssa(oli "halpa" kun yksi pikseli rikki vasemmassa yläkulmassa joka ei onneksi haittaa yhtään) ja Quest 2 kanssa(ostan varmaan Quest 3 heti kun tulee saataville joka saattaa vieläkin enemmän vaatia koneelta).

Riippuen pelistä varmaan teen niin törkeästi että 4k ultra/high asetukset(ilman säteenseurantaa) ja sitten mahdollisesti Dlss/Fsr/XeSS ultra quality/quality asetuksella päälle.

Edit ja syy miksi en ostanut vaikkapa Amd rx 6950 xt/6900 xt/6800 xt oli että ne ei tue av1 enkoodausta ja että itselläni vain 650w laadukas virtalähde joka ei riitä ainakaan tuolle 6950 xt ja ehkä ei myöskään 6900 xt malleille.
 
Viimeksi muokattu:
Käsittääkseni ko. kaveria ei muutenkaan pidetä erityisen luotettavana, ilmeisesti ratsastaa edelleen vanhoilla Apple/PS3 häkkien maineella.
Henkisesti ihan egoistinen lapsihan se on, mutta teknisesti pätevä. Viimeisin firma siltä comma ai, missä tekevät kamera ja neuroverkkopohjaista ajoavustinta. Toimii isossa määrässä autoja. Kolmosversio raudasta myynnissä.

Keissi amd:n hajoaminen tapahtyi tinygrad koneoppimisframeworkin kanssa mitä se kirjoittaa

Molemmat projektit open sourcea. Voi käydä committeja katsomassa. Commasta paljon videoita tuubissa kuten myös hotzin megapitkiä koodaussesioita youtubessa


 
Viimeksi muokattu:
Näyttiksen muistin loppumisen kesken ei pitäisi johtaa kaatumiseen.

Sen, että näyttämuisti käy vähiin, pitäisi johtaa siihen, että tekstuureita säilytetään siellä näyttömuistissa vähemmän, ja lataillaan sitten käyttöä varten (hitaasti) koneen keskusmuistista (ja heti käytön jälkeen heivataan mäkeen että mahtuu seuraava tilalle).

Ja jos se muisti loppuu kesken niin pahasti, ettei sinne mahdu edes framepuskureita, silloinkin pitäisi antaa siisti virhekoodi, että ei voida vaihtaa haluttuun näyttötilaan tai allokoida haluttuja puskureita, eikä softan kaatua.
Toki onhan se mahdollista, että softa ei osaa tarkastaa näitä virhekoodeja, jolloin vika on softassa eikä ajureissa.

Että jotkut "download more ram"-heitot on todella typeriä ja kertoo vain siitä, kuinka pihalla itse olet kun yrität haukkua toista.
Kyllä se vaan niin tuppaa olemaan että kun näyttömuisti loppuu kesken tai käy vähiin niin peli kyykkää/kaatuu.
 
Mää en myöskään sulata sitä väitettä että peli kaatuisi, havaittavaa hidastumista varmasti tulee. Vika on silloin muualla jos ohjelma kippaa.

Nvidian developer ohjeistus puhuu vain nylkytyksen / stutter havaitsemisesta ja analysoinnista overcommitment tilanteessa eri työkaluilla eikä sanaakaan mistään epästabiiliudesta.
 
Mää en myöskään sulata sitä väitettä että peli kaatuisi, havaittavaa hidastumista varmasti tulee. Vika on silloin muualla jos ohjelma kippaa.

Nvidian developer ohjeistus puhuu vain nylkytyksen / stutter havaitsemisesta ja analysoinnista overcommitment tilanteessa eri työkaluilla eikä sanaakaan mistään epästabiiliudesta.

Hardware Unboxed oli alkanu hogwarts legacy testaan uudestaan niin jollain nvidian 8GB kortilla ultra asetuksilla kippaa muutamassa sekunnissa uusimmilla ajureilla. Aiemmin oli toiminu mutta suorituskyky huono.

 
Ajureissa tai pelin koodissa on jotain perustavanlaatuista perseellään jos tulee tuommoisia kaatumisia sen sijaan että muistin loppuessa siirryttäisiin käyttämään keskusmuistia ja kovalevyswappia.
 
Se on proshoppi suomesta päässyt näköjään videocardzin uutisiin asti RTX4060 edullisella hinnoittelulla. Ottaen huomioon suomen markkinat voisin veikata että täällä myydään todennäköisesti vielä 3 vuoden päästä RTX 3000-sarjalaisia 500-600 eurolla. Ja ulkomaisten toimitusten etsiessä vertailuhintoja verrattain kalliimpaan pään hinnoittelulle suomi pitää todennäköisesti kärkipaikkaa.
 
Se on proshoppi suomesta päässyt näköjään videocardzin uutisiin asti RTX4060 edullisella hinnoittelulla. Ottaen huomioon suomen markkinat voisin veikata että täällä myydään todennäköisesti vielä 3 vuoden päästä RTX 3000-sarjalaisia 500-600 eurolla. Ja ulkomaisten toimitusten etsiessä vertailuhintoja verrattain kalliimpaan pään hinnoittelulle suomi pitää todennäköisesti kärkipaikkaa.
Suomen elektroniikan (sis tietokonejutut) hintataso on Euroopan keskitasoa, ei kalleinta päätä. Ja tosiaan siellä on päässyt tuo 500€ Strixi otsikkoon, kuvassa näkyy toki edullisemmatkin mallit alkaen 350€
 
Tällä hetkellä Proshopilla halvin listattu 4060 on 330€:lla eli kympin alle MSRP:n:


Tuskinpa Suomi muuten kuin vähän korkeamman alvinsa vuoksi erottuu muista Euroa käyttävistä maista mitä noihin lähtöhintoihin tulee. MSRP on sanellut hyvin tarkkaan lähtöhinnat tämän vuoden julkaisuissa. Tosin ei ole kyllä Strix tyyppisten mallien hintoja tullut tarkkailtua, ehkä niissä meillä sitten enemmän extraa muihin eurooppalaisiin maihin verrattuna kuin mitä pelkkä alv selittää?
 
Kukas sen avoimen koodin kirjoittaa ja millä rahalla? Tietyillä yrityksillä avoimeen lähdekoodiin panostamisen suurin motivaatio on omien resurssien puute. Halutaan, että joku muu tekee työn ja mielellään ilmaiseksi.
Koodi muodostuu monesti eri projektin toimijoiden yhteistyönä. Firma millä suurin intressi asiaan ottaa monesti vetovastuussa mutta jokaisella firmalla on intressit varmasti kehittää kun kaikilla on sama päämäärä lopulta vaikkakin ehkä eri syistä. Ei avoimen ja yhteisen standardin käyttäminen ole mikään ylitsepääsemätön juttu softapuolellakaan. Käytännössä näytönohjaimet on valmiiksi täynnä yhdessä sovittuja ja laadittuja standardeja raudan osalta.

Kuten @JiiPee aikaisemmin totesi. Suljetuilla softaratkaisuilla ei ole tosielämässä muuta tavoitetta kuin rahastaminen ja etumatkan kurominen kilpailijoihin. Joka loppujen lopuksi kaventuu ajan kanssa tilanteeseen jossa kilpailijat pääset samalle tasalle ja tuottavat monesti jopa paremmin tuettua softaa/koodia vs proprietary ratkaisut.

Sillä näiden proprietary kehittäjien intressi päivittämiseen lakkaa monesti siinä vaiheessa kun johdon mielestä tuote ei tee enää riittävästi rahaa yritykselle tai sen tukeminen uuden raudan kanssa ei tunnu enää niin "hauskalta". Avoimen ratkaisun kanssa tätä ongelmaa ei ole sillä loppupeleissä koodin ylläpidon voi ottaa käytännössä kuka tahansa haltuun lisenssin salliessa ja monesti yhteisöt myös haluavat ylläpitää (tai tähän on ainakin mahdollisuus olemassa vs suljettu koodi) koodia sen "parasta ennen" ajankin jälkeen.
 
Koodi muodostuu monesti eri projektin toimijoiden yhteistyönä. Firma millä suurin intressi asiaan ottaa monesti vetovastuussa mutta jokaisella firmalla on intressit varmasti kehittää kun kaikilla on sama päämäärä lopulta vaikkakin ehkä eri syistä. Ei avoimen ja yhteisen standardin käyttäminen ole mikään ylitsepääsemätön juttu softapuolellakaan. Käytännössä näytönohjaimet on valmiiksi täynnä yhdessä sovittuja ja laadittuja standardeja raudan osalta.

Kuten @JiiPee aikaisemmin totesi. Suljetuilla softaratkaisuilla ei ole tosielämässä muuta tavoitetta kuin rahastaminen ja etumatkan kurominen kilpailijoihin. Joka loppujen lopuksi kaventuu ajan kanssa tilanteeseen jossa kilpailijat pääset samalle tasalle ja tuottavat monesti jopa paremmin tuettua softaa/koodia vs proprietary ratkaisut.

Sillä näiden proprietary kehittäjien intressi päivittämiseen lakkaa monesti siinä vaiheessa kun johdon mielestä tuote ei tee enää riittävästi rahaa yritykselle tai sen tukeminen uuden raudan kanssa ei tunnu enää niin "hauskalta". Avoimen ratkaisun kanssa tätä ongelmaa ei ole sillä loppupeleissä koodin ylläpidon voi ottaa käytännössä kuka tahansa haltuun lisenssin salliessa ja monesti yhteisöt myös haluavat ylläpitää (tai tähän on ainakin mahdollisuus olemassa vs suljettu koodi) koodia sen "parasta ennen" ajankin jälkeen.

Eikös tuo nyt ole aika loogista, että jos kehittää alaa eteenpäin vievää teknologiaa, niin siitä olisi kiva myös hyötyä...

Tottakai propietary hommma loppuu siinä vaiheessa, kun/jos tulee yhtä hyvä tai parempi avoin vastine. Tämä on ihan luonnollista. Jonkun täytyy sitä kehitystä puskea eteenpäin ja ei sitä viitsisi ihan hyväntekeväisyyttään firmat tehdä.
 
Eikös tuo nyt ole aika loogista, että jos kehittää alaa eteenpäin vievää teknologiaa, niin siitä olisi kiva myös hyötyä...

Kehittäjällä on joka tapauksessa yksinkertaisenkin softan osalta kuukausien ja vähänkin monimutkaisimpien teknologioiden osalta vuosien etumatka, vaikka kyseessä olisikin avoin rajapinta. Erityisesti jos ja kun operatiivinen dokumentaatio ei ole julkisesti jaossa, ainoastaan tekninen dokumentaatio.
 
Tuli vastaan mielenkiintoinen tviitti. Näinköhän kiinalaiset haluavat AI servereihin RTX 4090 näytönohjaimia?

 


Mielenkiintoinen video, samoilla freimeillä AMD:n 7900 xtx vei yli tuplasti virtaa mitä Nvidian 4080. Mikä noissa 7000-sarjan korteissa hörppää tuota virtaa noin paljon enemmän?

IMG_0348.jpeg

punainen 7900xtx ja harmaa 4080
 


Mielenkiintoinen video, samoilla freimeillä AMD:n 7900 xtx vei yli tuplasti virtaa mitä Nvidian 4080. Mikä noissa 7000-sarjan korteissa hörppää tuota virtaa noin paljon enemmän?

IMG_0348.jpeg

punainen 7900xtx ja harmaa 4080

Harmi, että mainostaa vajavaiseksi tiedettyä pcatia noin avoimesti.
 
No tuossahan on lainatussa kuvassa ihan selvästi "total watts @ wall". Eli tuo väittäisinpä oleellisin tulos on ilman kyseistä pcat-laitetta mitattu. Sitten toki videossa käytiin näitä muita tehonkulutuslukemia läpi joissa kyseistä mittauslaitetta käytettiin. Mutta vaikka pcatissa itsessään olisikin jotain ongelmia tarkkuuden kanssa, niin tulokset ovat sen verran selkeät että aika iso punainen hattu pitää olla päässä jotta lähtisi niitä kiistämään.
 

Statistiikka

Viestiketjuista
259 412
Viestejä
4 511 606
Jäsenet
74 363
Uusin jäsen
wlliamwill

Hinta.fi

Back
Ylös Bottom