Virallinen: NVIDIA vs AMD (vs Intel) keskustelu- ja väittelyketju

  • Keskustelun aloittaja Keskustelun aloittaja Sampsa
  • Aloitettu Aloitettu
Pelikohtaista toki, mutta kyllä se 60fps on tarpeeksi nopea yleensä. Siihen vaan ei tahdo päästä nykyraudalla kuin 1080p resolla.
Esimerkiksi Gamers Nexus testien mukaan Cyberpunkissa 3080 jää alle 60fps keskivarvolle ja low menee lähellä 30fps 4k/DLSS Performance (eli 1080p reso käytännössä)
Kaikki pelit ei varmasti ole Nvidian sponsoroimia eli ei voida laskea sen varaan että DLSS tulee löytymään kaikista.

1440p resolle ei 3080 oikein riitä Cyberpunkkiin säteenjäljitys päällä. 4k/DLSS Quality ~42fps avg. (renderöintiresoluutio 1440p)

Tuo 60fps jää haaveeksi natiivina ihan ilman että RT on mukana kuvioissa. Mitenkäs sitten tehdään 4K ruutujen omistajien keskuudessa? Jätetään peli ostamatta ja pelataan ehkä joskus ensi tai sitä seuraavan sukupolven arkkitehtuureilla?
 

Liitteet

  • gjALNezhoBLrgWYAmDXtrn-970-80.png
    gjALNezhoBLrgWYAmDXtrn-970-80.png
    89,2 KB · Luettu: 46
Tuo 60fps jää haaveeksi natiivina ihan ilman että RT on mukana kuvioissa. Mitenkäs sitten tehdään 4K ruutujen omistajien keskuudessa? Jätetään peli ostamatta ja pelataan ehkä joskus ensi tai sitä seuraavan sukupolven arkkitehtuureilla?
Ei käytetä Ultra asetuksia?
 
Noniin, nyt saatiin perjantaiksi loistavat draamakuviot:

Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.


Nvidia ei siis jatkossa lähetä enää AMDUn.. HWunboxedille FE-kortteja johtuen HWunboxedin toimituksen rasterointifokuksesta.

Onhan tuo varsin typerä liike ollut HWU:lta jo hetken aikaa, vähätellään raytracingia ja myös sitä dlss:ää vaikka omat mielipiteet nyt ei pitäisi testeihin vaikuttaakaan, ainakin jos meinaa puolueeton olla.

Kyllä ainakin itseäni kiinnostaa nähdä revikoissa myös ne RT numerot, onhan noita pelejä jo jonkin verran joista tuki sille löytyy.
 
Onhan tuo varsin typerä liike ollut HWU:lta jo hetken aikaa, vähätellään raytracingia ja myös sitä dlss:ää
Ei ne kyllä ole DLSS:ää vähätelleet, muuten kuin pelituen osalta. Esim. ihan otsikosta ”Nvidia DLSS in 2020: Stunning results” ja itse artikkeli alkaa sanoilla ”this could be a game changer”. Vissiin olis jotain toisia ylistyssanoja pitäny käyttää?
..

Kyllä ainakin itseäni kiinnostaa nähdä revikoissa myös ne RT numerot, onhan noita pelejä jo jonkin verran joista tuki sille löytyy.
Mistä revikoista noi susta nyt niin kovasti puuttuu?
 
Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.


Mää pelailemassa ilman tekoälyä ja ilman säteitä 2020-luvulla.

:sidea:

Melkonen kuvanhuononnus ja FPS:n heikennin ja säteiden väärentäjä. AMD:n nenän edestä taisi juna juuri mennä ohi. Pasianssia kyllä pyörittää joten ei hätää, kannattaa hankkia.

Pelataan sitten kaikilla herkuilla tulevia AAA-pelejä seuraavassa sukupolvessa.
 
Kyllähän tuo DLSS välillä hajoaa tuossa Cyberpunkissa, pahin esimerkki varmaan se ykkösaktin interludessa oleva lyhyt helikopterilento, siinä oli selvää häntimistä. 99% ajasta kuitenkin toimii hyvin (varmaan 6-8h ehdin pelailla eilen sitä) ja paljon mieluummin RT+DLSS, kuin natiivi ilmam RT:tä.
 
Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.


Mää pelailemassa ilman tekoälyä ja ilman säteitä 2020-luvulla.

:sidea:

Melkonen kuvanhuononnus ja FPS:n heikennin ja säteiden väärentäjä. AMD:n nenän edestä taisi juna juuri mennä ohi. Pasianssia kyllä pyörittää joten ei hätää, kannattaa hankkia.

Pelataan sitten kaikilla herkuilla tulevia AAA-pelejä seuraavassa sukupolvessa.

Lopeta jo tuo trollaus.

Esiopetetun neuroverkon pohjalta tehty skaalaus yhdistettynä TAA:han ei ole "tekoälyä", vaikka miten monta kertaa sitä toistelet.

ps. Täysin samat "tekoäly"laskut voidaan laskea kumman tahansa raudalla. NVIDIA on toki sulkenut DLSS:n vain itselleen, mutta itse tekniikassa ei ole mitään sellaista ettei sitä voisi laskea AMD:nkin raudalla.
pps. Täysin samat säteet voidaan laskea kumman tahansa raudalla. CDPR on toki kytkenyt ne toistaiseksi pois päältä AMD:lta, mutta niissä ei ole mitään sellaista, mitä ei voisi AMD:n korteilla tehdä.
 
Lopeta jo tuo trollaus.

Esiopetetun neuroverkon pohjalta tehty skaalaus yhdistettynä TAA:han ei ole "tekoälyä", vaikka miten monta kertaa sitä toistelet.

ps. Täysin samat "tekoäly"laskut voidaan laskea kumman tahansa raudalla. NVIDIA on toki sulkenut DLSS:n vain itselleen, mutta itse tekniikassa ei ole mitään sellaista ettei sitä voisi laskea AMD:nkin raudalla.
pps. Täysin samat säteet voidaan laskea kumman tahansa raudalla. CDPR on toki kytkenyt ne toistaiseksi pois päältä AMD:lta, mutta niissä ei ole mitään sellaista, mitä ei voisi AMD:n korteilla tehdä.
:speak:

Alustoilla ei siis mielestäsi ole mitään eroa? Pukinkonttiin AMD:tä kannattaa laittaa perheen pienemmille cyberpunkkia varten?
 
Alustoilla ei siis mielestäsi ole mitään eroa? Pukinkonttiin AMD:tä kannattaa laittaa perheen pienemmille cyberpunkkia varten?
En minä niin sanonut, vaan korjasin virheellisiä väittämiäsi.

Eri alustoilla on tietenkin eroja monessakin asiassa, mutta tällä hetkellä näytönohjaimet ovat lähes ominaisuuspariteetissa. Direct3D-puolella AMD on edellä Tiled Resources- (Tier 4 vs Tier 3) ja Sampler Feedback (Tier 1 vs Tier 0.9) -ominaisuuksissa, joiden lisäksi AMD:lla on 4-bittiä laajemmat virtuaalimuistiavaruudet per resurssi ja per prosessi (44bit vs 40bit) ja Stencil Reference Value from Pixel Shader -ominaisuus uupuu NVIDIAlta täysin. NVIDIA on taas edellä View Instancing -ominaisuudessa (Tier 1 vs Tier 3).

Softapuolelta löytyy sitten enemmän eroja ja tässäkin tapauksessa erot ovat siellä softapuolella. AMD:lla on tapana tehdä niistä avointa lähdekoodia kenen tahansa hyödynnettäväksi, kun NVIDIA harrastaa enemmän vain itselleen suljettuja kuten DLSS.
NVIDIA on toki myös räätälöinyt DLSS:n suorituksen matriisilaskimille sopivaksi, jolloin se suoritus on nopeampaa tensoriytimillä, mutta mitään sellaisia laskuja siinä ei ole, mitä AMD:n raudalla ei voisi laskea (minkä lisäksi AMD:lla on toki omat matriisilaskimensa, järeämpiäkin vielä kuin NVIDIAn, mutta ne löytyvät ammattilaispuolelta missä niille on ihan kunnolla käyttöä). Osa DLSS-versioista suoritettiin jopa NVIDIAlla ihan vain CUDA-ytimillä.

Ja tietenkin eri jutut toimivat eri nopeuksilla eri arkkitehtuureilla, kaikissa niistä on vahvuuksia ja heikkouksia.

Punkinkonttiin voi ihan yhtä hyvin heittää AMD:n kuin NVIDIAnkin näytönohjaimen jos sellaisen sattuu saamaan, kummankaan suorituskyky ei riitä Cyberpunkille kuitenkaan ilman erilaisia kompromisseja, ihan sama mitä rautaa koneessa on. Peli on kuitenkin ihan yhtä hyvä tai huono riippumatta siitä kumman valmistajan kortilla sitä pelaa, tällä hetkellä NVIDIAlla saa enemmän karkkia päälle mutta niiden karkkien päälle laittaminen taas vaatii tekemään kompromisseja muualla. Kunhan CPDR saa aikaiseksi kytkeä säteenseurannan päälle AMD:llakin saadaan yhtä paljon karkkia päälle, mutta aivan yhtä taatusti käyttäjä joutuu tekemään kompromisseja niilläkin.
 
Niin eli pitäisi ostaa amd, jossa ei ainakaan riitä tai jättää pelaamatta? En ymmärrä logiikkaa välillä.

Itse pelaan peliä ultralla ja 4k, variable rendering min 80% (Radeon 6800). Ei ainakaan vielä ole kaivannut mihinkään muutosta ja hyvin pyörii. Lucys bar on tällä hetkellä menossa ja tuntuu sielläkin pyörivän hyvin. Katsotaan sitten kun tulee joku isompi räiskintä osuus pitääkö tiputtaa variable resoluutiota alemmaksi.

Peli näyttää hienolta ja skarpilta näinkin eikä kaipaa RT efektejä sinällään.
 
Viimeksi muokattu:
En minä niin sanonut, vaan korjasin virheellisiä väittämiäsi.

Eri alustoilla on tietenkin eroja monessakin asiassa, mutta tällä hetkellä näytönohjaimet ovat lähes ominaisuuspariteetissa. Direct3D-puolella AMD on edellä Tiled Resources- (Tier 4 vs Tier 3) ja Sampler Feedback (Tier 1 vs Tier 0.9) -ominaisuuksissa, joiden lisäksi AMD:lla on 4-bittiä laajemmat virtuaalimuistiavaruudet per resurssi ja per prosessi (44bit vs 40bit) ja Stencil Reference Value from Pixel Shader -ominaisuus uupuu NVIDIAlta täysin. NVIDIA on taas edellä View Instancing -ominaisuudessa (Tier 1 vs Tier 3).

Softapuolelta löytyy sitten enemmän eroja ja tässäkin tapauksessa erot ovat siellä softapuolella. AMD:lla on tapana tehdä niistä avointa lähdekoodia kenen tahansa hyödynnettäväksi, kun NVIDIA harrastaa enemmän vain itselleen suljettuja kuten DLSS.
NVIDIA on toki myös räätälöinyt DLSS:n suorituksen matriisilaskimille sopivaksi, jolloin se suoritus on nopeampaa tensoriytimillä, mutta mitään sellaisia laskuja siinä ei ole, mitä AMD:n raudalla ei voisi laskea (minkä lisäksi AMD:lla on toki omat matriisilaskimensa, järeämpiäkin vielä kuin NVIDIAn, mutta ne löytyvät ammattilaispuolelta missä niille on ihan kunnolla käyttöä). Osa DLSS-versioista suoritettiin jopa NVIDIAlla ihan vain CUDA-ytimillä.

Ja tietenkin eri jutut toimivat eri nopeuksilla eri arkkitehtuureilla, kaikissa niistä on vahvuuksia ja heikkouksia.

Punkinkonttiin voi ihan yhtä hyvin heittää AMD:n kuin NVIDIAnkin näytönohjaimen jos sellaisen sattuu saamaan, kummankaan suorituskyky ei riitä Cyberpunkille kuitenkaan ilman erilaisia kompromisseja, ihan sama mitä rautaa koneessa on. Peli on kuitenkin ihan yhtä hyvä tai huono riippumatta siitä kumman valmistajan kortilla sitä pelaa, tällä hetkellä NVIDIAlla saa enemmän karkkia päälle mutta niiden karkkien päälle laittaminen taas vaatii tekemään kompromisseja muualla. Kunhan CPDR saa aikaiseksi kytkeä säteenseurannan päälle AMD:llakin saadaan yhtä paljon karkkia päälle, mutta aivan yhtä taatusti käyttäjä joutuu tekemään kompromisseja niilläkin.
1607711197584.png


Toivotaan että tuo tuleva AMD:n DLSS vastike tuohon 2020 luvun AAA pelien huutoon vastaa.

Vastaava Nvidialla on jo toisessa sukupolvessa menossa ja kyllä siellä muutaman bitcoinin edestä on jyllätty vaihtoehtoja parhaan kuvan saavuttamiseen jokaiseen tilanteeseen.

Mutta jäämme odottamaan. Itse en kyllä nykyvalossa uskaltasi suositella AMD:tä Cyberpunkkiin mutta toimituksessa tiedetään näistä paremmin.
 
Itse pelaan peliä ultralla ja 4k, variable rendering min 80% (Radeon 6800). Ei ainakaan vielä ole kaivannut mihinkään muutosta ja hyvin pyörii. Lucys bar on tällä hetkellä menossa ja tuntuu sielläkin pyörivän hyvin. Katsotaan sitten kun tulee joku isompi räiskintä osuus pitääkö tiputtaa variable resoluutiota alemmaksi.
Ja rt oli ultralla?
 
Maksimissa mihin sen saa (eli ei ole julkkarissa tuettuna).
Niin vastasin aiemmassa kommentissani väitteeseen, että nykyraudalla ei riitä tehot pyörittää rt:tä, joka toimii hienosti nvidialla, mutta vähemmän hienosti amd:lla (tai ei vaan toimi Cyberpunkissa vielä). En ottanut kantaa siihen pyöriikö peli yleensä.
 
1607711197584.png


Toivotaan että tuo tuleva AMD:n DLSS vastike tuohon 2020 luvun AAA pelien huutoon vastaa.

Vastaava Nvidialla on jo toisessa sukupolvessa menossa ja kyllä siellä muutaman bitcoinin edestä on jyllätty vaihtoehtoja parhaan kuvan saavuttamiseen jokaiseen tilanteeseen.

Mutta jäämme odottamaan. Itse en kyllä nykyvalossa uskaltasi suositella AMD:tä Cyberpunkkiin mutta toimituksessa tiedetään näistä paremmin.
Tuossa lainauksessa, mistä se ikinä sitten onkaan, on sellainen pieni ongelma että siinä puhutaan ihan mitä sattuu.

AMD ei ole julkaissut mitään DLSS:n kaltaista teknologiaa, se on ihan totta. Sillä on kuitenkin työn alla SuperResolution-teknologia joka on vastaava ja sen kehitystyössä on mukana tiettävästi mm. MS, joka on demonnut omaa superresoluutiotekniikkaansa jo ajat sitten käytännössäkin.

Jos "4K image qualityllä" viitataan 4K-resoluution kaikki karkit päällä, niin siihen ei pysty yhtään mikään näytönohjain. Sillä hetkellä kun DLSS otetaan käyttöön, laskee resoluutio, eikä se vastaa lopullista vaikka paikoin lähelle pääseekin. Ja myös Cyberpunkissa DLSS:ssä on laatuongelmia mm. moirén kanssa.

Jos taas sillä viitataan 4K-resoluutioon ilman RT:tä mutta muuten maksimein, niin siihen pystyy sekä AMD:n että NVIDIAn näytönohjaimet. NVIDIA on toki nopeampi, mutta molemmilla on kaksi näyttistä jotka pääsevät selvästi yli 30 FPS:n ja nolla jotka pääsisivät 60 FPS:ään (tai edes 50 FPS:ään) (esim https://cdn.mos.cms.futurecdn.net/P8puKi6gmoPRWztv9JLWdF.png )

Millä tapaa se peli muuttuu huonommaksi, jos sitä pelaa muulla kuin NVIDIAn grafiikkapiiriä käyttävällä näytönohjaimella?
 
Tuossa lainauksessa, mistä se ikinä sitten onkaan, on sellainen pieni ongelma että siinä puhutaan ihan mitä sattuu.

AMD ei ole julkaissut mitään DLSS:n kaltaista teknologiaa, se on ihan totta. Sillä on kuitenkin työn alla SuperResolution-teknologia joka on vastaava ja sen kehitystyössä on mukana tiettävästi mm. MS, joka on demonnut omaa superresoluutiotekniikkaansa jo ajat sitten käytännössäkin.

Jos "4K image qualityllä" viitataan 4K-resoluution kaikki karkit päällä, niin siihen ei pysty yhtään mikään näytönohjain. Sillä hetkellä kun DLSS otetaan käyttöön, laskee resoluutio, eikä se vastaa lopullista vaikka paikoin lähelle pääseekin. Ja myös Cyberpunkissa DLSS:ssä on laatuongelmia mm. moirén kanssa.

Jos taas sillä viitataan 4K-resoluutioon ilman RT:tä mutta muuten maksimein, niin siihen pystyy sekä AMD:n että NVIDIAn näytönohjaimet. NVIDIA on toki nopeampi, mutta molemmilla on kaksi näyttistä jotka pääsevät selvästi yli 30 FPS:n ja nolla jotka pääsisivät 60 FPS:ään (tai edes 50 FPS:ään) (esim https://cdn.mos.cms.futurecdn.net/P8puKi6gmoPRWztv9JLWdF.png )

Millä tapaa se peli muuttuu huonommaksi, jos sitä pelaa muulla kuin NVIDIAn grafiikkapiiriä käyttävällä näytönohjaimella?

Näin se tilanne näyttää puhtaan rasteroinnin osalta, mutta heti kun otetaaan nämä ns. 'tekoäly / kehittyneet functiot' käyttöön niin vastaavalla suorituskyvyllä / laadulla ollaan AMD:llä 20FPS tai pelikyvytön vs. Nvidian 80-100FPS ja laatu näyttää hyvältä.

Mistä tämä suorituskyky/laatu ero sitten syntyy jos ei sieltä tulevaisuuden tekniikoista / A.I kehityksistä kerta alustat on hyvinkin samanlaisia. AMD voisi mielestäsi vain painaa nappia ja hypätä samaan lopputulokseen kaiken kerrotun jo toteaman mukaan?

Miksi siis ei näin tehdä jos alusta on tasoissa ja eroja ei ole? voiko olla että siellä A.I tasolla voi tehdä jotain muutakin kuin typeriä matriisi laskuja?
 
Tuossa lainauksessa, mistä se ikinä sitten onkaan, on sellainen pieni ongelma että siinä puhutaan ihan mitä sattuu.

AMD ei ole julkaissut mitään DLSS:n kaltaista teknologiaa, se on ihan totta. Sillä on kuitenkin työn alla SuperResolution-teknologia joka on vastaava ja sen kehitystyössä on mukana tiettävästi mm. MS, joka on demonnut omaa superresoluutiotekniikkaansa jo ajat sitten käytännössäkin.

Jos "4K image qualityllä" viitataan 4K-resoluution kaikki karkit päällä, niin siihen ei pysty yhtään mikään näytönohjain. Sillä hetkellä kun DLSS otetaan käyttöön, laskee resoluutio, eikä se vastaa lopullista vaikka paikoin lähelle pääseekin. Ja myös Cyberpunkissa DLSS:ssä on laatuongelmia mm. moirén kanssa.

Jos taas sillä viitataan 4K-resoluutioon ilman RT:tä mutta muuten maksimein, niin siihen pystyy sekä AMD:n että NVIDIAn näytönohjaimet. NVIDIA on toki nopeampi, mutta molemmilla on kaksi näyttistä jotka pääsevät selvästi yli 30 FPS:n ja nolla jotka pääsisivät 60 FPS:ään (tai edes 50 FPS:ään) (esim https://cdn.mos.cms.futurecdn.net/P8puKi6gmoPRWztv9JLWdF.png )

Millä tapaa se peli muuttuu huonommaksi, jos sitä pelaa muulla kuin NVIDIAn grafiikkapiiriä käyttävällä näytönohjaimella?

Perustuiko se ms:n demo nvidian algoritmeihin vai muistanko ihan väärin?
 
Tossa on vuodelta 2018 Microsoftin super-resolution demoa 15 minuutin kohdalla jonka toteutuksessa NVIDIA oli auttanut jollain tasolla.


DirectML-super-sampling.jpg
 
Näin se tilanne näyttää puhtaan rasteroinnin osalta, mutta heti kun otetaaan nämä ns. 'tekoäly / kehittyneet functiot' käyttöön niin vastaavalla suorituskyvyllä / laadulla ollaan AMD:llä 20FPS tai pelikyvytön vs. Nvidian 80-100FPS ja laatu näyttää hyvältä.

Mistä tämä suorituskyky/laatu ero sitten syntyy jos ei sieltä tulevaisuuden tekniikoista / A.I kehityksistä kerta alustat on hyvinkin samanlaisia. AMD voisi mielestäsi vain painaa nappia ja hypätä samaan lopputulokseen kaiken kerrotun jo toteaman mukaan?

Miksi siis ei näin tehdä jos alusta on tasoissa ja eroja ei ole? voiko olla että siellä A.I tasolla voi tehdä jotain muutakin kuin typeriä matriisi laskuja?
Ei pidä paikkaansa. DLSS:n päälle kytkeminen tarkoittaa heti, ettei kuvanlaatu ole vastaavalla tasolla objektiivisesti. Subjektiivisesti kuka tahansa voi olla mitä mieltä tahansa, mutta sitä omaa mielipidettä ei voi yleistää kaikkia koskevaksi.

Joka arkkitehtuurissa on omia vahvuuksiaan ja omia heikkouksiaan. Suorituskykyeroa tulee mm. säteenseurantaraudasta, joka on NVIDIAlla jonkin verran tehokkaampaa, mutta käytännössä peleissä ei puhuta tuollaisista mainitsemistasi eroista samalla resoluutiolla, ei edes lähelle, vaan RX 6800 XT on siellä 2080 Ti / 3070 -maisemissa ja vähän päälle (pari pathtracing poikkeusta erikseen)

Mitä laatueroa mahdat nyt tarkoittaa? Säteenseuranta on keinotekoisesti toistaiseksi kytketty pois päältä AMD:lta, mutta CDPR on kytkemässä senkin käyttöön kunhan ehtivät. Muita laatueroja ei ole, ellet puhu DLSS:stä mihin liittyen kts yllä.

Ei ole mitään ihmeen "A.I.-tasoa". Koko se mistä olet jauhanut tekoälynä pyörii NVIDIAn tensoriyksiköiksi kutsutuissa matriisilaskimissa. Niissä ei ole mitään sen kummempaa erikoista, kuin että ne suorittavat tietyntyyppisiä laskuja nopeammin, kuin geneeriset yksiköt, ja moni tekoälyyn liittyvä lasku soveltuu laskettaviksi niillä nopeasti. AMD on lähestynyt kuluttajaraudassa asiaa toiselta kantilta ja tehnyt yksinkertaisesti samassa käytössä hyödyllisistä INT4- ja INT8-tarkkuuksista erittäin nopeita (8:1 ja 4:1) geneerisissä laskuyksiköissään, palvelinpuolella laskentaraudassa taas NVIDIAa järeämmin matriisilaskimin.

Sulla on nyt niin pahasti terminologia hukassa. Lue vaikka intro tuosta kirjasta:
Se valmiiksi koulutettu neuroverkko on nimenomaan se tekoäly, joka hoitaa kuvan rekonstruktion isommalle resoluutiolle saamansa informaation pohjalta.
Kuten sanoin, aika löyhillä mennään jos yksinkertaista esiopetettua neuroverkon suorittamista kutsutaan tekoälyksi. Sen neuroverkon opetus- ja oppimisprosessi on toki asia ihan erikseen, mutta tuo pyöritettävä neuroverkko ei opi eikä sitä opeteta.
 
Esiopetetun neuroverkon pohjalta tehty skaalaus yhdistettynä TAA:han ei ole "tekoälyä", vaikka miten monta kertaa sitä toistelet.

ps. Täysin samat "tekoäly"laskut voidaan laskea kumman tahansa raudalla. NVIDIA on toki sulkenut DLSS:n vain itselleen, mutta itse tekniikassa ei ole mitään sellaista ettei sitä voisi laskea AMD:nkin raudalla.
pps. Täysin samat säteet voidaan laskea kumman tahansa raudalla. CDPR on toki kytkenyt ne toistaiseksi pois päältä AMD:lta, mutta niissä ei ole mitään sellaista, mitä ei voisi AMD:n korteilla tehdä.


Summalilen kommenteista:

AMD punalasit väittää;
Softalla ei tässä tapauksessa voidaa vaikuttaa asiaan? eli ns. nykymaailmassa softan kehitys on turhaa. Esim. oppiva softa mikä kehittää itseään ei pysty kehittymään 2020 luvulla nopeuttamaan omaa toimintaasa? jopa viemään omat haasteensa suoraan matriisiin ratkaistavaksi? ... tätä matriisia voidaaan rakentaa matriisin päälle vaikka loputtomiin, mutta ollaan vs. 1.0 ns munat padassa ja ei voida hyväksyä että kilpailija on ehkä mennyt tässä 1M astettta pidemmälle. Jopa tätä voidaan viedä maatriisi tasolle? ohooo. ehkä tästä voidaan viedä matriisi matriisi tasolle ja se matriisi x10 tasolle.

Noh ei meikällä riitä tähän aivot mutta itse veisin sen oppivaksi jos riittäisi aivoja. Hauska aihe ja Nvidian mainos tekoälystä on varmasti puppua kun IO-Techistä luin.
 
Kuten sanoin, aika löyhillä mennään jos yksinkertaista esiopetettua neuroverkon suorittamista kutsutaan tekoälyksi. Sen neuroverkon opetus- ja oppimisprosessi on toki asia ihan erikseen, mutta tuo pyöritettävä neuroverkko ei opi eikä sitä opeteta.
Tätä keskustelua kun on pidempään seurannut, niin ketjun kirjoittajilla tuntuu olevan outo käsitys tekoälystä ja mitä se on. Suurimmaksi osaksi viime vuosien öyhötys AI:sta ja tekoälystä on lähinnä huvittavaa. Tekoälyä on ollut kaikessa tekniikassa useita useita vuosikymmeniä käytössä ja se on ollut osa joka päiväistä elämää kuluttajilla. Mikään tietotekniikka ei toimi ilman tekoälyä.. Tekoäly on vanhempi keksintö kuin transistori.

Eri asia täysin on itse oppiva koneäly, mikä taasen on yksi vielä lapsen kengissä oleva osa-alue.
 
Tätä keskustelua kun on pidempään seurannut, niin ketjun kirjoittajilla tuntuu olevan outo käsitys tekoälystä ja mitä se on. Suurimmaksi osaksi viime vuosien öyhötys AI:sta ja tekoälystä on lähinnä huvittavaa. Tekoälyä on ollut kaikessa tekniikassa useita useita vuosikymmeniä käytössä ja se on ollut osa joka päiväistä elämää kuluttajilla. Mikään tietotekniikka ei toimi ilman tekoälyä.. Tekoäly on vanhempi keksintö kuin transistori.

Eri asia täysin on itse oppiva koneäly, mikä taasen on yksi vielä lapsen kengissä oleva osa-alue.
Olet sinänsä täysin oikeassa, mutta tässä nykypäivän kontekstissa ainakin itsellä on ollut se käsitys, että kyky mukautua uuden tiedon pohjalta on yksi perusedellytyksiä tekoälylle (tarkoittaen sitä, mihin tekoälyllä nykypäivänä tyypillisesti viitataan)
 
Olet sinänsä täysin oikeassa, mutta tässä nykypäivän kontekstissa ainakin itsellä on ollut se käsitys, että kyky mukautua uuden tiedon pohjalta on yksi perusedellytyksiä tekoälylle (tarkoittaen sitä, mihin tekoälyllä nykypäivänä tyypillisesti viitataan)
Ajat muuttuu ja toiset muuttuu dinosauruksiksi, mutta onhan tuossa tämän aiheen osalta sanottava, että tuossa NVIDIAn skaalaimessa on perusedellytykset nykypäivän kontekstissa puhua koneoppivasta tekoälystä, se ei vaan opi enää. Jos miettii miten koneoppiminen toimii, niin joku ihminen aina määrittelee ne parametrit millä opetus toimii ohjaten lopputuloksen haluttuun pisteeseen. Sen paremmin tutustumatta DLSS toimintaan tarkemmin, niin siinä on ajettu sisään dataa ja joku on tehnyt määrittelyä taustalla kunnes järjestelmä on alkanut tuottaa haluttuja tuloksia. Sen jälkeen niillä tiedoilla on rakennettu skaalain, joka päättelee tuloksen opetetun tiedon perusteella. Mielestäni väittely asiasta on aika turhaa, ja käytössä tekoäly, joka käyttää koneoppimisen tuottamia tuloksia. Tarkempia faktoja toiminnasta ei taida olla edes tarjolla.

Totta kai siellä vedetään PR täysin yli ja tehdään asiasta jotenkin hohdokasta ja muutoin glorifoidaan asiaa. Se toimii hyvin kun miettii lähtökohtia, toisille se riittää ja toisille ei. Joka tapauksessa tekoälyllä se on toteutettu kuten myös AMD skaalain tulee olemaan, koska muutoinhan se ei voisi edes toimia. AI:lla revittely taasen on kieltämättä aika väsynyttä, mutta näköjään toimii markkinoilla.
 
Vastaiskuna tekoälyttömille voisi tietenkin voisi markkinoida algoritmeja myös ihmisälyllä tehdyiksi :)

Lähinnä varmaan alphago, alphazero ja alpha star voisivat olla lähempänä tekoälyä. Nehän ovat oppineet pelin tyhjästä ja jatkavat oppimista pelaamalla. Mutta ei nekään ole älykkäitä. Osaavat vain yhtä peliä todella hyvin ja oppivat siinä paremmaksi edelleen.
 
On tämä jotenki kurjaa. Viimeiset 20 sivua pelkästään sitä että nvidialla on kuvanhuononnustekniikka joka on täysin turha ja sit kuitenki kilpailijalta on tulossa samanlainen. Jos kerran täysin huono ja huonontaa vain kuvaa niin miksi ihmeessä se maailman paras firma lähtee tuohon mukaan?
Hauska huomata että kun kyse on nvidiasta niin joka toinen kirjoittaja huutelee kuvanhuononnus sanalla, mut sit kun kyse on super resolution kikkareesta niin äänensävy onki että kyseessä on maailmaa mullistava tekniikka
 
On tämä jotenki kurjaa. Viimeiset 20 sivua pelkästään sitä että nvidialla on kuvanhuononnustekniikka joka on täysin turha ja sit kuitenki kilpailijalta on tulossa samanlainen. Jos kerran täysin huono ja huonontaa vain kuvaa niin miksi ihmeessä se maailman paras firma lähtee tuohon mukaan?
Hauska huomata että kun kyse on nvidiasta niin joka toinen kirjoittaja huutelee kuvanhuononnus sanalla, mut sit kun kyse on super resolution kikkareesta niin äänensävy onki että kyseessä on maailmaa mullistava tekniikka
Mikä ihmeen maailman paras firma? Ei maailman paras firma tee yhtä ainutta näyttistä tai muutakaan komponenttia :bored:
Ainakin minä olen sanonut superresoluutiosta että odotan sen olevan ihan samaan tapaan kuvanhuononnustekniikka kuin DLSS:kin.
 
On tämä jotenki kurjaa. Viimeiset 20 sivua pelkästään sitä että nvidialla on kuvanhuononnustekniikka joka on täysin turha ja sit kuitenki kilpailijalta on tulossa samanlainen. Jos kerran täysin huono ja huonontaa vain kuvaa niin miksi ihmeessä se maailman paras firma lähtee tuohon mukaan?
Hauska huomata että kun kyse on nvidiasta niin joka toinen kirjoittaja huutelee kuvanhuononnus sanalla, mut sit kun kyse on super resolution kikkareesta niin äänensävy onki että kyseessä on maailmaa mullistava tekniikka
Lainaa toki jotain tälläistä viestiä.
 
Lainaa toki jotain tälläistä viestiä.
Ei minun tarvitse lainata. Riittää että osaa lukea. Kovin paljon on haukuttu dlss, mut kovin vähän on haukuttu tulevaa super resolutionia.
Tosin joku tuossa sanoikin että olet viimeisen 50 sivun aikana tehnyt itsesi muistettavaksi, ja yhdyn samaan. En ainakaan jatka keskustelua kanssasi
 
Mielestäni DLSS:n dissaajat ei pelaa niitä pelejä vaan tuijottaa yksittäisiä pikseleitä paikallaan, koska niitä ketuttaa joku AMD:n pärjäämättömyys ja ihmiset joiden koneissa AMD:n ajurit ei toimi. (Ja kehtaavat vielä valittaa, justhan ne viime päivityksessä taas korjattiin!!!1111?) Ja silti menis aina joka toinen kuva väärin, jos laittas blind testiin.
 
Asiaton käytös
Pistän tämän @Kaotik henkilölle, viimeiselle AMD puolustajalle universumissa. Kanssatoverit jättivät uppoavaan laivan jo viikkoja aiemmin. (u fuckers)

Edelleen AMD super resoluutio tulee perustumaaan samaan matriisiin ja saamaan samaa hyötyä bitti tasolla, kun vastapelurin A.I oppii ja jatkaa kehitytymistä. jopaa näistä AMD räpellyksistä. 1 vs 1M vaihtoehdon läpikäynti seuraavassa generaatiossa ajaa nykyistä toteutusta oikeaan suuntaan.

AMD puolustajan punalasi näkemys:

Ei ole mitään ihmeen "A.I.-tasoa". Koko se mistä olet jauhanut tekoälynä pyörii NVIDIAn tensoriyksiköiksi kutsutuissa matriisilaskimissa. Niissä ei ole mitään sen kummempaa erikoista, kuin että ne suorittavat tietyntyyppisiä laskuja nopeammin, kuin geneeriset yksiköt, ja moni tekoälyyn liittyvä lasku soveltuu laskettaviksi niillä nopeasti. AMD on lähestynyt kuluttajaraudassa asiaa toiselta kantilta ja tehnyt yksinkertaisesti samassa käytössä hyödyllisistä INT4- ja INT8-tarkkuuksista erittäin nopeita (8:1 ja 4:1) geneerisissä laskuyksiköissään, palvelinpuolella laskentaraudassa taas NVIDIAa järeämmin matriisilaskimin.

Perustele suorituskyky erot tai myönnä että konsepti on monitahoisempi kuin miellät / rasteroinnin kannalta voi katosa. ( A.I is real in 2020? :D)

- tähän lisäisin n. 10l oluen jälkeen että eihän AMD:llä ole mitään edes lähelle tätä toteutusta vastaavaa mihin turvautua. Kaikki merkitsevät henkilöt ovaat sanoneet AMD:n epäonnistuneen julkaisussaan.
 
Ei minun tarvitse lainata. Riittää että osaa lukea. Kovin paljon on haukuttu dlss, mut kovin vähän on haukuttu tulevaa super resolutionia.
Tosin joku tuossa sanoikin että olet viimeisen 50 sivun aikana tehnyt itsesi muistettavaksi, ja yhdyn samaan. En ainakaan jatka keskustelua kanssasi
Vaikea haukkua ennen kuin koko paska on markkinoilla. Olen moneen kertaan DLSS:stä maininkut että tekniikka on hyvä muutamaa teknistä päätöstä lukuunottamatta. Jos AMD:n kikkare saa nuo asiat kohdalleen, niin se on parempi, mutta se voi ihan hyvin olla käyttökelvotonta roskaakin.
 
Asiaton käytös
1607719236926.png



Hienoa meno arvostelijoilta:


Taitaa olla syynä että siinä AMD:ssä ei ole ensimmäisen 8x8 matrixin jälkeen mitään älyä tekemässä seuraaavaa laskentaa? Saatikka niistä ynnäilemään yhtäkään päätöstä laskea 1990 luvun tekoälyn jälkeen kehitettyä toimintaa.

tässä mennään


Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.
 
Niin vastasin aiemmassa kommentissani väitteeseen, että nykyraudalla ei riitä tehot pyörittää rt:tä, joka toimii hienosti nvidialla, mutta vähemmän hienosti amd:lla (tai ei vaan toimi Cyberpunkissa vielä). En ottanut kantaa siihen pyöriikö peli yleensä.

No siis kyllä RT pyörii AMD:lläkin. Ei niin hyvin kuin 3000 sarjalaisilla, mutta pyörii kuitenkin (ei tosin tässä pelissä kun ei säteitä vielä tue). Kaikkea ei tietty voi softalla korjata, mutta väittäisin että optimoinnilla saadaan peleissä ihan hyvin pyörivä RT käyttöön (valitaan sopiva määrä niitä efektejä eli karsitaan osa pois sitten vaikka). Jos nyt vaikka Port Royal testiä katsoo niin kyllä tuo yli 8000 pistettä (6800) kertoo että pelit RT optimoituna pyörii ihan ok (parisataa pinnaa vähemmän kuin 3070).

Tällä hetkellä RT tiputtaa tehoja törkeän paljon kaikilla korteilla. Nvidialla DLSS auttaa jonkin verran tuohon, mutta ainakin tässäkin pelissä kaikki alle quality asetuksen olevat valinnat tekevät pehmeyttä omaan silmään aivan liikaa (vierestä katsoen).
 
Noniin siistitäänpä taas keskustelua. Asioista saa olla vastakkaisia mielipiteitä ja niistä saa keskustella, mutta ei laiteta turhia nollapostauksia, meemejä tai muutakaan provosoivaa, eikä mennä henkilökohtaisuuksiin tai henkilöistä keskusteluun. Siistin nyt tästä jonkin verran pahimpia nollapostauksia pois.
 
Nyt menee yli (kaljun) hilseen nän vanhalla kaulaparrallakin tämä keskustelu.
Nvidian DLSS 2.0 on oikeen toimiva tekniikka niissä harvoissa peleissä missä se on tuettuna.
AMD työstää hiki hatussa omaa, ehkä geneerisempää, vastinettaan sille. Se ei vaadi ennakkoon pelikoodin lataamista omille tietokoneilleen eikä sisällä mitään muutakaan yksinoikeusjippoja. Eli täysin avoin systeemi.
Molemmat, Intteliä ei vielä lasketa mukaan, näytönohjainvalmistajat yrittävät kovasti nyt sitä säteenseurantaa saada toimimaan, mutta ei vielä raaka laskentateho yksinkertaisesti riitä siihen.
Konsolit käyttäny jo iät ja ajat dynaamista resoluutiota ja ylöspäinskaalausta useissa peleissä ja en ole kuullut kenenkään konsolipelaajan valittavan.
AMD:n vastine DLSS:älle tulee kyllä aikanaan, koska molemmat konsolit sillä raudalla ja se luultavasti toimii niissä. Tai sen on pakko toimia jos noilla meinataan pelata "4k"ja RT.
 
Se mikä itseäni Cyberpunkissa kiinnostaa, on että sen tekstuurit ovat suhteessa todella vähän tilaa vieviä. Eli siis liikutaan alle kahdeksassa gigassa reippaasti normisti. En sitten tiedä tuodaanko tähän uusille konsoleille kohdennetun version kohdalla myös parempaa graffaa PC puolelle tarkempien tekstuurien kanssa. Nyt kun näyttömuistin käyttö on tunnuttu optivoidun juuri 8ja10 gigaisille NVIDIAn korteille. Tässä siis ei tietenkään ole mitään vikaa kun RT ei edes ole mahdollista kytkeä päälle AMD:n korteilla ja promomatskuun sopii peilipinnat kuin nenä päähän. Odotan vaan mielenkiinnolla tuleeko peliin myöhemmin tekstuurien osalta päivityksiä (jolloin niitä saatettaisiin lisäillä 16 ja 24 gigaisia kortteja varten).

Avointa DLSS versiota toki toivottaisin tervetulleeksi, koska pelaajalle valinnan mahdollisuus (käyttääkö ja missä määrin) on aina hyvästä.
 
Kuinkahan paljon cp2077 striimaa niitä tekstuureita lennosta? Sehän taitaa olla aika levyriippuvainen ja nvme ssd:ta suositellaan?
 
Ainakin ilmeisesti joissakin ajoneuvosiirtymissä (missä voi vapaasti katsella maisemia) tuo kuulemma joillakin nykii aika turkasen paljon. Asetuksissa oleva slow disk option tai joku muu kuulemma auttaa. Todennäköisesti siis 'nopeaa latausta' hyödynnetään ainakin paikoin jonkin verran.
Itselläni on asennettu nvme levylle niin mitään tuohon viittaavaa ei ole näkynyt.
 
Mielestäni DLSS:n dissaajat ei pelaa niitä pelejä vaan tuijottaa yksittäisiä pikseleitä paikallaan, koska niitä ketuttaa joku AMD:n pärjäämättömyys ja ihmiset joiden koneissa AMD:n ajurit ei toimi. (Ja kehtaavat vielä valittaa, justhan ne viime päivityksessä taas korjattiin!!!1111?) Ja silti menis aina joka toinen kuva väärin, jos laittas blind testiin.

99% tapauksista nämä dlss:n dissaajat eivät edes omista Nvidian näytönohjainta, eli siitä voinee aika suoraan päätellä miten vakavasti kannattaa niiden mielipiteitä ottaa.
 
99% tapauksista nämä dlss:n dissaajat eivät edes omista Nvidian näytönohjainta, eli siitä voinee aika suoraan päätellä miten vakavasti kannattaa niiden mielipiteitä ottaa.
Sillä, omistaako joku NVIDIAn näytönohjaimen vai ei ei ole mitään merkitystä sen kannalta, voiko kommentoida DLSS:ää sekä omien kokemusten että kuva- ja videoesimerkkien kautta. Muutenkin olisi syytä lopettaa tuollainen toisten käyttäjien luotettavuuden maalailu, täällä kuuluu väitellä noista näytönohjaimista teknologioineen sun muineen, ei käyttäjistä.
 
Pistetään tähän ketjuun. Onko joku keksinyt keinoa millä Asuksen GPU Tweakin saa muistamaan asetukset paria boottia pidempään?

Eli asetuksista lähtee itsekseen "Apply settings each time GPU Tweak II starts" asetus pois päältä eikä täten käytä valittua profiilia vaan menee defaultiksi.

Googlella jo vuosien ajan näemmä ollut samaa ongelmaa vähän jokaisessa versiossa.
 
Pistetään tähän ketjuun. Onko joku keksinyt keinoa millä Asuksen GPU Tweakin saa muistamaan asetukset paria boottia pidempään?

Eli asetuksista lähtee itsekseen "Apply settings each time GPU Tweak II starts" asetus pois päältä eikä täten käytä valittua profiilia vaan menee defaultiksi.

Googlella jo vuosien ajan näemmä ollut samaa ongelmaa vähän jokaisessa versiossa.
Onko jokin tietty syy käyttää nimenomaan tuota Asuksen ohjelmaa? Tuntuisi helpoimmalta korvata se jollain toisella, jos kerran liki joka versiossa samaa ongelmaa, jollei ole jotain spesifiä syytä käyttää juuri tuota.
 
99% tapauksista nämä dlss:n dissaajat eivät edes omista Nvidian näytönohjainta, eli siitä voinee aika suoraan päätellä miten vakavasti kannattaa niiden mielipiteitä ottaa.
Eikö sama 99% päde radeondissaajiin?
Tiedän monia nvidian kortin omaavaa jotka eivät dlss:stä pidä tai sitä käytä, poikkeuksena Cp2077, johtuen että ilman se on mahdoton pelattava karkit kaakossa.
Oon sit varmaan prosenttijengiä, 3090 ja vain cp saanut dlss approval
 
Eiköhän se AMD:llä ollut enemmän sitä, että konsolipiirien aikataulu painoi päälle ja jonkinlainen rt piti saada. Kun kiireellä tehdään, niin tulos harvoin on optimaallinen

Juu ja onhan se selvää että nvidia yllätti AMD:n täysin housut kintuissa tuon RT raudan kanssa. Ja kun RDNA arkkitehtuuri oli jo pitkällä kehityksessä niin RDNA1 ei ollut mitään saumaa saada mitään kokattua mukaan. RDNA2 oli siinä vaiheessa että siihen ehdittiin vielä kokkaamaan jonkinlainen tuki.
RDNA3:ssa AMD:llä onkin sitten näytönpaikka ja kovat paineet kun pitäisi saavuttaa nvidian etumatka ja arvioida että miten paljon nvidialta on tulossa parannusta omaan 3rd gen toteutukseen. Se on selvää että AMD:n täytyy vähintään tuplata oma RT suorituskyky RDNA3:ssa.
 
Tämä selittää miksi ainakin mun silmiin "natiivi" cp2077 on suttu liikkeessä ja paikoillaan pysyessä skarppi. Voi valita taa:n tai dlss:n väliltä. Natiivia täyttä resoluutiota pelissä ei ole.

Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.
 
Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.


GN on varsin selkeästi ilmaissut kantansa tuohon nvidian HUB bänniin ja LTT on huomattavasti varovaisempi, aikoo kysellä omalta nvidia kontaktiltaan asiaa.

Onhan taas kunnon paskamyrsky saatu aikaiseksi. :D

Mut joo, ei varmaan nvidia oo ollu kovin mielissään kun HUB yhdessä QA videossa kertoili että on selvästi nähtävissä trendi että nvidia on alkanut panostaa enemmän sosiaalisen median vaikuttajiin, eli näihin hupikanaviin jotka streamaa ja sitten kehuu miten hienoa rautaa ja miten hienoa RT on ja miten upea DLSS on. :P
 
Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.


GN on varsin selkeästi ilmaissut kantansa tuohon nvidian HUB bänniin ja LTT on huomattavasti varovaisempi, aikoo kysellä omalta nvidia kontaktiltaan asiaa.

Onhan taas kunnon paskamyrsky saatu aikaiseksi. :D

Mut joo, ei varmaan nvidia oo ollu kovin mielissään kun HUB yhdessä QA videossa kertoili että on selvästi nähtävissä trendi että nvidia on alkanut panostaa enemmän sosiaalisen median vaikuttajiin, eli näihin hupikanaviin jotka streamaa ja sitten kehuu miten hienoa rautaa ja miten hienoa RT on ja miten upea DLSS on. :p

LTT kyllä juurikin ampuu aika kovilla WAN-showssa tällä hetkellä
 

Uusimmat viestit

Statistiikka

Viestiketjuista
297 556
Viestejä
5 071 700
Jäsenet
81 342
Uusin jäsen
Viitati

Hinta.fi

Back
Ylös Bottom