AMD:n Radeon-johtaja: FidelityFX Super Resolution julkaistaan tämän vuoden aikana

Kaotik

Banhammer
Ylläpidon jäsen
Liittynyt
14.10.2016
Viestejä
22 495
amd-fidelityfx-super-resolution-fsr-20210318.jpg


Kaotik kirjoitti uutisen/artikkelin:
AMD kertoi jo viime vuonna valmistelevansa uutta FidelityFX Super Resolution -skaalausta kilpailemaan NVIDIAn DLSS:n kanssa. Yhtiö ei ole kuitenkaan hiiskunut asiasta sen jälkeen käytännössä yhtään mitään.

Nyt yhtiön Radeon-siiven johtaja Scott Herkelman on kertonut PCWorldin haastattelussa uutta tietoa ominaisuudesta. Herkelmanin mukaan virallisesti SFR-lyhennettä käyttävä ominaisuus on todennäköisesti yhtiön suurin ohjelmistopuolen projekti tällä hetkellä ja että yhtiö uskoo saavansa julkaistua sen tämän vuoden aikana. Valitettavasti sen tarkempaa aikataulua haastattelussa ei herunut.

[embed]

Haastattelun perusteella AMD ei ole vielä lyönyt lukkoon FidelityFX Super Resolutionin skaalausmetodia, vaan se punnitsee edelleen eri metodien hyötyjä ja haittoja keskenään. Herkelmanin mukaan ei ole esimerkiksi itsestään selvää, että se tulisi käyttämään koneoppimista, vaan tärkeintä on löytää toteutus, jota pelinkehittäjät ja pelaajat haluavat käyttää. Hänen viestinnästään on tulkittavissa myös mahdollisuus, että yhtiö mahdollisesti esittelisi useampia vaihtoehtoisia tekniikoita ennakkoon, joista yksi valittaisiin lopulliseksi FSR:ksi. FidelityFX Super Resolutionin on tarkoitus tulla myös konsoleille, mutta tällä hetkellä PC-julkaisu on prioriteettilistalla korkeammalla.

FSR-osuus alkaa PCWorldin haastattelussa ajassa 32 minuuttia ja 42 sekuntia.

Linkki alkuperäiseen juttuun
[/embed]
 
Tuskin tuosta tulee mitään jos eivät koneoppimista käytä
 
Eikö tätä viime vuonna spekuloitu, että olisi jo nyt keväällä ollut tulossa? Mutta jos tosiaan ei ole edes skaalausmetodia vielä valittu niin meneehän tuossa vielä aikaa.
 
Viimeksi muokattu:
Tuskin tuosta tulee mitään jos eivät koneoppimista käytä

Riippuu metodeista. AMD:n teknologiaa käytetään uusissa konsoleissa ja niistä voi ammentaa paljon dataa kaikenlaiseen graafiseen optimointiin myös PC -puolella.
 
Tuskin tuosta tulee mitään jos eivät koneoppimista käytä
:facepalm:
Nopeampi siitä tulee jos keksivät algoritmisen ratkaisun samalle perusmekaniikalle. Noissa koneoppimishäkkyröissä lasketaan usein älyttömiä määriä turhia laskutoimituksia. Koneoppimista käytetään vain kun halutaan nopeasti tuloksia ja osaaminen ei riitä algoritmisen ratkaisun luomiseen.
 
Viimeksi muokattu:
Tuskin tuosta tulee mitään jos eivät koneoppimista käytä
Miksi oletat koneoppimisen olevan jotenkin oleellista tällaisen hyvän toiminnan kanssa?
DLSS:stäkin julkaistiin välissä versio millä ei ollut minkään maailman tekemistä minkään koneoppimisen kanssa (Control / DLSS "1.9" vai mikä se oli) ja laatu oli selvästi parempi kuin aiemman koneoppimiseen pohjanneen. Nykyinen 2.0 on toki taas sitä parempi, mutta mikään ei sano etteikö jokin muu "perinteinen metodi" voisi toimia vielä paremmin.
 
Mikäpä kiire tässä markkinan tilanteessa edes olisi. Pääasia, että tulee hyvänä ulos kuten ryzenit ja uudet näyttiksetkin eikä hutiloiden.
 
Tjoo... kestää sen julkaisunkin jälkeen aika pitkään ennenkuin markkinoilla on ensimmäinen peli, joka tukee tätä amd:n metodia. Vuosi tai pari noihin yleensä menee.
Nvdiallakaan ei julkaisussa ollut kuin kourallinen (raakileita).
Mutta hyvä jos saavat speksit kuntoon tänä vuonna, niin ne päätyvät peli engineering vuodessa tai kahdessa sen jälkeen ja siitä sitten odottelemaan pelejä, jotka käyttävät kyseistä engineä. Asiat vievät aikansa.
 
Tjoo... kestää sen julkaisunkin jälkeen aika pitkään ennenkuin markkinoilla on ensimmäinen peli, joka tukee tätä amd:n metodia. Vuosi tai pari noihin yleensä menee.
Nvdiallakaan ei julkaisussa ollut kuin kourallinen (raakileita).

AMD:n tavoite on käsittääkseni ollut geneerinen toteutus joka ei niin vaatisi pelintekijöiden vaivaa, joskin nuo kommentit kuulostaisi siltä että kuitenkin tulisi per-peli systeemi...

Mutta tosiaan melkoinen pettymys henkilökohtaisesti tämä tilanne. Jos nyt tässä kohtaa kehuskellaan että menee hyvin, melkein jo keksitty miten lähdetään toteuttamaan puolisen vuotta sitten julkistettua tekniikkaa ja julkaisuajankohta on (toisin kuin uutisen otsikko antaa ymmärtää) tasolla "toivottavasti tänä vuonna" niin vähän vaikuttaisi että julkistushetkellä oli käytännössä valmiina ainoastaan päätös että pakko jotain tehdä.

Mutta varmaan se piti PR-mielessä niin tehdäkin.
 
Mutta hyvä jos saavat speksit kuntoon tänä vuonna, niin ne päätyvät peli engineering vuodessa tai kahdessa sen jälkeen ja siitä sitten odottelemaan pelejä, jotka käyttävät kyseistä engineä. Asiat vievät aikansa.
Jos kuuntelet tuon haastattelun niin siinähän juuri sanottiin että pyritään tekemään asia sellaiseksi että se on houkutteleva kaikille. Ei siis mitään pakotettua "Implementoikaa tämä!" settiä vaan oikeasti järkevä ja toteutuskelpoinen ratkaisu. AMD ei ole sellaisessa positiossa että voisi suoltaa vaikeasti implementoitavaa roskaa pakotettuna peleihin. Nvidian alkuperäinen DLSS oli vähän sellainen. Kukaan ei sitä oikein toteuttanut ja ekat ties kuinka monta kk se oli vain nvidian mainoksissa oleva termi ilman yhtäkään toteutusta. AMD ei varmastikaan halua vastaavaa tilannetta että tekniikka olisi, mutta kukaan ei sitä käytä.

Noista eri skaalausmetodeista ja "tekoälystä". Tekoäly/koneoppiminen/yms termit on aika monesti pelkkää höttöä. Moni asia olisi parempi tehdä ihan perus algoritmeilla kuin yrittää antaa koneen keksiä pyörää uudelleen. En siis todellakaan sano etteikö noillekin ole todellisia käyttötarkoituksia, mutta tässä kohtaa voi hyvinkin olla ettei mitään koneoppimista edes tarvittaisi. Tietyissä tilanteissa se toki tuottaa parempaa jälkeä, mutta toisissa tilanteissa se voi mennä reilusti metsään. Toivotaan että AMD saa tehtyä tästä toimivan ja houkuttelevan toteutuksen, sekä portattua sen myös konsoleille.

Nykyinen kehitys näyttää kovasti siltä että porukka haluaa kohta 8K resoluutiolla pelejä, mutta yksikään näyttis ei tule sellaiseen kykyenemään natiivisti vielä pitkään aikaan. Silloin jokin toimiva skaalaus on pakollista. Tulee kyllä olemaan mielenkiintoista nähdä miten tekniikka-arvostelut pystyy nämä kuvan "heikennykset" huomioimaan. Palataan "takaisin" siihen että suorituskykyä parannetaan kuvanlaadun kustannuksella. Toisaalta tällä kertaa valmistajat eivät vain jää kiinni housut kintuissa benchmarkkien huijaamisesta, vaan kyse on ihan kuluttajan kokemuksen parantamisesta. Sitten tullaankin siihen kysymykseen että miten näitä voi verrata keskenään ja miten niitä tulisi arvostella. Osa ei varmastikaan halua mitään skaalauksia, kun taas suurimmalle osalle ne voi olla kaikkein järkevimpiä asetuksia käyttää. Miten verrata kahden eri valmistajan erilaisia skaalauksia? Mitä asioita painottaa ja mitä ei? Missä kohtaa menee "raja" ettei jotain heikennystä voi hyväksyä? Tässä tulee kyllä olemaan vaikea pala tekniikkasivuille ja silloin korostuu kyllä sivujen luotettavuus ja läpinäkyvyys.
 
AMD ei ole sellaisessa positiossa että voisi suoltaa vaikeasti implementoitavaa roskaa pakotettuna peleihin. Nvidian alkuperäinen DLSS oli vähän sellainen. Kukaan ei sitä oikein toteuttanut ja ekat ties kuinka monta kk se oli vain nvidian mainoksissa oleva termi ilman yhtäkään toteutusta. AMD ei varmastikaan halua vastaavaa tilannetta että tekniikka olisi, mutta kukaan ei sitä käytä.

Ottamatta kantaa siihen miten vaikea alkup. DLSS:ää oli integroida (en tiedä), niin kyllä tässä AMD tulee vähän niinkuin valmiiseen pöytään sen jälkeen kun NVIDIA on työskennellyt pari vuotta saadakseen myös teknisesti mutta varsinkin imagollisesti DLSS:n siihen pisteeseen että sitä oikein halutaan, jopa pelaajien keskuudessa.

Varsinkin kun media paukuttaa FSR:ää DLSS:n "vastineena"[1] niin ainut AMD:n huoli on että toteutus toimii tarpeeksi hyvin ja on kohtuullinen implementoida niin ei tarvitse pelintekijöille muuta sanoa kuin että "joo tää on vähän niinko DLSS" ja siellä ollaan jo innoissan implementoimassa. Kontrastina voi kuvitella miten paljon kiinnostusta olisi jos tällä setillä lähestyisi jotain 2kk DLSS:n ensiversion jälkeen.

[1] mikä voi olla totta tai olla yhtä paikkaansapitävää kuin se että DLSS on AA-toteutus. Tai skaalausalgoritmi. Ei kokonaan väärin sanottu muttei ihan sama asiakaan.
 
AMD:n tavoite on käsittääkseni ollut geneerinen toteutus joka ei niin vaatisi pelintekijöiden vaivaa, joskin nuo kommentit kuulostaisi siltä että kuitenkin tulisi per-peli systeemi...


Mitä olen itse lueskellut niin se geneerinen toteutus tarkoitaa sitä, että samaa menetelmää voi käyttää niin mikrosoftin, kuin Sonynkin konsoleissa, erilaisissa pc graffakorteissa, amd, Nvidia, Intel jne...
Eli kaikki pitää ohjelmoida pelikohtaisesti, mutta kyse olisi standardista, joka toimisi kaikilla laitteilla olettaen, että valmistaja vääntää sopivat ajurit tukemaan sitä yleistä geneeristä ”standardia”
Jatkaa amd:n linjaa ajaa läpi yhteisiä kaikkien valmistajien tukemia standardeja.
 
Ottamatta kantaa siihen miten vaikea alkup. DLSS:ää oli integroida (en tiedä), niin kyllä tässä AMD tulee vähän niinkuin valmiiseen pöytään sen jälkeen kun NVIDIA on työskennellyt pari vuotta saadakseen myös teknisesti mutta varsinkin imagollisesti DLSS:n siihen pisteeseen että sitä oikein halutaan, jopa pelaajien keskuudessa.

Varsinkin kun media paukuttaa FSR:ää DLSS:n "vastineena"[1] niin ainut AMD:n huoli on että toteutus toimii tarpeeksi hyvin ja on kohtuullinen implementoida niin ei tarvitse pelintekijöille muuta sanoa kuin että "joo tää on vähän niinko DLSS" ja siellä ollaan jo innoissan implementoimassa. Kontrastina voi kuvitella miten paljon kiinnostusta olisi jos tällä setillä lähestyisi jotain 2kk DLSS:n ensiversion jälkeen.

Pahasti liioiteltua sanoa AMD:n tulevan ''vähän niinkuin valmiiseen pöytään'' Nvidian DLSS:n jälkeen. Nvidia teki tyylilleen uskollisesti DLSS:n suljettuna tekniikkana, joten kyllä AMD joutuu aivan itse kokkaamaan pöydän antimet. Nvidia on pelintekijöille antanut esimakua omastaan, eli korkeintaan antanut AMD:n pöytään yhden servetin. Ja melko sama minkälaisen AMD sieltä aikanaan saa tehtyä, niin tuskin sitä tullaan missään Nvidian sponsoroimissa ''Cyberpunkeissa'' näkemään. Ja voi olla ettei DLSS:ää taas pahemmin nähdä AMD:n sponsoroimissa peleissä myöskään jatkossa. Kuluttajien kannalta nämä erilliset tekniikat ei ole lähelläkään optimaalista.. No se on jo saavutus ettei Nvidian DLSS vaadi näyttöön, hiireen ja pelituoliin erillisiä tensor-moduuleita :zoom:
 
Pahasti liioiteltua sanoa AMD:n tulevan ''vähän niinkuin valmiiseen pöytään'' Nvidian DLSS:n jälkeen.

Puhuin toki puhtaasti siitä miten helppoa on saada devaajat lähtemään mukaan, en varsinaisesta toteutuksesta.

Ja melko sama minkälaisen AMD sieltä aikanaan saa tehtyä, niin tuskin sitä tullaan missään Nvidian sponsoroimissa ''Cyberpunkeissa'' näkemään.
Ja voi olla ettei DLSS:ää taas pahemmin nähdä AMD:n sponsoroimissa peleissä myöskään jatkossa.

Cyberpunkissa tosin on jo FidelityFX CAS mukana, ja FSR:hän tulee olemaan geneerinen ja helppo lisättävä siihen rinnalle jos AMD tekee hommansa oikein.

Jos sponssaavat UE4 pelejä jatkossa niin mahdollisuus on melko suuri kun siellä tuki on ihan enginessä jo mukana. Mutta en tiedä miten AMD sponssinsa valikoi.

Jotenkin tuntuu että kuvitellaan sponssauksen olevan jotain sanelupolitiikkaa käytettyjen tekniikoiden suhteen, en oikein usko että se ihan niin menee.
 
Haastattelun perusteella AMD ei ole vielä lyönyt lukkoon FidelityFX Super Resolutionin skaalausmetodia, vaan se punnitsee edelleen eri metodien hyötyjä ja haittoja keskenään. Herkelmanin mukaan ei ole esimerkiksi itsestään selvää, että se tulisi käyttämään koneoppimista, vaan tärkeintä on löytää toteutus, jota pelinkehittäjät ja pelaajat haluavat käyttää. Hänen viestinnästään on tulkittavissa myös mahdollisuus, että yhtiö mahdollisesti esittelisi useampia vaihtoehtoisia tekniikoita ennakkoon, joista yksi valittaisiin lopulliseksi FSR:ksi. FidelityFX Super Resolutionin on tarkoitus tulla myös konsoleille, mutta tällä hetkellä PC-julkaisu on prioriteettilistalla korkeammalla.

Koneoppimispohjaisen ratkaisun huonopuoli on se, että sellainen suurella todennäköisyydellä vaatii pelikohtaisia optimointeja ja virityksiä, sekä erikoisinsinööri osaamista, jota ei välttämättä jokaisesta pelistudiosta löydy. Jos AMD lähtee tälle linjalle AMD on iso riski sille, että heidän ratkaisuaan ei käytetä, koska AMD ei voi luottaa siihen, että iso markkinaosuus takaa sen, että omaa ratkaisua tuetaan aina kuten NVIDIA voi.

Tästä syystä AMD on iso houkutus tehdä joku ei koneoppimispohjainen ratkaisu, joka on helppo lisätä peliin ja joka tarjoaa riittävän hyvää laatua. (olettaisin, että tästä syystä harkitsevat pitkään)
 
koska AMD ei voi luottaa siihen, että iso markkinaosuus takaa sen, että omaa ratkaisua tuetaan aina kuten NVIDIA voi.
Amd:n vehkeitä myydään kyllä taatusti enemmän pelaamiseen, jos muistaa ottaa konsolit mukaan laskuihin. Nintendo switch taas ei sisällä tensoreita ja ei siksi ole alusta joka voisi dlss:stä nykymuodossaan hyötyä. Jos amd:n tavoitteena on saada tuo defacto skaalausmenetelmäksi konsoleille, niin se tarkoittaa että dlss on aina se menetelmä joka vaatisi ylimääräistä työtä kehittäjiltä.

Tästä syystä AMD on iso houkutus tehdä joku ei koneoppimispohjainen ratkaisu, joka on helppo lisätä peliin ja joka tarjoaa riittävän hyvää laatua. (olettaisin, että tästä syystä harkitsevat pitkään)
Koneoppimisen välttäminen on myös nopeus ja resurssinäkökulmasta parempi vaihtoehto. Ainoa ongelma on algoritmisen ratkaisun potentiaalinen monimutkaisuus, muuten se on teoriassa aina parempi.
 
Koneoppimisen välttäminen on myös nopeus ja resurssinäkökulmasta parempi vaihtoehto. Ainoa ongelma on algoritmisen ratkaisun potentiaalinen monimutkaisuus, muuten se on teoriassa aina parempi.
Näiden kanssa töitä tekevä kaveri epäili että algoritminen ratkaisu vaatisi pelikohtaista optimointia ihan merkittävästi enemmän kuin DLSS 2.0
 
Näiden kanssa töitä tekevä kaveri epäili että algoritminen ratkaisu vaatisi pelikohtaista optimointia ihan merkittävästi enemmän kuin DLSS 2.0
Dlss 2.0 ei vaadi pelikohtaista optimointia. Jos ideana on tehdä samanlainen viritetty resoluutioagnostinen TAA kuin mitä DLSS on, niin ei se vaadi sen enempää virityksiä pelimoottoriin kuin muutkaan resoluutioagnostiset TAA toteutukset.
 
Dlss 2.0 ei vaadi pelikohtaista optimointia. Jos ideana on tehdä samanlainen viritetty resoluutioagnostinen TAA kuin mitä DLSS on, niin ei se vaadi sen enempää virityksiä pelimoottoriin kuin muutkaan resoluutioagnostiset TAA toteutukset.
Kyllä se vain vaatii. Vai huvikseenko nvidia kehitti esimerkiksi Unreal engineen DLSS plugarin.
 
Kyllä se vain vaatii. Vai huvikseenko nvidia kehitti esimerkiksi Unreal engineen DLSS plugarin.
Se sama dlss plugari sopii kaikkiin ue4 peleihin, eikä siis vaadi pelikohtaisia optimointeja. Dlss pitää toki implementoida peliin, mutta ei sitä varsinaista dlss algoritmia optimoida pelikohtaisesti.

Pyydä ihmeessä kaveriltasi tarkempi selitys siitä että miksi algoritminen toteutus vaatisi enemmän pelikohtaista virittämistä. Kiinnostaisi tietää että missä kohtaa asian ymmärrystä mulla on ns. kuollut kulma.

Edit: dlss2.0:ssa koneoppimista käytetään vain taa näytteiden painottamiseen ja en ymmärrä että miksi tuon komponentin vaihtaminen algoritmiseen toteutukseen muuttaisi pelikohtaisen virittämisen tarvetta. Amd voi toki ottaa jonkun ihan toisenkin lähestymistavan ongelmaan kuin mitä nvidia, mutta siinä tapauksessa etenkin on mahdotonta arvioida nykytiedon valossa että onko kyseinen toteutus helpompi vai vaikeampi virittää pelikohtaisesti.
 
Viimeksi muokattu:
Kyllä se vain vaatii. Vai huvikseenko nvidia kehitti esimerkiksi Unreal engineen DLSS plugarin.

DLSS vaatii että sille syötetään "mustaan laatikkoon" enginetasolla tietoa, mutta ei (enää) että se "musta laatikko" olisi opetettu pelikohtaisesti käyttämään sitä tietoa.

Puheista päätellen AMD:n ratkaisu tullee vaatimaan saman verran pelikohtaisuutta, eli että pelin tekijä käyttää AMD:n tarjoamaa SDK:ta. Alkuperäiset puheet vaikutti vähän geneerisemmiltä mutta tämä käy kyllä enemmän järkeen.
 
Se sama dlss plugari sopii kaikkiin ue4 peleihin, eikä siis vaadi pelikohtaisia optimointeja. Dlss pitää toki implementoida peliin, mutta ei sitä varsinaista dlss algoritmia optimoida pelikohtaisesti.

Pyydä ihmeessä kaveriltasi tarkempi selitys siitä että miksi algoritminen toteutus vaatisi enemmän pelikohtaista virittämistä. Kiinnostaisi tietää että missä kohtaa asian ymmärrystä mulla on ns. kuollut kulma.

Edit: dlss2.0:ssa koneoppimista käytetään vain taa näytteiden painottamiseen ja en ymmärrä että miksi tuon komponentin vaihtaminen algoritmiseen toteutukseen muuttaisi pelikohtaisen virittämisen tarvetta. Amd voi toki ottaa jonkun ihan toisenkin lähestymistavan ongelmaan kuin mitä nvidia, mutta siinä tapauksessa etenkin on mahdotonta arvioida nykytiedon valossa että onko kyseinen toteutus helpompi vai vaikeampi virittää pelikohtaisesti.
AI-ratkaisu osaa muovautua itse erikoistilanteisiin, kun algoritmiratkaisuun täytyisi periaatteessa kovakoodata jokainen kuviteltavissa oleva erikoistilanne erikseen. Molemmissa on omat puolensa toki, mutta mitä monimutkaisemmaksi ruudun sisältö ja muutokset menevät, niin sitä monimutkaisemmaksi algoritmien vääntäminen muuttuu.
AI-ratkaisu taas selviää aikalailla samalla vaivalla kaikista tilanteista kehittäjän näkökulmasta.

Tokihan joku supersimppeli skaalausalgo on yksinkertaisin, mutta siitähän tässä nyt ei ole kyse.
 
AI-ratkaisu osaa muovautua itse erikoistilanteisiin
Miten se tekee sen muovautumisen? Selitä vaikka vapaasti muutamalla lauseella, teknisestä termistöstä plussaa. Dlss2.0 ei opi mitään sitä mukaa kun sitä käytetään, vaan on staattinen fixed function komponentti. Edit: lisäksi se on todella huono selviytymään esimerkiksi sellaisista ”erikoistilanteista” joissa jokin ruudulle piirrettävä pikseli ei omaa liikevektoria.

algoritmiratkaisuun täytyisi periaatteessa kovakoodata jokainen kuviteltavissa oleva erikoistilanne erikseen.
Mitä tarkoitat tässä yhteydessä erikoistilanteilla? Anna joku esimerkki.
 
Miten se tekee sen muovautumisen? Selitä vaikka vapaasti muutamalla lauseella, teknisestä termistöstä plussaa. Dlss2.0 ei opi mitään sitä mukaa kun sitä käytetään, vaan on staattinen fixed function komponentti.
Se on opetettu etukäteen, elikkäs on jo oppinut muovautumaan erikoistilanteisiin. Miksi tämä vaatisi enää ajonaikaista lisäopettelua..?
Koitappa itse koodata perässä vastaus joka ikiseen tilanteeseen, kun taas takaisinkytketty neuroverkko osaa tehdä sen ihan itsekin.

Mitä tarkoitat tässä yhteydessä erikoistilanteilla? Anna joku esimerkki.
Oikeastaan mitä tahansa vaikeasti ennustettavia muutoksia ruudulla, joita pelitilanteet on luonnollisestikkin täynnä.
 
Oikeastaan mitä tahansa vaikeasti ennustettavia muutoksia ruudulla, joita pelitilanteet on luonnollisestikkin täynnä.
Dlss ei ennusta tulevia tapahtumia, miksi amd:n ratkaisun pitäisi tuo osata? Se reagoi tapahtuneisiin muutoksiin, joka on ihan eri asia.

Se on opetettu etukäteen, elikkäs on jo oppinut muovautumaan erikoistilanteisiin. Miksi tämä vaatisi enää ajonaikaista lisäopettelua..?
Koitappa itse koodata perässä vastaus joka ikiseen tilanteeseen, kun taas takaisinkytketty neuroverkko osaa tehdä sen ihan itsekin.
Niitä tilanteita on luultavasti vaan joku kourallinen (esim. ensimmäinen ruutu tai muut tilanteet jossa mitään liikevektoridataa ei voiea hyödyntää, tai sit jos kappaleen väri muuttuu nopeasti ruutujen välillä), loppu onnistuu geneerisellä ratkaisulla. Anna joku spesifi esimerkki liittyen noiden pistenäytteiden painotusten määrittämiseen, joka sinusta vaatii erityisiä erikoiskäsittelyitä, niin päästään samalle sivulle siitä että mitkä on mielestäsi niitä erikoiskohtelua vaativia tilanteita.
 
Ylempiin viitaten AI:ta ei ole vielä olemassa, on vain ML eli machine learningia, joka on eri asia.
 
Dlss ei ennusta tulevia tapahtumia, miksi amd:n ratkaisun pitäisi tuo osata? Se reagoi tapahtuneisiin muutoksiin, joka on ihan eri asia.
Missään kohtaa en väittänytkään dlss:n ennustavan yhtään mitään. Se nimenomaan on helpompi ja nopeampi opettaa reagoimaan vaikeasti ennustettaviin tilanteisiin, kuin yrittää ohjelmoida algoritmi, joka pystyisi samaan. Tässä nyt erittäin vahva painotus sanoilla helpompi ja nopeampi.
Neuroverkko ikäänkuin "tietää" tai ainakin "luulee tietävänsä", miltä kuvan tulisi luultavasti näyttää.

Niitä tilanteita on luultavasti vaan joku kourallinen (esim. ensimmäinen ruutu tai muut tilanteet jossa mitään liikevektoridataa ei voiea hyödyntää, tai sit jos kappaleen väri muuttuu nopeasti ruutujen välillä), loppu onnistuu geneerisellä ratkaisulla. Anna joku spesifi esimerkki liittyen noiden pistenäytteiden painotusten määrittämiseen, joka sinusta vaatii erityisiä erikoiskäsittelyitä, niin päästään samalle sivulle siitä että mitkä on mielestäsi niitä erikoiskohtelua vaativia tilanteita.
Mitä dynaamisempi skene, sitä epävakaampaa se temporaalinen informaatio on. Mitä epävakaampaa se temporaalinen informaatio on, sitä vaikeampi on algoritmilla lähteä laskeskelemaan, minkä värinen pikseli tähän nyt kuuluisi laittaa. (Tai no helppohan se on laskeskella kaikkea, mutta niin että lopputulos olisi myös tyydyttävä)
Tiedossa on pelkästään kameran liike ja näkyvillä olevat pisteet. Tästä syystä liikevektorin voi heittää roskiin toisessa ruudussa piiloon menneen pisteen kanssa eikä edellisen ruudun pistettä ei voi muutenkaan vaan käyttää suoraan, koska valaistus vaihtuu jne.
Tässä kohtaa tulee se tarve niille poppakonsteille, olkoonkin ne sitten jotain supernerokkaita algoritmeja tai neuroverkkototeutuksia.

Jos jollekin itse neuroverkkojen toiminta on epäselvää ja/tai muuten vaan joku haluaa asiaan tutustua paremmin, niin tässä sarjassa on mielestäni oikein hyvin avattu koko asia.
 
Se nimenomaan on helpompi ja nopeampi opettaa reagoimaan vaikeasti ennustettaviin tilanteisiin, kuin yrittää ohjelmoida algoritmi, joka pystyisi samaan. Tässä nyt erittäin vahva painotus sanoilla helpompi ja nopeampi.
Neuroverkko ikäänkuin "tietää" tai ainakin "luulee tietävänsä", miltä kuvan tulisi luultavasti näyttää.
Helpompi joo, se on totta ja en oo ikinä muuta sanonutkaan. Ongelma on vaan siinä että lopputulos on laskennallisesti hidas, arvaamaton ja vaikeasti muunnettavissa paremmaksi. Algoritminen ratkaisu on aina parempi jos sellainen on löydettävissä, sen lisäksi että siinä on mahdollista ottaa paremmin erilaiset erikoistilanteet paremmin huomioon (esim. ne liikevektorittomat spritet).

Mitä dynaamisempi skene, sitä epävakaampaa se temporaalinen informaatio on. Mitä epävakaampaa se temporaalinen informaatio on, sitä vaikeampi on algoritmilla lähteä laskeskelemaan, minkä värinen pikseli tähän nyt kuuluisi laittaa. (Tai no helppohan se on laskeskella kaikkea, mutta niin että lopputulos olisi myös tyydyttävä)
Tiedossa on pelkästään kameran liike ja näkyvillä olevat pisteet. Tästä syystä liikevektorin voi heittää roskiin toisessa ruudussa piiloon menneen pisteen kanssa eikä edellisen ruudun pistettä ei voi muutenkaan vaan käyttää suoraan, koska valaistus vaihtuu jne.
Tässä kohtaa tulee se tarve niille poppakonsteille, olkoonkin ne sitten jotain supernerokkaita algoritmeja tai neuroverkkototeutuksia.
Perus TAA on kyllä erikoistilanteissa robustimpi kuin DLSS, sen ongelmana on vaan ollut keskinkertaiset pistenäytteiden painotusalgoritmit monissa toteutuksissa (johtaa shimmeröintiin), sen lisäksi että eivät ole olleet resoluutioagnostisia. Poppakonstit siis dlss:n tapauksessa on antanut paremman perustilanteiden kuvanlaadun ja nimenomaan heikomman suoriutumisen erikoistilanteissa, toisin kuin esität.

Ja olen kyllä ihan riittävän perillä ML tekniikoista yleisellä tasolla.
 
Viimeksi muokattu:
Helpompi joo, se on totta ja en oo ikinä muuta sanonutkaan. Ongelma on vaan siinä että lopputulos on laskennallisesti hidas, arvaamaton ja vaikeasti muunnettavissa paremmaksi. Algoritminen ratkaisu on aina parempi jos sellainen on löydettävissä, sen lisäksi että siinä on mahdollista ottaa paremmin erilaiset erikoistilanteet paremmin huomioon (esim. ne liikevektorittomat spritet).
Sitäpä juuri, että sen algoritmisen ratkaisun löytäminen voi olla hyvinkin vaikeaa. Toki moisen löytyessä sehän on tietenkin parempi.
Rautatensoreilla vääntäessä tosin tuo neuroverkon tekemä työ vie aina tismalleen yhtä monta kellojaksoa lopputuloksesta riippumatta, joten sen suhteen sen vaikutus suorituskykyyn on ainakin helposti ennustettavissa.

Perus TAA on kyllä erikoistilanteissa robustimpi kuin DLSS, sen ongelmana on vaan ollut keskinkertaiset pistenäytteiden painotusalgoritmit monissa toteutuksissa, sen lisäksi että eivät ole olleet resoluutioagnostisia. Poppakonstit siis dlss:n tapauksessa on antanut paremman perustilanteiden kuvanlaadun ja nimenomaan heikomman suoriutumisen erikoistilanteissa, toisin kuin esität.
Yritän tässä kaiketi sanoa, että uskon neuroverkkoratkaisuissa olevan loppujen lopuksi enemmän potentiaalia ja erityisesti kehittäjien työtaakan vähentämisessä. Asiastahan voi ja saa olla toistakin mieltä.


Ja olen kyllä ihan riittävän perillä ML tekniikoista yleisellä tasolla.
Ottanet nyt jotenkin henkilökohtaisesti tämän. Kyllä tuokin oli tarkoitettu yleisesti kaikille.
 
Yritän tässä kaiketi sanoa, että uskon neuroverkkoratkaisuissa olevan loppujen lopuksi enemmän potentiaalia ja erityisesti kehittäjien työtaakan vähentämisessä. Asiastahan voi ja saa olla toistakin mieltä.
Se vaan ei tällä hetkellä oikein näy, etenkään niissä sun erikoistilanteiden hallinnassa. Stillikuvista saa kyllä ihan kivan näköisiä ja niissä on selvästi keskinkertaista TAA toteutusta edellä, mutta tuo on myös se osuus joka on helpointa ratkaista algoritmisesti.

Kehittäjien työtaakkaa jos haluaa vähentää, niin järkevintä olis että nvidia ja amd käyttäisivät yhdessä resursseja yhteiseen ratkaisuun. On ihan älytöntä keksiä samaa pyörää kahdesti vaikka lähestymistavat onkin oletettavasti hieman erilaiset.
 
Se vaan ei tällä hetkellä oikein näy, etenkään niissä sun erikoistilanteiden hallinnassa. Stillikuvista saa kyllä ihan kivan näköisiä ja niissä on selvästi keskinkertaista TAA toteutusta edellä, mutta tuo on myös se osuus joka on helpointa ratkaista algoritmisesti.

Kehittäjien työtaakkaa jos haluaa vähentää, niin järkevintä olis että nvidia ja amd käyttäisivät yhdessä resursseja yhteiseen ratkaisuun. On ihan älytöntä keksiä samaa pyörää kahdesti vaikka lähestymistavat onkin oletettavasti hieman erilaiset.
Juu, Itse en ole tässä todellakaan minkään muun leirin puolella, kuin neuroverkkojen mahdollisen potentiaalin. Toteuttajalla ei ole väliä ja mieluiten loppujen lopuksi juurikin joku avoin ratkaisu.
 

Statistiikka

Viestiketjuista
258 693
Viestejä
4 496 103
Jäsenet
74 271
Uusin jäsen
Esa.

Hinta.fi

Back
Ylös Bottom