Follow along with the video below to see how to install our site as a web app on your home screen.
Huomio: This feature may not be available in some browsers.
Anti-Lag julkaistiin vuosi ennen Reflexiä.
RX nimeäminen otettiin käyttöön ennen RTX:ää.
Missä kohtaa AMD T:tä käyttää?
Ei tällaiseen FPS:n tuplaamiseen käytännössä ole muita teitä, vai millä muulla kuin uusista ruuduista ajattelit sen tulevan?
Vähintään yhtä paljon tulee lisää. Luultavasti vähän enemmän vielä (ms tai pari). Mielenkiintoista että kiinnostaako tuo viimeinen ms nyt yht’älkiä kaikkia ihan hirveän paljon.Tästä puhuttaessa on nyt mielenkiintoista nähdä, että kun on kritisoitu DLSS 3:n lisääntyneestä latenssista, niin kuinka paljon tuleekaan latenssia AMD:n FSR 3:sta
XT on ollut AMDlla (tai ATi:lla jo siis ekat) käytössä vaihtelevasti vuodesta 2003 (9600 XT, 9800 XT) ja XTX vuodesta 2006 (X1900 XTX).Alkaen 5000-sarjasta, on tullut nämä XT tai XTX nimeämiskäytännöt, jolloin äkki vilkaisulla sulla nimestä löytyy tuo sama R, T ja X kirjaimet, mutta tämä on tietenkin lillukan varsia.
Ja korjaan tuohon, että Anti-Lag taisi tulla tosiaan aikaisemmin, tosin vain 2kk ja toisin sanoen näitä kehitettiin rinnakkain. Todennäköistä voi tosin olla, että Nvidialta tuli vuoto tästä ja AMD kiirellä sitten kyhäsi kasaan heikon kopion.
Nvidia's Reflex Technology Beats AMD's Radeon Boost Counterpart: Report
Tästä puhuttaessa on nyt mielenkiintoista nähdä, että kun on kritisoitu DLSS 3:n lisääntyneestä latenssista, niin kuinka paljon tuleekaan latenssia AMD:n FSR 3:sta, koska näyttäisi siltä että se lisää uusia ruutuja vielä aggressivisemmin kuin DLSS 3. Ja tässä ei tietenkään auta se, että Anti-Lag on heikompi kuin Reflex.
Tässä sekä dlss3 fg:ssä joka toinen ruutu on ”lisätty”. Yhtään vähempää tai enempää olisi todella haastava toteuttaa monestakin syystä.jolloin epäilen että saadakseen mahdollisimman suuren FPS parannuksen, ruutuja lisätään enemmän
Tässä sekä dlss3 fg:ssä joka toinen ruutu on ”lisätty”. Yhtään vähempää tai enempää olisi todella haastava toteuttaa monestakin syystä.
Tässä sekä dlss3 fg:ssä joka toinen ruutu on ”lisätty”. Yhtään vähempää tai enempää olisi todella haastava toteuttaa monestakin syystä.
Nimenomaan. Ihan hemmetin haastava tehdä mitenkään toisin. Siis siten että kukaan sitä haluaisi käyttää.Kamalaltahan se toki näyttäisi
Tämä on onneksi avointa lähdekoodia ja tuon voinee suht helposti joku kokeilla jos haluaa. Mutta juu, artefaktit korostuu kun ne on ruudulla valtaosan ajasta. Lisäksi input lagiahan toi ei ratkaise millään tapaa, ja vaikka 40->120 muunnoksen jälkeen input lag on luokkaa natiivi 30fps. Sit noiden freimien generoimiseenkin menee resursseja, tarkoittaen että jos ei olla prossurajotteisessa tilassa, niin se pohja-fps laskee mitä enemmän lisäframeja kehitetään.Varmasti oli tässä keväällä joku vuoto, missä väitettiin, että FSR3 voisi generoida jopa 3 tai 4 feikkiruutua per oikea ruutu.
Vaikea kyllä uskoa, että se voisi kuvanlaadullisesti näyttää hyvälle.
Tässä sekä dlss3 fg:ssä joka toinen ruutu on ”lisätty”. Yhtään vähempää tai enempää olisi todella haastava toteuttaa monestakin syystä.
Anti-Lag+ vaatii RDNA3:n, Anti-Lag toimii muilla RadeoneillaKiinnostaa myös vähän onko Anti-lag+ erikseen optimoitu AMDn näyttiksille (esim. niille recommended näyttiksille) tätä framen generointia varten että saadaan latenssia pienennettyä. Jos pitäisi veikata niin kunhan saadaan tekniikka ulos niin optimoinnissa on vielä reippaasti tekemistä. Jos ei muuta niin async-computesta johtuen riippuen pelistä (joka käyttää graffakortin resurssit tappiin asti) saattaa olla hyödyt vaihtelevia.
Mutta yhtälailla eipä se toimivuus parane ennen kuin toiminto saadaan ulos ja pelaajien käytettäväksi.
Niin siis eikös tuo Anti-Lag ole ihan sama kun "esirenderöityjen framejen minimointi "joka on ollut tekniikkana mahdollista säätää käsin jo 2000-luvun alusta niin Nvidian kuin ATI:n kohdalla.
Jossain vaiheessa se estettiin olemasta "0" varsinkin nvidian korteilla, kun aiheutti performanssiongelmia. Silloin se kortista viriteltiin "1" asentoon että pumpum peleissä osui paremmin, siitä default 3 framen arvosta. Nvidian ajureihin sitten "0" asento tuli takaisin "Ultra" valintana ihan ajureista käsin ja tuo Reflex on ymmärtääkseni vain renderöintioptimointeja, että tuohon 0 esierenderöintiin frameen päästään mahdollisimman usein.
Jokainen Esports pelejä tosissaan pelaava tietää ettei Reflex tai Antilag tuo mitään eroa viiveeseen käytännössä, jos GPU:n rasitusta ei vedetä lähelle maksimia. Eikä ammattilaispelaajat pelaa 4k ultra detaileilla mitään pelejä. Nvidiahan on overheadin kanssa näissä tapauksissa yleensä ollut altavastaaja inputlagin puolesta vrt. Radeoneihin.
Semmonenkin ongelma syntyy, että kaikki liike tulee kestämään vähintään sen 3 tai 4 ruutua. Tuo liike tulee lisäksi olemaan aina lineaarista. Korostettuna esimerkkinä jos vaikka kymmenkertaistaisi ruutujen määrän 6fps->60fps, niin hiiri liikkuisi aina lineaarisesti johonkin suuntaan, vaihtaen tätä suuntaa kuusi kertaa sekunnissa. Vain yhdenkin väliruudun lisäämällä tämä efekti toki on siellä pohjalla, mutta ilmeisesti ei tule silmin havaittua.3 tai 4 todennäköisesti ei ole realismia laadun ja input lagin vuoksi.
Anti-Lag+ vaatii RDNA3:n, Anti-Lag toimii muilla Radeoneilla
Semmonenkin ongelma syntyy, että kaikki liike tulee kestämään vähintään sen 3 tai 4 ruutua. Tuo liike tulee lisäksi olemaan aina lineaarista. Korostettuna esimerkkinä jos vaikka kymmenkertaistaisi ruutujen määrän 6fps->60fps, niin hiiri liikkuisi aina lineaarisesti johonkin suuntaan, vaihtaen tätä suuntaa kuusi kertaa sekunnissa. Vain yhdenkin väliruudun lisäämällä tämä efekti toki on siellä pohjalla, mutta ilmeisesti ei tule silmin havaittua.
Nimenomaan, ei kaikilla ole varaa tonnin näytönohjaimiin jotka pyörittää kaikkea natiivisti kaikilla herkuilla (yksinpelit henkoht yritän pelata niin näyttävinä kuin gpu pystyy). Etenkin heikommat näyttikset voi saada mukavaa apua näistä uusista tekniikoista. Hyvä että valmistajat innovoi koko ajan uusia juttuja, itse näen sen pelkästään positiivisena ja mielenkiintoisena kehityksenä. Ja jos esimerkiksi AI:sta ei otettaisi irti ideoita pelaamisen parantamiseen, siitäkin nousisi poru että missä viipyy tekniikat siihen pohjautuen. Ja joku sen tekniikan kuitenkin sitten aina hyödykseen käyttää, kun pelikokemuksista ja sen ympärillä olevasta tienausmahdollisuuksista kilpaillaan. Näin tekee sekä Intel, Amd että Radeon ja hyvä niin sillä keskinäinen kilpailu hyödyttää kuluttajaa viime kädessä."Aivan turhia" vaikka kukaan ei ole vielä vanhemmilla korteilla edes testannut? Aivan varmasti FSR 3 tulee olemaan hyödyllinen joissain tilanteissa myös vanhemmilla näytönohjaimilla. Omituista, että nämä ominaisudet tunnutaan näkevän asenteellisuudesta johtuen negatiivisina, vaikka niiden on tarkoitus auttaa pelaajia saavuttamaan parempi pelikokemus.
Objektiivisesti tarkasteltuna plussat ja miinukset summataan, jonka jälkeen voidaan tehdä johtopäätös suuntaan tai toiseen, eikä niin että on jo etukäteen tyrmätty ilman käytännön kokeilua omiin ennakkoasteisiin pohjautuen näkemättä metsää puilta ja fanipojat sitten erikseen tähän päälle.
AMD on tosiaan sanonut, että ko. ominaisuus toimii parhaiten kun lähtöfps lukema on se 60 tai yli. Saa nyt sitten nähdä millaista se jälki on milläkin FPS lukemalla.
Sinänsä tätä helposti varmaan verrataan dlls framegeniin ja jos on heikompi niin sanotaan että toiminta on ihan kuraa. Vähän kuin RT tapauksessa muistetaan mainita kuinka AMD:lla RT suorituskyky on kuraa vaikka se kykeneekin sopivalla kortilla siihen 3090ti tehoon ko. efektien kohdalla.
EI se varmaan kuluttajalta ole pois jos RT suorituskyky edistyy kortilla kuin kortilla ja softaratkaisuja tehonlisäykseen saadaan muillekin kuin yhden valmistajan uusimmalle generaatiolle ja vieläpä antaen tukea vähän vanhemmillekin korteille. Kytkee päälle tai pois sitten oman maun mukaan.
No voi ny vihta. Ja Nvidia kopio sen Samsungilta ja Sonylta...Tästä jäi nyt ristiriitaiset tunteet. Hyvä, että saivat markkinoille. Huono, että kopioivat suoraan Nvidialta.
"Aivan turhia" vaikka kukaan ei ole vielä vanhemmilla korteilla edes testannut? Aivan varmasti FSR 3 tulee olemaan hyödyllinen joissain tilanteissa myös vanhemmilla näytönohjaimilla. Omituista, että nämä ominaisuudet tunnutaan näkevän asenteellisuudesta johtuen negatiivisina, vaikka niiden on tarkoitus auttaa pelaajia saavuttamaan parempi pelikokemus.
Objektiivisesti tarkasteltuna plussat ja miinukset summataan, jonka jälkeen voidaan tehdä johtopäätös suuntaan tai toiseen, eikä niin että on jo etukäteen tyrmätty ilman käytännön kokeilua omiin ennakkoasteisiin pohjautuen näkemättä metsää puilta ja fanipojat sitten erikseen tähän päälle.
Silti suttaavat vähemmän kuin mikään laajalti käytetty muu TAA menetelmä yli viiden vuoden takaa.Ja olihan kaikista hehkutuksista huolimatta FSR, DLSS ja XeSSikin täyttä roskaa kaikilla matalemmilla resoilla kuin 4K:lla. Kun matalemmilla resoilla ne suttaa kuvaa minkä kerkeävät.
No voi ny vihta. Ja Nvidia kopio sen Samsungilta ja Sonylta...
Panasonicilla ollut jo kauan Intelligent Frame Creation telkkareissa, jos lisää opiskelumateriaalia tarvit.Tulin tänne vaan kirjoittamaan, että olet väärässä. Katsoin kuitenkin googlea, siltä varalta, että puheissasi on jotain perää. Et ole väärässä.
Jännästi Sonylla ja Samsungilla on omat Optical Flow teknologiat, joita käytetään Playstationissa, Vegasissa, televisioissa, ym.. Ihan esimerkkinä:
https://research.samsung.com/blog/FlowFormer-A-Transformer-Architecture-for-Optical-Flow
--
Nyt menee taas siihen, että joutuisin "tekemään omat tutkimukseni", eli lukemaan pari iltaa noita tieteellisiä artikkeleita ja valitan, en tälläkään kertaa jaksa. Muuta tekemistä. Vaikka menisi aika suoraan koulutukseni aihepiiriin, niin esim. SIGGRAPH-tunnukseni ei enää toimi. En ole vielä(kään) päässyt tutustumaan kunnolla OF:hun, ja en täysin hahmota, miten ne eroavat Motion Vectoreista. Nähtävästi jotain objektintunnistusta, niinkuin tuossa Samsungin paperissa (lintu, tyttö omana flownaan, fig.1).
--
edit: First Principles of Computer Visionilla oli tarpeeksi lyhyt videosarja aiheesta. Siellä Optical Flow määriteltiin:
"motion of brightness patterns in image" ja se on optical flow. Toimii, kun kirkkaus ei hirveästi muutu ja liike on pientä. Isoa liikettäkin voi kompensoida pienestä resoluutiosta warpin ja OF-matriisin kanssa rakentamalla täyteen resoluutioon.
Sarja alkaa tällä videolla: https://www.youtube.com/watch?v=lnXFcmLB7sM
Ja pyörivä teksturoitu pallo kiinteällä valolähteellä on esimerkki tilanteesta, jossa OF ei ole motion vector matriisi.
Tässä sarjassa tuo Nvidian käyttämä OF on kohdassa "Video Retiming" sarjan vikassa videossa.
Nyt tiedän. Tähän meni tunti. En tiedä, teenkö tällä tiedolla mitään, mutta tulipahan katsottua..
By turning this feature on, your TV will intelligently add additional frames to the broadcast - effectively creating a hybrid of the frame before and the frame after – helping reduce motion blur.
Eli nämä hienot frame genit ovat aivan turhia niille joille näistä ois eniten hyötyä. Eli hitaiden ja vanhempien korttien omistajille.
Panasonicilla ollut jo kauan Intelligent Frame Creation telkkareissa, jos lisää opiskelumateriaalia tarvit.
Omasta yli 10v vanhasta telkustakin se löytyy, sillä saa toki liikeen niin elokuvista kuin sarjoista sulavaksi mutta näyttää jotenkin luonnottomalta. Viivettä tuo lisää kyllä sitten reilusti eli saa pelit sen kanssa unohtaa.
What is intelligent frame creation?
Panasonic UK Support - Search for an answer, find links to manuals and firmware or ways to get in contact with our support teams.support-uk.panasonic.eu
Hieman kyllä mietityttää että miten toimii GPU rajoitteisissa tilanteissa. NVIDIAlla on dedikoitua rautaa avustamassa... Vai riittääkö siellä silti laskentakapasiteettiä?
Muistaisin että jossain näissä presentaatiossa vilahti "up to triple" joka viittaisi siihen että FSR3 tukisi kahden framen lisäystä.
Voisikohan nVidia hyödyntää niitä samoja transistoreja FSR3 toteutuksessa kuin käyttää DLSS3:ssa? Jos siis viitsisi.
Ei se noin toimi, sama algoritmi niillä pyörii ja saman kuvan tuottaa (eikä tensorit ole mitään automaagisesti skaalaukseen sopivaa laskentatehoa)Toki voisi hyödyntää! Saattaisi saada jopa parempaa kuvaa ulos FSR3:sta kuin AMD korteista, koska siihen sopivaa laskentatehoa lienee enemmän.
Viitsiikö on asia sitten ihan erikseen...