Virallinen: NVIDIA vs AMD (vs Intel) keskustelu- ja väittelyketju

  • Keskustelun aloittaja Keskustelun aloittaja Sampsa
  • Aloitettu Aloitettu
Ja mikäköhän peli ei toimi pelattavsti ilman DLSS:ää? Eri asia, jos on kovat RT asetukset sisässä isolla resolla tai muita överi asetuksia, mutta se onkin jo ihan eri keissi.

VRS: ei ole kyllä vakuuttanut niissä muutamassa pelissä, missä sitä on käytetty. Melko olematon FPS lisä. Potentiaalia siinä voi olla, mutta huomattavsti paremmin toimi se joku aimmin NVIDIAN:n esittelemä tekniikka, missä näytön reuna-alueet (sivuilla) rendattiin huonommalla resolla keskiosaan nähden. Siitä sai aika isot boostit esim. Shadow Warrior 2:ssa ja eroa ei normaalisti pelatessa kyllä huomannut, kun katse on kohdistuneena keskelle. Tuo toimii varsinkin FPS peleissä hyvin, mutta strategioihion se ei taas käy, koska niissä katsetta siirreellään paljonkin näytön reunoihin.
Eikös toi tekniikka mistä puhut ole nimenomaan VRS? Vai onko Nvidialla siihenkin oma kikkareensa ja VRS on Amd:n vastaava?
 
Olisiko kuvanarvaustekniikka parempi nimi? Arvaus saadaan tehtyä nopeammin kuin oikeasti piirtäminen ja siihenhän tämä perustuu.
Ei se ole mikään ominaisuuden haitta, kun se on puhdas fakta. Piirretään 1 pikseli ja arvotaan X ympäröivää pikseliä parhaan arvauksen mukaan. Jokainen sen ymmärtää että lopputulos ei ole sama kuin natiivi, täten kyseessä on kuvanhuononnustekniikka, mielestäni tuossa asiassa ei ole sinällään mitään subjektiivista, tietty jos joku haluaa olla sitä mieltä, että tuo arvattu kuva on parempi kuin alkuperäinen natiivi niin sittenhän tämä tekniikka on suorastaan nerokas.
Hyötynä tuosta saadaan se että arvaus saadaan suoritettua paljon nopeammin jolloin frametimet saadaan tiputettua alas ja varsinkin RT:n kanssa yhdistettynä saadaan paljon nopeammat fps:t.

Niin mutta kun se ei ole sen tekniikan pointti ja se mihin se on tarkoitettu. Kuvan mahdollinen/subjektiivinen huonontumionen on ns. sivuvaikutus.

Sama kun kutsuisu buranaa närästyspilleriksi.
 
Ja sinun mielipide on objektiivisesti oikea varmaan sitten... Huh huh mikähän se objektiivisen ja subjektiivisen ero olikaan?
Öö ei? Subjektiivinen mielipiteeni on se, että kyseinen tekniikka joutaa nykyisen kaltaisena toteutuksena romukoppaan ja vain laskee pelien laatutasoa. Sitä ei voida myöskään pitää objektiivisesti (vain) hyvänä ominaisuutena, sillä siinä on täysin ilmiselviä haittavaikutuksia.
 
Eikös toi tekniikka mistä puhut ole nimenomaan VRS? Vai onko Nvidialla siihenkin oma kikkareensa ja VRS on Amd:n vastaava?

VRS ei ole rajoitettu vain kuvan reunoihin. Koodaaja saa siinä itse valita, mitä kohtia rendataan huonommalla tarkkuudella. Tuossa se oli yksinkertaisesti niin, että huonompi tarkkuus kohdistui aina niihin sivureunoihin. En muista millä nimellä se oli.

Edit: Oli näemmä nimellä Multi resolution shading:

 
Öö ei? Subjektiivinen mielipiteeni on se, että kyseinen tekniikka joutaa nykyisen kaltaisena toteutuksena romukoppaan ja vain laskee pelien laatutasoa. Sitä ei voida myöskään pitää objektiivisesti (vain) hyvänä ominaisuutena, sillä siinä on täysin ilmiselviä haittavaikutuksia.
Tässä vaiheessa konkreettiset mitattavat vaikutuset tuntuvat olevan yhden foorumiketjun paisuminen. Muut haittavaikutukset tapahtuvat ihmisten pään sisällä.
 
Kummallisia pelkoja ja uhkakuvia tämä DLSS synnyttää ihmisissä.

Tuskin niitä asetusvalikoita PC-peleistä ollaan poistamassa. RT-efektit ja muut raskaat pois niin pyörii muillakin kuin uusimmilla Geforceilla. Ei ole pelinkehittäjien edun mukaista tehdä pelejä, jotka toimivat pelattavasti vain pienellä määrällä erilaisia laitteita - vertaa VR-pelit.

Hienosti taas ei edes haluta ymmärtää että mikä se ongelma on.

Tuskin kukaan edes kieltää sitä etteikö DLSS olisi ihan hieno keksintö varsinkin niille jotka ei saa ihottumaa sen aiheuttamista ongelmista, suurin osa tuskin saa varsinkaan kun liikkuvasta kuvasta on kyse.
Ne ultra high asetukset vaan nyt sattuu määrittelemään sen miltä peli näyttää ja jos pitää alkaa asetuksia paljon karsimaan että saadaan siedettävästi pyörivä tulos, niin kyllähän se silloin monella on houkutus se DLSS vääntää päälle.
Ja kun meillä on yksi firma jolla kyseinen tekniikka on niin tottakai se ajaa muut eriarvoiseen asemaan. He joutuvat tekemään huomattavasti kovempaa rautaa joka on kallimpaa tai vastaavasti kehittämään oman vastaavanlaisen kikottimen.
Ja nyt kun intel on myös tulossa peli GPU markkinoille niin se ei ole kenenkään etu että kaikki kolme firmaa väkertää OMAN suljetun kikottimen tekemään käytännössä samaa asiaa. Sen takia nvidian kannattaisi tuo kikotin avata.

Tuskin yksikään pelitalo alkaisi kaikkien kolmen kikotinta värkkäämään peliinsä, eli meillä olisi kohta tilanne että joku peli tukisi yhtä, toinen toista ja kolmas kolmatta.
Näissä tilanteissa tuppaa monesti käymään niin että joku pääsee niskanpäälle ja muut kuolee.
 
Tässä vaiheessa konkreettiset mitattavat vaikutuset tuntuvat olevan yhden foorumiketjun paisuminen. Muut haittavaikutukset tapahtuvat ihmisten pään sisällä.
Ai DLSS:n haittavaikutukset on vain psykologisia? :confused:
Alkaa psykoosit iskemään päälle näköjään osalla.
 
Eiköhän kaikki hyvin koodatut nvidian lahjomattomat pelit pyöri ihan hyvin, kuten doom eternal.
Niin mikäs logo sen ac valhalla käynnistyksessä tuleekaan.... ja optimointi mallia perus ubisoft.
Ai DLSS:n haittavaikutukset on vain psykologisia? :confused:
Haittoja on, mutta myös hyötyjä, jolloin julistaminen objektiivisesti huonoksi tekniikaksi on mielestäni typerää, jo se, että joku muu kuin sinä saa siitä hyötyä riittää siihen, että tekniikka ei ole mitenkään objektiivisesti turha.
 
Ai DLSS:n haittavaikutukset on vain psykologisia? :confused:
Alkaa psykoosit iskemään päälle näköjään osalla.
DLSS ja kaiken muunkin kuvan katsomisen kokemukset on psykologisia. Se että sinä et koe DLSS kuvaa hyvänä ei ole objektiivisesti mitattava haittavaikutus mihinkään. Se on sinun subjektiivinen mielipiteesi. Ongelma on siis sinun pään sisällä.
 
DLSS ja kaiken muunkin kuvan katsomisen kokemukset on psykologisia. Se että sinä et koe DLSS kuvaa hyvänä ei ole objektiivisesti mitattava haittavaikutus mihinkään. Se on sinun subjektiivinen mielipiteesi. Ongelma on siis sinun pään sisällä.
Kuvanlaatua voi tarkastella myös täysin objektiivisesti kuvatekniikan näkökulmasta.

seuraavaksi varmaan saan kuulla tiede on vain mielipide.
 
DLSS ja kaiken muunkin kuvan katsomisen kokemukset on psykologisia. Se että sinä et koe DLSS kuvaa hyvänä ei ole objektiivisesti mitattava haittavaikutus mihinkään. Se on sinun subjektiivinen mielipiteesi. Ongelma on siis sinun pään sisällä.

No nyt on kyllä melkosta taas. Vai että oikein mielikuvituksen tuotetta se että sanoo DLSS kuvan olevan huonompi kuin natiivi kuvan.
 
En vieläkään ole nähnyt yhtäkään validia syytä dumata DLSS:ää niin kauan, kuin sen käyttö ei ole pakollista. Mahtavaa, että voi valita itselleen parhaiten sopivan kompromissin, kun puhti loppuu. Yksi tiputtaa resoluutiota, toinen detaileja ja kolmas kytkee DLSS:n päälle. Kaikki huonontavat kuvaa, mutta eri tavoin.

Omistan sekä Intelin että AMD:n osakkeita, mutta en Nvidian, en silti näe mitään ongelmaa siinä, että DLSS on Nvidian suljettu teknologia. Jos muut firmat eivät pysty kilpailemaan sen kanssa, niin ei se Nvidian vika ole (kunhan ei ole painostettu pelinkehittäjiä).
 
No nyt on kyllä melkosta taas. Vai että oikein mielikuvituksen tuotetta se että sanoo DLSS kuvan olevan huonompi kuin natiivi kuvan.
Taas tämä uskomattoman surkea olkiukko. Tai sitten se huonompi vaihtoehto. Päiviä keskustelua ja kymmeniä viestejä ja vieläkään sinullekaan ei ole mennyt asia jakeluun.

Toistetaan ja odotellaan...DLSS käytetään kun natiiviin ei riitä teho. DLSS:llä ei korvata nativiia. (Kuin ehkä poikkeuksissa joka täälläkin on esitetty)
 
Kuvanlaatua voi tarkastella myös täysin objektiivisesti kuvatekniikan näkökulmasta.

seuraavaksi varmaan saan kuulla tiede on vain mielipide.
Ja ruudun detailitasoa voidaan myös samoin. Mitä sitten?
 
No nyt on kyllä melkosta taas. Vai että oikein mielikuvituksen tuotetta se että sanoo DLSS kuvan olevan huonompi kuin natiivi kuvan.

Mutta kun se kuva on osittain monesti myös parempi kun natiivina, ihan objektiivisestikin katsottuna. DLSS ei yksiselitteisesti aina vain huononna kuvaa. Jossain kohdin se parantaa, mutta sitten taas aiheuttaa lieviä artefakteja, jotka häiritsee toisia. Se on sitten jokaisen subjektiivinen näkemys, kumpi merkkaa enemmän.
 
Mutta kun se kuva on osittain monesti myös parempi kun natiivina, ihan objektiivisestikin katsottuna. DLSS ei yksiselitteisesti aina vain huononna kuvaa. Jossain kohdin se parantaa, mutta sitten taas aiheuttaa lieviä artefakteja, jotka häiritsee toisia. Se on sitten jokaisen subjektiivinen näkemys, kumpi merkkaa enemmän.

Nyt on pakko pyytää pikkuisen todistusaineistoa, miten 1080P:llä piirretty kuva jonka tekoäly on piirtänyt 4K:ksi, voi olla parempi kuin natiivi 4K? Ehkä se blurrausefekti vois piilottaa jotain todella rumaa, mutta piilottaako?
 
Kuvanlaatua voi tarkastella myös täysin objektiivisesti kuvatekniikan näkökulmasta.

seuraavaksi varmaan saan kuulla tiede on vain mielipide.

Ei se ole mielipide. Kuvanlaatua voi myös tarkastella konkreettisesta näkökulmasta ottaen huomioon pelin tarjoamat vaihtoehdot ja henkilökohtaiset preferenssit kuten millaisesta kuvasta ja suorituskyvystä pitää. Voi ottaa myös huomioon lompakon paksuuden ja oman pelikortin wanhuuden. Esim. 2060:en omistajalle tulevaisuudessa dlss voi olla se kompromissi jonka ansiosta kortinpäivityssykli pitenee. Alussa ilman dlss:aa, lopussa penniä venyttäen dlss:an kanssa. Samoin 3080:en, jos joskus piiputtaa 4k:ssa niin voi hyvin 2v päästä maistua dlss3.0 tai mikä algoritmi silloin sitten onkin peleissä vaikka tänään ei taida 3080:en kanssa dlss:aa tarvia.
 
Viimeksi muokattu:
Nyt on pakko pyytää pikkuisen todistusaineistoa, miten 1080P:llä piirretty kuva jonka tekoäly on piirtänyt 4K:ksi, voi olla parempi kuin natiivi 4K? Ehkä se blurrausefekti vois piilottaa jotain todella rumaa, mutta piilottaako?
DLSS kuvassa yleensä on enämmän terävyyttä kuin nativiissa mistä kaikki ei tykkää ja toiset taas tykkää, liikaterävyys aiheuttaa tiettyjä artifakteja. Spoilerissa muutamia vertailuja.

F-44.jpg



F-45.jpg


dlss.png
 
Nyt on pakko pyytää pikkuisen todistusaineistoa, miten 1080P:llä piirretty kuva jonka tekoäly on piirtänyt 4K:ksi, voi olla parempi kuin natiivi 4K? Ehkä se blurrausefekti vois piilottaa jotain todella rumaa, mutta piilottaako?

DLSS2.0:ssa on temporal anti aliasing tekniikka käytössä. Liikevektoreiden, z-bufferin jne. avulla tutkitaan mitä osia aikaisemmin piirretyistä frameista voidaan käyttää uudelleen. Lisäksi eri framet piirretään hieman eri kohdista, jotta tuo dlss2.0:a saisi enemmän tietoa. Jos kuvassa ei ole mitään liikettä niin useammasta framesta saadaan kasattua täydellinen kuva, josta ei puutu tietoa. Se mihin tuota neuroverkkoa tarvitaan on, kun kappaleet ja kamera liikkuvat niin on hankala millään helpolla heuristiikalla sanoa mitä pikseleitä edellisistä kuvista voidaan käyttää uudelleen. Perus taa:t eivät pääse dlss2.0:an tasolle ja nähdään esim. kuvan suttuisuutta, kun edellisiä kuvia yhdistellään uuteen kuvaan ei optimaalisesti.

Koska dlss2.0:a nostaa fps:aa niin tuota temporaalista dataa on enemmän tarjolla. Osa siitä tiedosta mitä hukataan pienemmällä resoluutiolla renderöimiseen saadaan takaisin isommasta frame ratesta. Samalla framejen väliset erot pienenevät, joka tekee kuvien yhdistämisestä helpompaa.

dlss2.0 hajoaa esim. jos metadata kuten liikevektorit eivät ole oikein implementoitu. Tämän on spekuloitu rikkovan esim. ne surullisenkuuluisat linnut death strandingissa ja partikkelit joissain peleissä/kohdissa. Osa ongelmista on engine integraatiossa/enginen tarjoamassa datassa eikä niinkään itse dlss2.0 algoritmissa. Jos peli on tyyliin 100h pitkä niin ei se iso ihme ole, että joku asia lipsahtaa qa:ssa ohi ja toki ne virhekohdat sitten etsitään ja unohdetaan kaikki ne kohdat missä dlss2.0:a toimii oikein hyvin. Sitten on helppo keskittyä puuhun ja ei nähdä metsää.

dlss1.0 ja 2.0 välillä on iso ero. dlss1.0 hallusinoi, dlss2.0:lla on paljon enemmän dataa käytössä kuvan rakentamiseksi. dlss1.0 vaati pelikohtaisen opetuksen, dlss2:a on geneerinen algoritmi. Algoritmiin tehdyt parannukset saadaan wanhoihinkin peleihin ilman pelin uudelleenrakentamista päivittämällä dlss:an tarjoama kirjasto.
 
Viimeksi muokattu:
Nyt on pakko pyytää pikkuisen todistusaineistoa, miten 1080P:llä piirretty kuva jonka tekoäly on piirtänyt 4K:ksi, voi olla parempi kuin natiivi 4K? Ehkä se blurrausefekti vois piilottaa jotain todella rumaa, mutta piilottaako?

Ensinnäkin siitä DLSS:ssa on monta eri tasoa. Performance, Balanced ja Quality. Ainoastaa Performance ottaa lähtöresoksi tuon 1080p jos tähdätään 4k resoon. Muilla tuo lähtöresokin on korkeampi.

Kyllä voit ihan itse katsoa esim Digital Foundryn videoita aiheesta.



Linkki vie kohtaan, missä aletaan vertailla natiivin 4k reson eroa DLSS 2.0: perfromance asetukseen.
 
DLSS kuvassa yleensä on enämmän terävyyttä kuin nativiissa mistä kaikki ei tykkää ja toiset taas tykkää, liikaterävyys aiheuttaa tiettyjä artifakteja. Spoilerissa muutamia vertailuja.

F-44.jpg



F-45.jpg


dlss.png

Miksi näissä vertailukuvissa ei ole koskaan natiivissa TAA kuvassa RIS terävöitystä päällä (mikä ikinä Nvidian nimi tuolle onkaan)? DLSS:kin on terävöitysfiltteri niin voisi laittaa myös natiiviin päälle.
 
Miksi näissä vertailukuvissa ei ole koskaan natiivissa TAA kuvassa RIS terävöitystä päällä (mikä ikinä Nvidian nimi tuolle onkaan)? DLSS:kin on terävöitysfiltteri niin voisi laittaa myös natiiviin päälle.

No voihan sen laittaa ja lopputulos saattaa näyttää suht samalle, kun DLSS päällä, mutta ei sillä lisää FPS:ää saa.
 
No voihan sen laittaa ja lopputulos saattaa näyttää suht samalle, kun DLSS päällä, mutta ei sillä lisää FPS:ää saa.
Mutta jos DLSS:ää kehutaan paremmaksi kuin natiivi+TAA koska kuva on terävämpi, miksi ei terävöitetä sitä natiivikuvaa? Sitä voi säätää sopivaksi niin että ei tule niitä artefakteja. Siis jos nopeus riittää natiivinakin, eikö tuo ole se paras vaihtoehto?
 
Mutta jos DLSS:ää kehutaan paremmaksi kuin natiivi+TAA koska kuva on terävämpi, miksi ei terävöitetä sitä natiivikuvaa? Sitä voi säätää sopivaksi niin että ei tule niitä artefakteja. Siis jos nopeus riittää natiivinakin, eikö tuo ole se paras vaihtoehto?

AMD:han teki tuota dlss1.0:aa vastaan ja arvostelut totesivat amd:n ratkaisun olevan parempi kuin dlss1.0. dlss2.0:an kohdalla tilanne kääntyi dlss2.0:an eduksi.
 
AMD:han teki tuota dlss1.0:aa vastaan ja arvostelut totesivat amd:n ratkaisun olevan parempi kuin dlss1.0. dlss2.0:an kohdalla tilanne kääntyi dlss2.0:an eduksi.
Silloin verrattiin skaalattua kuvaa ei natiivikuvaa terävöityksellä.
 
Ensinnäkin siitä DLSS:ssa on monta eri tasoa. Performance, Balanced ja Quality. Ainoastaa Performance ottaa lähtöresoksi tuon 1080p jos tähdätään 4k resoon. Muilla tuo lähtöresokin on korkeampi.

Kyllä voit ihan itse katsoa esim Digital Foundryn videoita aiheesta.



Linkki vie kohtaan, missä aletaan vertailla natiivin 4k reson eroa DLSS 2.0: perfromance asetukseen.

Toki on eri tasoja, mutta eikö idea ole vain että pohjalla oleva piirtoresoluutio muuttuu, sen kuitenkin ollessa alhaisempi kuin natiivissa. Tuo 1080 -> 4k oli vain karkea esimerkki joka vois hyvinkin olla sellainen jolle löytyy reaalimaailmassa applikaatiota
 
Silloin verrattiin skaalattua kuvaa ei natiivikuvaa terävöityksellä.

Esim. digital foundryn death stranding arvostelu vertaa natiivi 4k, taa 4k ja dlss "4k". Ongelmana natiivissa oli shimmeröinti. Se vain pahenisi lisäterävöituksellä. taa:lla paikoitellen himmeän kovaa blurria, kun framejen yhdistely epäonnistuu. dlss:lla linnut, moire jne. Jos sen koko videon jaksaa katsoa niin aika nopeasti selviää, että tän pelin tapauksessa joutuu tekemään kompromissin. Mikä se itselle mieluinen kompromissi on niin on jokaisen itse päätettävä. Samoin niissä muissakin peleissä joudutaan kompromissien maailmaan, kun yksikään realistinen asetus ei ole täydellisen kuvanlaadun tuottavaa.

dlss2.0:an kohdalla tietty pitää muistaa suorituskykyparannus. Yksi saattaa haluta fps:aa, toinen pelkkää laatua ja kolmas hakee kompromissia sieltä väliltä. dlss/taa on tulevaisuus. dlss2.0 ei liene se viimeineen ratkaisu mikä tullaan näkemään. Yhdellä ue5:en kehittäjistä oli mielenkiintoisia viestejä twitterissä. Linkissä vain 2 viestiä, itse ketjussa on paljon enempi tavaraa. Jos kiinnostaa niin kannattaa aukaista linkki.

 
Jos olis niitä AMD:n näykkäreitä saatavilla, niin olisko täällä edes vääntöä oman näykkärin paremmuudesta. Nyt pitää suurennella stillkuvia ja youtube kontenttia :sholiday:
 
Yhdellä ue5:en kehittäjistä oli mielenkiintoisia viestejä twitterissä. Linkissä vain 2 viestiä, itse ketjussa on paljon enempi tavaraa. Jos kiinnostaa niin kannattaa aukaista linkki.

Jos DLSS on hänen mielestään tulevaisuus niin toivottavasti hän on hyvin yksin oman mielipiteensä kanssa, tai jos koko Epic jakaa tuon näkemyksen niin ovat sitten nvidian edessä rähmällään kyllä pakasti.
Jokin DLSS:ää vastaava STANDARDI voi olla tulevaisuutta. Tai jos se tulevaisuus on DLSS ja nvidia ei sitä avaa, niin sittenhän AMD ja Intel voi laittaa pillit takaisin pussiin ja lopettaa näyttisten kanssa puuhastelun.
 
Jos DLSS on hänen mielestään tulevaisuus niin toivottavasti hän on hyvin yksin oman mielipiteensä kanssa, tai jos koko Epic jakaa tuon näkemyksen niin ovat sitten nvidian edessä rähmällään kyllä pakasti.
Jokin DLSS:ää vastaava STANDARDI voi olla tulevaisuutta. Tai jos se tulevaisuus on DLSS ja nvidia ei sitä avaa, niin sittenhän AMD ja Intel voi laittaa pillit takaisin pussiin ja lopettaa näyttisten kanssa puuhastelun.
Mainitsee tuon vain yhtenä esimerkkinä tulevaisuuden trendistä. Epicin UE 4.26:ssa on jo uudistettu TAA upsampling kuvantuhoamistekniikka, joka on kokeiltavissa preview versiossa. Eli ei Karisin lafkassa mitenkään pelkän DLSS:n varaan olla laskemassa vaan kehitetään ihan omaakin nörttien triggeröimistekniikkaa.
 
Jos DLSS on hänen mielestään tulevaisuus niin toivottavasti hän on hyvin yksin oman mielipiteensä kanssa, tai jos koko Epic jakaa tuon näkemyksen niin ovat sitten nvidian edessä rähmällään kyllä pakasti.
Jokin DLSS:ää vastaava STANDARDI voi olla tulevaisuutta. Tai jos se tulevaisuus on DLSS ja nvidia ei sitä avaa, niin sittenhän AMD ja Intel voi laittaa pillit takaisin pussiin ja lopettaa näyttisten kanssa puuhastelun.

Tuo tyyppi on erittäinen tekninen. Eiköhän toi sen twiitti kannata ymmärtää tekniseltä kannalta niin, että heuristiikalla implementoitu TAA tai DLSS:an tapainen koneälyllä opetttu neuroverkkopohjainen TAA on tulevaisuus. Ei niinkään että nvidian dlss on tulevaisuus. Mun käsityksen mukaan ue5:ssa on niiden ihan oma TAA ja miten se suhtautuu ue4:een/dlss:aan on mysteeri niille joilla ue5:sta ei vielä ole.
 
Jos DLSS on hänen mielestään tulevaisuus niin toivottavasti hän on hyvin yksin oman mielipiteensä kanssa, tai jos koko Epic jakaa tuon näkemyksen niin ovat sitten nvidian edessä rähmällään kyllä pakasti.
Jokin DLSS:ää vastaava STANDARDI voi olla tulevaisuutta. Tai jos se tulevaisuus on DLSS ja nvidia ei sitä avaa, niin sittenhän AMD ja Intel voi laittaa pillit takaisin pussiin ja lopettaa näyttisten kanssa puuhastelun.

Taitaa trollata twitterissä kun väittää tekoälyn olevan jo mahdollista ja arkipäivää.
 
Mutta jos DLSS:ää kehutaan paremmaksi kuin natiivi+TAA koska kuva on terävämpi, miksi ei terävöitetä sitä natiivikuvaa? Sitä voi säätää sopivaksi niin että ei tule niitä artefakteja. Siis jos nopeus riittää natiivinakin, eikö tuo ole se paras vaihtoehto?

Jos tuolla päästään yhtä hyvään lopputulemaan suttuisuuden poistamisessa, kun DLSS:n kanssa, niin kyllähän se silloin parmepi on. Itsellä ei ole vaan noista yksinkertaisista terävöitysfilttereritä mitää positiivisia kokemuksia.
 



Digital foundry ei DLSS:stä puhu yhtä jyrkästi viitaten kuvanhuononnustekniikkaan vaan heidän mukaan se jopa parantaisi kuvanlaatua unohtamatta mikä etu sillä saavutetaan ruudunpäivitysnopeudessa.

Videon kohdan pelissä ominaisuus ei ole käytössä, mutta siitä voi hyvinkin päätellä suorituskyky eron tulevilla AAA peleillä, kun päästään DLSS aktivoimaan tuohon päälle.
 
Onkos mikään lafka vertaillut eroja millään vaihtelevalla pelisetillä? Joo ymmärrän että vertaillaan uusilla AAA-titleillä, mutta ärsyttää kun kaikki vertailut on tehty lähes samoilla seteillä.
Samat muutaman fps:n erot ei jaksa kiinnostaa, mutta mielelläni näkisin myös miten vanhemmat tai indie-pelit vertautuu. Joo totta että niissä ei saada DLSS tai RT-eroja esille mutta osalle meistä voi olla jopa paljon tärkeämpi asia.
 



Digital foundry ei DLSS:stä puhu yhtä jyrkästi viitaten kuvanhuononnustekniikkaan vaan heidän mukaan se jopa parantaisi kuvanlaatua unohtamatta mikä etu sillä saavutetaan ruudunpäivitysnopeudessa.

Videon kohdan pelissä ominaisuus ei ole käytössä, mutta siitä voi hyvinkin päätellä suorituskyky eron tulevilla AAA peleillä, kun päästään DLSS aktivoimaan tuohon päälle.

Kuvan skaalaaminen pienemmästä isompaan ei kyllä koskaan oikeasti paranna kuvanlaatua, koska niitä puuttuvia yksityiskohtia ei oikeasti saa mistään. Toisin sanoen väite dlss:n kuvan parannuksesta on täyttä paskaa. Se kuva saattaa olla omaan makuun sopivampi, mutta se ei koskaan ole oikeasti parempi
 
Kuvan skaalaaminen pienemmästä isompaan ei kyllä koskaan oikeasti paranna kuvanlaatua, koska niitä puuttuvia yksityiskohtia ei oikeasti saa mistään. Toisin sanoen väite dlss:n kuvan parannuksesta on täyttä paskaa. Se kuva saattaa olla omaan makuun sopivampi, mutta se ei koskaan ole oikeasti parempi
No periaatteessa jos jotain sähkölankoja piirrettäisiin hirveällä sahalaidalla, niin dlss voisi saada ne näyttämään paremmalta kun arpoo blurratun lopputuloksen.
 
Kuvan skaalaaminen pienemmästä isompaan ei kyllä koskaan oikeasti paranna kuvanlaatua, koska niitä puuttuvia yksityiskohtia ei oikeasti saa mistään. Toisin sanoen väite dlss:n kuvan parannuksesta on täyttä paskaa. Se kuva saattaa olla omaan makuun sopivampi, mutta se ei koskaan ole oikeasti parempi

No tuossa sentään on fiksuutena se temporal skaalaus, eli lasketaan eri framejen avulla tarkempi kuva, mitä pelkällä upskaalauksella saataisiin. Tietty kun vaihtoehtona on TAA, joka vetää shimmeringin poistossa pehmennyksen yli, niin ei kuvanlaadullisesti tarjonta on vähän paha paikka. Eli natiivia blurrattuna tai yliterävöitettyä DLSS:ää.

Tietty DLSS1 oli kuraa, mutta sitä kehuttiin, kun se toi perffilisän ja puolustajat piti laatua riittävänä. Nyt DLSS2:n jälkeen ykköstä kehuneet kehtaa haukkua vanhaa versiota, kun parempi tarjolla. Ehkä tuosta tulee vielä 3.0 versio, jossa saa säätää terävöityksen haluamalleen tasolle ja lisätään partikkeliefektit jo skaalatun kuvan päälle. Siinä vaiheessa protestiäänien luulisi hiljenevän, avoimien ratkaisujen kannattajia lukuunottamatta.
 
Kuvan skaalaaminen pienemmästä isompaan ei kyllä koskaan oikeasti paranna kuvanlaatua, koska niitä puuttuvia yksityiskohtia ei oikeasti saa mistään. Toisin sanoen väite dlss:n kuvan parannuksesta on täyttä paskaa. Se kuva saattaa olla omaan makuun sopivampi, mutta se ei koskaan ole oikeasti parempi
Se että sinä et ymmärrä miten koneoppiminen tai deep learning toimii ei tarkoita että se olisi paskaa. Puuttuvia yksityiskohtia ei tarvitse "saada" mistään kun ne voi päätellä/arvata aivan kuten ihminenkin käyttää maalaisjärkeä. Tämän takia koneoppimis/tekoäly algoritmeja "opetetaan" ennen kuin niitä aletaan käyttämään tuotannossa.

1606814060924.png

Vaikka tässä onkin kyse aivan eri skaalan ongelmasta niin teoria on sama. Ylläolevassa kuvassa taksin päällä on punainen neliö. Vaikka kukaan meistä ei näe neliön taakse niin jokainen kuitenkin "tietää" mitä siellä on ja miltä taksi näyttäisi ilman sitä.

Ei tässä ole varsinaisesti mitään uutta. Vastaavanlaisia ratkaisuja on maailma täynnä:
 
Se että sinä et ymmärrä miten koneoppiminen tai deep learning toimii ei tarkoita että se olisi paskaa. Puuttuvia yksityiskohtia ei tarvitse "saada" mistään kun ne voi päätellä/arvata aivan kuten ihminenkin käyttää maalaisjärkeä. Tämän takia koneoppimis/tekoäly algoritmeja "opetetaan" ennen kuin niitä aletaan käyttämään tuotannossa.

1606814060924.png

Vaikka tässä onkin kyse aivan eri skaalan ongelmasta niin teoria on sama. Ylläolevassa kuvassa taksin päällä on punainen neliö. Vaikka kukaan meistä ei näe neliön taakse niin jokainen kuitenkin "tietää" mitä siellä on ja miltä taksi näyttäisi ilman sitä.

Ei tässä ole varsinaisesti mitään uutta. Vastaavanlaisia ratkaisuja on maailma täynnä:
Mutta jos tuo punainen boxi olisi yhden sanan päällä se algoritmi vetäisi sen saman tien perseelleen. Ja tekoäly ei ole ihan niin näppärä kuin annat ymmärtää. Ei ole kauaakaan, kun microsft teki oppivan chattibotin. Joka oli parin tunnin kuluttua pakko vetää alas kun se alkoi ihannoida Hitleriä ja piti kansanmurhaa hyvänä hommana.
 
Kuvan skaalaaminen pienemmästä isompaan ei kyllä koskaan oikeasti paranna kuvanlaatua, koska niitä puuttuvia yksityiskohtia ei oikeasti saa mistään. Toisin sanoen väite dlss:n kuvan parannuksesta on täyttä paskaa. Se kuva saattaa olla omaan makuun sopivampi, mutta se ei koskaan ole oikeasti parempi
Vilkaiseppas tuo kalvosetti läpi, niin ehkä ymmärrät, että siinä DLSS 2.0 inputtina on aika paljon muutakin kuin yksi matalaresoluutioinen kuva:
 
Kuvan skaalaaminen pienemmästä isompaan ei kyllä koskaan oikeasti paranna kuvanlaatua, koska niitä puuttuvia yksityiskohtia ei oikeasti saa mistään.
Sorrut yliyksinkertaistukseen. Kun näytteitä kumuloidaan kahdeksasta kuvasta, miljoona näytettä per kuva, saadaan kahdeksan miljoonaa näytettä. Sopivissa olosuhteissa riittävän ja hyvällä vanhojen näytteiden hyödyntämisellä kahdeksasta miljoonasta voidaan helposti tuottaa laadukkaampi kuva kuin rendaamalla yksittäinen kahden miljoonan pikselin kuva.

So? Minä sanoin, että puuttuvia yksityiskohtia ei saa mistään. Ei minua kiinnosta mitä se dlss tekee. Ihan sama. Jos niitä yksityiskohtia ei siellä ole, niin aivan sama vaikka se dlss pitäisi seminaarin asiasta. Tyhjästä on paha nyhjäistä
Niitä yksityiskohtia on kerätty edellisistä freimeistä. Osa kerätystä tiedosta ei ole hyödyllistä uuden kuvan renderöinnin kannalta, mutta osa on, joten tyhjästä ei nyhjästä.
 
Viimeksi muokattu:
Vilkaiseppas tuo kalvosetti läpi, niin ehkä ymmärrät, että siinä DLSS 2.0 inputtina on aika paljon muutakin kuin yksi matalaresoluutioinen kuva:
So? Minä sanoin, että puuttuvia yksityiskohtia ei saa mistään. Ei minua kiinnosta mitä se dlss tekee. Ihan sama. Jos niitä yksityiskohtia ei siellä ole, niin aivan sama vaikka se dlss pitäisi seminaarin asiasta. Tyhjästä on paha nyhjäistä
 
Mielenkiintoista kyllä täällä havaittu kuvanhuononnustekniikan ihannointi. Pelkästään jo DLSS tuottamat artefaktit riittävät pilaamaan immersion pelatessa, niin en näe tuolle mitään järkevää käyttöä ellei niitä saada käytännössä kokonaan kitkettyä pois tuosta lopputuloksesta.
 
So? Minä sanoin, että puuttuvia yksityiskohtia ei saa mistään. Ei minua kiinnosta mitä se dlss tekee. Ihan sama. Jos niitä yksityiskohtia ei siellä ole, niin aivan sama vaikka se dlss pitäisi seminaarin asiasta. Tyhjästä on paha nyhjäistä

Totta kai ne yksityiskohdat saadaan taiottua "tyhjästä", ainakin tietyissä tapauksissa. Ihmisen aivotkin pystyvät helposti täydentämään kirjoitetun lauseen keskeltä puuttuvan sanan, jos se lause on ensin niille aivoille opetettu.
 
Totta kai ne yksityiskohdat saadaan taiottua "tyhjästä", ainakin tietyissä tapauksissa. Ihmisen aivotkin pystyvät helposti täydentämään kirjoitetun lauseen keskeltä puuttuvan sanan, jos se lause on ensin niille aivoille opetettu.
Juu, tietyissä tapauksissa. Mutta täällä maalailtiin kuvaa erehtymättömästä superälystä. Jos tuohon taksiesimerkkiin palataan, niin tuollaisia takseja on maailmalla luultavasti kymmeniä tuhansia ja firmoja sadoittain melkein samanlaisilla nimillä. Jos peität osan firman nimestä, niin lopputulos on, että sillä tekoälyllä on sata täsmälleen yhtätodennäköistä vaihtoehtoa sille nimelle ja sen jälkeen heitetäänkin noppaa siitä mikä otetaan käyttöön. Sen jälkeen on aika turha väittää, että kuva vastaa alkuperäistä
 

Statistiikka

Viestiketjuista
257 088
Viestejä
4 468 656
Jäsenet
73 894
Uusin jäsen
sampo_af

Hinta.fi

Back
Ylös Bottom