Virallinen: NVIDIA vs AMD (vs Intel) keskustelu- ja väittelyketju

  • Keskustelun aloittaja Keskustelun aloittaja Sampsa
  • Aloitettu Aloitettu
Mutta jos vaatimus on se suorituskyky eli nollasta sataan pitää päästä alle kolmen sekunnin ja kaveri ajaa autokaupoilta kotiin 180 heppaisella perhevolvolla, niin ei hankinta kovin älykäs vaatimuksiin nähden ollut. Älykästä on ostaa juuri sellainen auto/näytönohjain joka omiin tarpeisiin sopii.
Silloinhan se ei täytä vaatimuksia. Heti ensimmäisessä viestissä mainitsin, että €/perf voi olla hyödyllinen tieto myös siinä tapauksessa, missä käyttäjä vaatii korkeaa suorituskykyä. Tässä esimerkissäsi voisit listata kaikki alle kolmessa sekunnissa nollasta sataan kiihtyvät autot ja valita sieltä myös lompakollesi sopivan vaihtoehdon. Hankinta voidaan optimoida useammalla kuin yhdellä mittarilla siten, että se edelleen täyttää kaikki sille asetetut vaatimukset. Tässä voi olla vaatimuksina vaikkapa se säteenseuranta, sähköteho, 2-slotin koko, Pcie4, 16gb HBM2 yms... Kritisoin viestiä, mikä väitti €/perf suhteen olevan täysin turha jonkin tietyn suorituskykyvaatimuksen jälkeen.
 
Ajureiden huonompi toiminta on minun henkilökohtainen subjektiivinen näkemys. Koska dataa ei tosiaan ole, niin subjektiivinen näkemys on se millä pitää mennä. Kun kaikki kertovat subjektiivisen näkemyksensä, voi potentiaalinen ostaja yrittää tehdä jotain johtopäätöksiä omalle kohdalleen.

Lukemani perusteella Navi syöttää väärää väriavaruutta HDR:llä, kun HDR aktivoidaan AMD API:n kautta. Microsoftin API:lla homma ilmeisesti toimii, mutta niiden väliltä käyttäjä ei voi aina vapaasti valita. Joka tapauksessa, vaikka homma NYT toimisi, se ei tarkoita, että se toimisi kun AMD seuraavan kerran tunaroi ajureidensa kanssa. NVidialla olen pelannut jotakuinkin kaikkia AAA HDR-tuettuja pelejä ilman ajuriongelmia. Doomin tumma karttakin taitaa olla pelin ongelma, eikä ajureiden...?

Paremmilla video-ominaisuuksilla viittasin juurikin enkooderiin.

Ei se Freesync-tuki Samsungeihin lämmitä, jos käytössä on LG OLED. Toki sitten jos on jotain muuta. Mutta jos on LG OLED niin käy järkeen maksaa enemmän NVidiasta jotta saa tuon tuen, se oli pointtina.

EDIT: Ihan selventääkseni ajatusmaailmaani: Mua ei haittaa yhtään että porukka ostaa AMD:tä. Saisivat ostaa enemmänkin, ihan kilpailun vuoksi. Itsekin juuri harkitsin, mutta lukemani ja aiempien kokemuksien perusteella valinta päätyi nyt taas NVidiaan vaikka hintaero oli 350€ vs 500€ ( käytettyjä ). LG G-Sync OLEDikin tulossa seuraavasta sukupolvesta. Mua ei häiritse jos jollekin 5700XT, tai joku hitaampikin riittää. Mutta sitten alkaa häiritsemään, kun aletaan huudella nopeampien korttien omistajille, kuinka ostos oli tyhmä, tai kuinka sen ominaisuuksilla ei tee mitään, tai kuinka 1080p pitäisi riittää kaikille, peilaten omat vaatimattomammat tarpeet muihin ihmisiin. Olen tässä ketjussa ainoastaan vastavoimana tällaiselle typeryydelle. Minusta AMD on hieno firma, hienompi kuin NVidia, joka portittaa hyviä ominaisuuksia kuten Integer Scalerin tai G-Sync for LG:n uusimpiin sukupolviin milloin milläkin verukkeella. Minua ei vain firman hienous lämmitä ostopäätöstä tehdessä jos rauta ei tee vaatimiani asioita luotettavasti tai ollenkaan. Eli kirjoittelen täällä muiden kirjoittajien takia, en firmojen tai niiden raudan. Valheellisuus ja älyllinen epärehellisyys ottaa aivoon.
 
Viimeksi muokattu:
Ei se Freesync-tuki Samsungeihin lämmitä, jos käytössä on LG OLED. Toki sitten jos on jotain muuta. Mutta jos on LG OLED niin käy järkeen maksaa enemmän NVidiasta jotta saa tuon tuen, se oli pointtina.

Juurikin näin. Ei ole yksiselitteistä että joku tietty kortti on kaikille parempi kuin joku toinen. Kaikilla on erilaiset kokoonpanot ja käyttökohteet...
Niinkuin itsekkin aikanaan ostin Radeon VII:n RTX2080 sijaan, koska Nvidian korteissa ei siihen aikaan ollut Freesync tukea. Näyttöjen päivittäminen G-sync näytöiksi olisi maksanut helposti ~1200-1500€ (3 näyttöä).
 
Juurikin näin. Ei ole yksiselitteistä että joku tietty kortti on kaikille parempi kuin joku toinen. Kaikilla on erilaiset kokoonpanot ja käyttökohteet...
Niinkuin itsekkin aikanaan ostin Radeon VII:n RTX2080 sijaan, koska Nvidian korteissa ei siihen aikaan ollut Freesync tukea. Näyttöjen päivittäminen G-sync näytöiksi olisi maksanut helposti ~1200-1500€ (3 näyttöä).

Tämä freesync on ollut ennen aika hanskasta Nvidian käyttäjille. Nyt, kun itselläni on pelinäyttönä Asus PG279Q 2560x1440 @ 165Hz G-sync IPS ja kakkosnäytön asiaa ajaa ihan koemielessäkin ostettu Asus ROG Strix XG32VQR Freesync2 VA 2560x1440 @ 144Hz. Hyvin on näyttänyt tomivan molemmat näytöt Nvidian kortin kanssa yhessä. Eli ei haittaa vaikka on nyt G-sync ja Freesync näytöt kiinni samaan aikaan.
 
Lukemani perusteella Navi syöttää väärää väriavaruutta HDR:llä, kun HDR aktivoidaan AMD API:n kautta. Microsoftin API:lla homma ilmeisesti toimii, mutta niiden väliltä käyttäjä ei voi aina vapaasti valita. Joka tapauksessa, vaikka homma NYT toimisi, se ei tarkoita, että se toimisi kun AMD seuraavan kerran tunaroi ajureidensa kanssa. NVidialla olen pelannut jotakuinkin kaikkia AAA HDR-tuettuja pelejä ilman ajuriongelmia. Doomin tumma karttakin taitaa olla pelin ongelma, eikä ajureiden...?
Linkkien pistäminen olisi aina suotavaa näihin, löysin lopulta googlettelulla vissiin mistä on kyse ja ei jäänyt nyt ihan selväksi onko kyse bugista vai ominaisuudesta, mikä toimi ennen eri tavoin mutta pitää Navilla (ja ainakin kyllin tuoreilla Vega-varianteilla, ei käryä koskeeko kaikkia Vega-versioita) toteuttaa eri tavalla.
Riippumatta siitä oliko kyseessä bugi vai ei, 20.3.1-ajureissa muutettiin jotain ja Navit (ja ne Vegat) käyttäytyy nyt samalla tapaa kuin Polariksetkin, eli tuosta raportoineen "DMU-debug"in mukaan niin kuin pitäisi.
 
Linkkien pistäminen olisi aina suotavaa näihin, löysin lopulta googlettelulla vissiin mistä on kyse ja ei jäänyt nyt ihan selväksi onko kyse bugista vai ominaisuudesta, mikä toimi ennen eri tavoin mutta pitää Navilla (ja ainakin kyllin tuoreilla Vega-varianteilla, ei käryä koskeeko kaikkia Vega-versioita) toteuttaa eri tavalla.
Riippumatta siitä oliko kyseessä bugi vai ei, 20.3.1-ajureissa muutettiin jotain ja Navit (ja ne Vegat) käyttäytyy nyt samalla tapaa kuin Polariksetkin, eli tuosta raportoineen "DMU-debug"in mukaan niin kuin pitäisi.

Hienoa, että ongelma on korjattu. Tämäkään sekoilu ei vain valitettavasti auta yhtään siihen minun edellämainittuun henk. koht. subjektiiviseen näkemykseen AMD:n ajureista. :confused2:
 
missä käännämme nuo RTX-ominaisuudet Radeon-korttien ominaisuuksiksi ja kalliimman hinnan myös, niin olisiko ne sitten hyviä?

Ei todellakaan. Nykyinen RT teho on tuhnu oli sen kortin valmistaja kuka tahansa. Mielestäni tuo teho pitää vähintään kolminkertaistaa että se alkaa olla jotain muutakin kuin vain techdemo.

Tällöin resoluutio ei ole enää 1080p, eikä myöskään virkistystaajuus ole enää 60Hz, poikkeuksena 4K kun tässä ei ole oikein järkeä ostaa 144Hz paneelilla olevaa.

Siis nyt on kyllä kunnon olkikukot taas rakennettu. Mikäli sekavan lauseen tulkitsin oikein. :D

1080p resolla siis ei riitä 60Hz mihinkään, mutta 4K resolla ei taas ole järkevää 144Hz paneelia ostaa eli ilmeisesti sitten se 60Hz riittää 4K:lla oikein hyvin.
 
-€/perf
Ei ole mitään merkitystä tuolla hinta/teho suhteella mikäli haluaa tietyn fps:n ylittävää tehoa parhailla grafiikoilla pelatessa. Yleensä tässä vaiheesa ei pelata sitten millään peruna 1080p resolla enää vaan 1440p tai 4K. Voidaan todeta, että tuo on pelkkää selittelyä hinta/teho, että se on ainut mikä merkitsisi ostajalle vaakakupissa. Budjettikone tai joka ei halua sijoittaa niin toki valitsee koneen osat näytönohjainta myöden niin, että se toimii sille resoluutiolle millä haluaa pelata. Se on selvää, että mitä enemmän peli on näytönohjain rajoitteinen sitä kalliimmaksi se käy kukkarolle mikäli haluaa mahdollisimman korkeat grafiikat. Tällöin resoluutio ei ole enää 1080p, eikä myöskään virkistystaajuus ole enää 60Hz, poikkeuksena 4K kun tässä ei ole oikein järkeä ostaa 144Hz paneelilla olevaa.



Siis nyt on kyllä kunnon olkikukot taas rakennettu. Mikäli sekavan lauseen tulkitsin oikein. :D

1080p resolla siis ei riitä 60Hz mihinkään, mutta 4K resolla ei taas ole järkevää 144Hz paneelia ostaa eli ilmeisesti sitten se 60Hz riittää 4K:lla oikein hyvin.

Olisit voinut lainata koko pätkän, että yhtä osaa ja vääristää sillä tavalla tahallaan asiaa.


Eli sanomani...


-4K monitoria on aivan tyhmää ostaa 144hz paneelilla. Ei ole yhtään ainoaa korttia markkinoilla mikä jaksaa pyörittää tuota peleissä lähellekkään noille fps luvuille. Sen takia 60Hz 4K on järkevin tuolle kaikki tapissa 2080Ti:llä. Näitä teholuokankortteja ei ole yhtään kpl AMD:llä vaikka visioit asiaa punaisien lasiesi läpi.

-1080p on yleensä ihmisillä aika usein jo nykyään 120/144/240Hz paneeleita millä pelaavat. Näihin riittää näytönohjain myös AMD:ltä hyvin.

-1440p/4K vaatii näytönohjaimelta enemmän tehoa, koska se tulppaa ennen kuin prosessori.

Onko mielestäsi 1080p ja 4K:ssa mitään eroa graafisesti ihan sillä 60Hz? Riittääkö mielestäsi sama halpa kortti molemmille näytöille sitten? Järkeä varmaan saa käyttää, jos sitä on.

Kyllä se niin on, että 1440p ja 4K pelaajat omistavat lähtökohtaisesti tehokkaampia kortteja millä pelaavat. 1080p jurnuttajille riittä se halvempikin näytönohjain vaikka sille 144Hz paneelille.

Edit. itse en palaa enää 60Hz paneelin näyttöihin. Enkä 1080p 144Hz myöskään. Mutta tämä on minun valinta puhtaasti.
 
Itselleni pistin tilaukseen 1440p ultrawide-monitorin jossa on adaptive syncci 48-100fps ruudunpäivitysnopeudelle ja vakiona 100Hz virkistystaajuus (voinee ylikellottaa jonnekin 120 tuntumaan jos siltä tuntuu). Mitä olen näytönohjaintestejä lukenut, niin 5700XT riittää tällaiselle monitorille aivan mainiosti. Koneen uusiminen on siis vielä edessä. Kone pitää rakentaa suhteellisen tiukalla budjetilla (korkeintaan 1500e). Tässä tilanteessa näyttiksen maksimibudjetti on 500 euroa, koska muun koneen pitää kuitenkin olla tasapainoinen ja tallennustilaakin vähintään 1Tt. Itse kun olen tottunut aiemmin pelaamaan 60Hz monitorilla v-sync päällä ja sen verran tuhnulla koneella, että välillä ruudunpäivitysnopeus putoaa tuonne 30:iin v-syncin takia, niin tuon luulisi olevan melkoinen wow-päivitys.

Äniveis, näin kun konetta on suunnitellut ja pyöritellyt, niin olen tullut siihen tulokseen, että hintahyppäys 5700XT:stä 2070 Superiin on liian iso siihen ~10% tehonlisään nähden ja aiheuttaisi liikaa kompromisseja muiden osavalintojen suhteen. 2060 Super taas on tuhnu verrattuna 5700XT:een. Eli koska AMD tarjoaa parhaan hinta/teho-suhteen tässä hintaluokassa, niin ellei mitään mullistavia hinnanpudotuksia tapahdu tässä seuraavaan kuukauden sisään, niin AMD:lla mennään. RT-ominaisuuksille alan antaa painoarvoa sitten siinä vaiheessa, kun se alkaa olla peleissä pääasiallinen renderöintimenetelmä.
 
Onko mielestäsi 1080p ja 4K:ssa mitään eroa graafisesti ihan sillä 60Hz? Riittääkö mielestäsi sama halpa kortti molemmille näytöille sitten? Järkeä varmaan saa käyttää, jos sitä on.

En tiedä että onko kun minulla on 1440p 144Hz paneeli. Mutta eipä se hyppy 1080p 60Hz tähän ollut mikään tajuntaa räjäyttävä kokemus. Sinun viestistä vaan saa sen kuvan edelleen että 4K 60Hz on täysin ok, eikä ole edes järkeä ostaa yli 60Hz paneelia 4K:lle. Tämähän on täysin järjetöntä. Ainakin itsellä näyttö on kaikista pitkäikäisin komponenteista joten mielestäni siihen kannattaa panostaa. Vaikka nyt ei näytönohjaimet kykene 4K 60Hz parempaan, joskus ei edes siihen, niin ei se tarkoita etteikö esim. parin vuoden päästä kykenisi.
 
Enkä sanoisi että olisin uhrannut jotain, sillä vEn ymmärrä tätä 1080p resoluution haukkumista, sillä se 1080p näyttää ihan hyvältä. Miten voit katsoa televisiota kun ne TV lähetykset tulee SD resoluutiolla tai maksimissaan HD:nä, ei edes 1080p:nä
Pelaan vain aika vähän, mutta omistan kaksi tietokonetta pelaamiseen. Toisessa on 1080ti 1440p pelaamiseen ja toisessa 1660ti 1080p pelaamiseen (tai 1440p tv:ssä jos tehot riittää). Cod mw on ollut nyt pelailun alla muutaman viikon ahkerasti. 1080p codi on sumuista paskaa suoraan sanottuna. Jopa hämmästyttävän huonon näköinen. Haukun sitä koska se on sontaa verrattuna parempaan.

ja antenniverkosta tuleva SD-televisio vasta järkyttävää paskaa onkin. En ole katsonut vuosiin SD-laatuisena sarjoja tai elokuvia. Ainoan poikkeuksen kahden vuoden ajalta muistan jimiltä näkyvän big bang theoryn. Uutiset toki menee.
 
Viimeksi muokattu:
Ei todellakaan. Nykyinen RT teho on tuhnu oli sen kortin valmistaja kuka tahansa. Mielestäni tuo teho pitää vähintään kolminkertaistaa että se alkaa olla jotain muutakin kuin vain techdemo.



Siis nyt on kyllä kunnon olkikukot taas rakennettu. Mikäli sekavan lauseen tulkitsin oikein. :D

1080p resolla siis ei riitä 60Hz mihinkään, mutta 4K resolla ei taas ole järkevää 144Hz paneelia ostaa eli ilmeisesti sitten se 60Hz riittää 4K:lla oikein hyvin.
Tulevissa konsoleissa RT suorituskyky on alustavien tietojen mukaan alle 2080Ti:n. Konsolien optimointimahdollisuudet eivät tässä oikein auta, sillä jos ei ole suorituskykyä, niin sitten ei ole.
Näinollen vaikuttaa erittäin todennäköiseltä, että 2080Ti tulee riittämään pitkän aikaa. Ja kiitos äskettäin julkaistun kuvanparannuksen varmasti mopommatkin tulevat pyörittämään ainankin yleensä 1080 tilaa paremmin, kuin välttävästi.
 
Tulevissa konsoleissa RT suorituskyky on alustavien tietojen mukaan alle 2080Ti:n. Konsolien optimointimahdollisuudet eivät tässä oikein auta, sillä jos ei ole suorituskykyä, niin sitten ei ole.
Näinollen vaikuttaa erittäin todennäköiseltä, että 2080Ti tulee riittämään pitkän aikaa. Ja kiitos äskettäin julkaistun kuvanparannuksen varmasti mopommatkin tulevat pyörittämään ainankin yleensä 1080 tilaa paremmin, kuin välttävästi.
Mistäs tällaisia alustavia tietoja on tullut? Käsittääkseni NVIDIA ei ole antanut ikinä mitään "vastaa x TFLOPS" lukemia RT-yksiköilleen ja ainut konsoleiden RT-suorituskykyyn viittaava tieto käsittääkseni on MS:n arvio kuinka paljon "raakaa laskentavoimaa" suurin piirtein XSX:n RT-kiihdytys vastaisi.
Ne yleisemmät suorituskykyarviot (PS5 ~5700XT/2070S jos kellot pysyy, XSX ~2080S tai vähän yli) ovat vain sinnepäin laskelmia oletuksella että PS5 ja XSX ovat per FLOPS yhtä nopeita kuin RDNA1, mahdolliset RDNA2:n edut siihen päälle sitten (ja tietenkin myös mahdollisten pullonkaulojen aiheuttamat jarrut mukaan) eikä ne liity tai ota huomioon RT-kiihdytystä mitenkään
 
Nvidia ja AMD ilmoittavat nuo eritavoin, mutta katselin raakanumeroita tuossa yhtenä viikonloppuna molemmista ja laskeskelin asiaa..
 
Nvidia ja AMD ilmoittavat nuo eritavoin, mutta katselin raakanumeroita tuossa yhtenä viikonloppuna molemmista ja laskeskelin asiaa..
Viittisitkö nyt avata tätä prosessia jollain tavoin ja mistä luvuista tarkalleen on kyse?
NVIDIA ei tuosta markkinoinnissaan ainakaan ole ilmoittanut muuta kuin täysin tyhjänpäiväisen "GRays/s" lukeman mikä ei oikeasti kerro yhtään mistään mitään. MS taas on antanut vain suurinpiirtein arvion paljonko tarvittaisiin TFLOPSeja perinteisellä GPU:lla samoihin laskuihin.
 
Viittisitkö nyt avata tätä prosessia jollain tavoin ja mistä luvuista tarkalleen on kyse?
NVIDIA ei tuosta markkinoinnissaan ainakaan ole ilmoittanut muuta kuin täysin tyhjänpäiväisen "GRays/s" lukeman mikä ei oikeasti kerro yhtään mistään mitään. MS taas on antanut vain suurinpiirtein arvion paljonko tarvittaisiin TFLOPSeja perinteisellä GPU:lla samoihin laskuihin.

Muistelisin, että jonkin pelin pyörimisestä MSB VS PC katsoivat tuota mm jossain. Lisäksi noita oli pohdittu jossain olisiko ollut anandin tai tf:n tms foorumilla..
 
Muistelisin, että jonkin pelin pyörimisestä MSB VS PC katsoivat tuota mm jossain. Lisäksi noita oli pohdittu jossain olisiko ollut anandin tai tf:n tms foorumilla..
Muistelet varmaankin Gears 5 -vertailua, missä ei käytetä säteenseurantaa. Siinä siis XSX saatiin pyörittämään peliä ~RTX 2080:n nopeudella samalla laadulla kahdessa viikossa ilman sen kummempia optimointeja.

Minecraftia MS on esitellyt XSX:llä RT päällä mutta mitään suorituskykylukemia tms ei kerrottu.
 
Muistelet varmaankin Gears 5 -vertailua, missä ei käytetä säteenseurantaa. Siinä siis XSX saatiin pyörittämään peliä ~RTX 2080:n nopeudella samalla laadulla kahdessa viikossa ilman sen kummempia optimointeja.

Minecraftia MS on esitellyt XSX:llä RT päällä mutta mitään suorituskykylukemia tms ei kerrottu.
MS:n boxista kannattaa muistaa, että se on hyvin suuressa määrin windows 10 PC, joten pelin saaminen toimimaan siinä muutamassa viikossa, kun MS on vielä koko DX systeemin kehittänyt ei ole mitenkään ihme saavutus.
 
Nvidia ja AMD ilmoittavat nuo eritavoin, mutta katselin raakanumeroita tuossa yhtenä viikonloppuna molemmista ja laskeskelin asiaa..
Boksilla saa n. 16 sädettä ammuttua per pikseli 4k60fps annettujen tietojen valossa (jonkun youtube kanavan video MS:n promotilassa jossa laitetta suunnitelleet avasivat hieman speksejä). Lähtökohtaisesti se on siis merkittävästi nopeampi kuin 2080ti, sillä esim. minecraft lagailee vielä 720p resollakin ja säteitä paukutellaan merkittävästi vähemmän per pikseli ottaen huomioon mm. viiveen varjojen muodostumisessa. 2080ti speksien valossa ampuu jopa 1,8 sädettä per pikseli 4k60 (10GRays/s).
 
Eli et ymmärrä miten joku on eri mieltä? Tämä on juurisyy tällaisiin kinasteluihin. Minusta 1080p näyttää aika rujolta 55" 4K-ruudulta. Paitsi DLSS2.0:lla. Silloin se on ihan siedettävä. TV-kuva ja leffat antaa paljon enemmän anteeksi matalalle resoluutiolle kuin pelit, ei voi verrata.
Sori ei tullut mieleen että joku käyttää 55" näyttöä. Toki jos istuu metrin päässä 55 " näytöstä niin sitten ymmärrän että 1080p ei riitä. Mitä isompi näyttö sen suurempaa resoluutiota tarvitaan, jotta kuva pysyy hienon näköisenä. Luulen että 27" näytössä 1080p voisi olla riittävä (mulla on 24" 1080p näyttö). Yli 30" näytössä ymmärrän jos 1080p tuntuu liian epätarkalta. Kun kirjoitin tuon viestin mulla oli lähinnä mielessä 24" näytöt ja televisiot joita katsotaan vähintään 3m päästä.

Kuinka yleistä että käytössä on yli 30" näyttö tai iso telkkari jota katsotaan 2 metrin päästä tai jopa lyhyemmältä etäisyydeltä?
Muistan että aikanaan sanottiin, että ei pitäisi katsoa televisiota liian läheltä, koska se rasittaa silmiä.
 
Sori ei tullut mieleen että joku käyttää 55" näyttöä. Toki jos istuu metrin päässä 55 " näytöstä niin sitten ymmärrän että 1080p ei riitä. Mitä isompi näyttö sen suurempaa resoluutiota tarvitaan, jotta kuva pysyy hienon näköisenä. Luulen että 27" näytössä 1080p voisi olla riittävä (mulla on 24" 1080p näyttö). Yli 30" näytössä ymmärrän jos 1080p tuntuu liian epätarkalta. Kun kirjoitin tuon viestin mulla oli lähinnä mielessä 24" näytöt ja televisiot joita katsotaan vähintään 3m päästä.

Kuinka yleistä että käytössä on yli 30" näyttö tai iso telkkari jota katsotaan 2 metrin päästä tai jopa lyhyemmältä etäisyydeltä?
Muistan että aikanaan sanottiin, että ei pitäisi katsoa televisiota liian läheltä, koska se rasittaa silmiä.

Ihan hirveätä paskaa jos työpöydällä 27" 1080p, ehkä jos on oikeasti huono näkö niin voi toimia. Tuollaisen näytön menin joskus vuosia sitten ostamaan, pikselikoko liian iso niin teksti näyttää ihan järkyttävän pahalta. 27" koossa 1440p ihan ehdottomasti ellei katseluetäisyys ole metrin luokkaa.
27" 1440p päänäyttönä ja 32" 4k kakkosruutuna nyt, ei edes skaalausta tarvitse käyttää tuon isomman 4k ruudun kanssa. Päänäyttökin varmaan vaihtuu tuonne +30" 4k luokkaan kunhan alkaa 120hz tai yli ja g-sync löytymään sellaisista edes etäisesti järkevään hintaan.
 
Sori ei tullut mieleen että joku käyttää 55" näyttöä. Toki jos istuu metrin päässä 55 " näytöstä niin sitten ymmärrän että 1080p ei riitä. Mitä isompi näyttö sen suurempaa resoluutiota tarvitaan, jotta kuva pysyy hienon näköisenä. Luulen että 27" näytössä 1080p voisi olla riittävä (mulla on 24" 1080p näyttö). Yli 30" näytössä ymmärrän jos 1080p tuntuu liian epätarkalta. Kun kirjoitin tuon viestin mulla oli lähinnä mielessä 24" näytöt ja televisiot joita katsotaan vähintään 3m päästä.

Kuinka yleistä että käytössä on yli 30" näyttö tai iso telkkari jota katsotaan 2 metrin päästä tai jopa lyhyemmältä etäisyydeltä?
Muistan että aikanaan sanottiin, että ei pitäisi katsoa televisiota liian läheltä, koska se rasittaa silmiä.
Aikanaan oli kuvaputkitöllöt, joiden virkistystaajuis oli vain 50 Hz PAL alueella.

Itse en ole päässyt mitään uudempaa pelaamaan isommasta töllöstä, kun en itse töllöä omista, mutta uutena vuonna tuli vähän retropelailtua alle 2m päässä töllöstä ja ei ollut ongelmaa:
IMG_20191231_224330806.jpg


Ja aiheeseen liittyen, io-techin uusi Minecraft RTX/DLSS video:

Ei tuo nyt pahalta vaikuta.
 
Boksilla saa n. 16 sädettä ammuttua per pikseli 4k60fps annettujen tietojen valossa (jonkun youtube kanavan video MS:n promotilassa jossa laitetta suunnitelleet avasivat hieman speksejä). Lähtökohtaisesti se on siis merkittävästi nopeampi kuin 2080ti, sillä esim. minecraft lagailee vielä 720p resollakin ja säteitä paukutellaan merkittävästi vähemmän per pikseli ottaen huomioon mm. viiveen varjojen muodostumisessa. 2080ti speksien valossa ampuu jopa 1,8 sädettä per pikseli 4k60 (10GRays/s).
Se 10GRays/s on ihan tyhjä lukema se ei kerro yhtään mitään yhtään mistään koska NVIDIA ei ikinä kertonut missä tilanteessa ja miten se on laskettu, eikä säteenseuranta ole pelkkää säteiden ampumista muutenkaan.
Se nyt on ihan saletti ettei XSX tule olemaan 8x tehokkaampi säteenseurannassa vrt 2080 Ti niin kuin tuo tekstisi vihjaa.
 
Se 10GRays/s on ihan tyhjä lukema se ei kerro yhtään mitään yhtään mistään koska NVIDIA ei ikinä kertonut missä tilanteessa ja miten se on laskettu, eikä säteenseuranta ole pelkkää säteiden ampumista muutenkaan.
Se nyt on ihan saletti ettei XSX tule olemaan 8x tehokkaampi säteenseurannassa vrt 2080 Ti niin kuin tuo tekstisi vihjaa.
Voit katsoa tuolta.
Vastannee n100 Tflops Kts esim sivu 38
 
Tulevissa konsoleissa RT suorituskyky on alustavien tietojen mukaan alle 2080Ti:n. Konsolien optimointimahdollisuudet eivät tässä oikein auta, sillä jos ei ole suorituskykyä, niin sitten ei ole.
Näinollen vaikuttaa erittäin todennäköiseltä, että 2080Ti tulee riittämään pitkän aikaa. Ja kiitos äskettäin julkaistun kuvanparannuksen varmasti mopommatkin tulevat pyörittämään ainankin yleensä 1080 tilaa paremmin, kuin välttävästi.

Sinun alustavat tiedot on nyt kyllä pielessä.

Sitten on minecraft demo jossa sexbox pyörittelee path tracingillä menemään arvioiden mukaan 40-60FPS 1080p, olisikin mielenkiintoista tietää että onko tää PC puolen minecraft RTX on toteutettu Ray Tracingillä vai Path Tracingillä sillä jälkimmäinen on huomattavasti raskaampi.
 
Sinun alustavat tiedot on nyt kyllä pielessä.

Sitten on minecraft demo jossa sexbox pyörittelee path tracingillä menemään arvioiden mukaan 40-60FPS 1080p, olisikin mielenkiintoista tietää että onko tää PC puolen minecraft RTX on toteutettu Ray Tracingillä vai Path Tracingillä sillä jälkimmäinen on huomattavasti raskaampi.
Path tracing on yksi säteenseurannan muoto ja Minecraft RTX käyttää sitä. Kannattaa katsoa tuo DF video, jossa haastatellaan NVIDIAn insinöörejä asian tiimoilta:
 
Sitten on minecraft demo jossa sexbox pyörittelee path tracingillä menemään arvioiden mukaan 40-60FPS 1080p, olisikin mielenkiintoista tietää että onko tää PC puolen minecraft RTX on toteutettu Ray Tracingillä vai Path Tracingillä sillä jälkimmäinen on huomattavasti raskaampi.
Path tracing on yksi säteenseurannan muodoista, ei se ole mikään "ray tracing vs path tracing" tms.
Ja eiköhän se "Minecraft with RTX" käytä ihan samaa RT-toteutusta kuin konsoliversio, asetuksissa voi olla eroa mutta ei siellä nyt kahta täysin erillistä säteenseurantatoteutusta rakenneta yhteen peliin.

Tarkoitatko sivua 32 ja kuvaa 21?´Taidetaan tarvita parempaa testiä kuin mitä NVIDIA on tuossa käyttänyt, reaalimaailmassa kun tilanne on jotain ihan muuta:
Esim Ray tracing now runs on older Nvidia GPUs - but how fast is it? testeissä GTX 1080 Ti tarjoaa ~45-65% RTX 2080 Ti:n suorituskyvystä, kun GTX luonnollisesti laskee RT-setit "softalla" eli CUDA-ytimillä, mukana 3DMark Port Royal, Battlefield 5 ja Shadow of the Tomb Raider
 
testeissä GTX 1080 Ti tarjoaa ~45-65% RTX 2080 Ti:n suorituskyvystä
Tässä kannattaa vertailla suorituskykyä peleissä joissa on pelkkiä rt elementtejä. Lisäksi jotta keskityttäisiin pelkkään säteenseurantatehoon, niin vertailu kannattaa tehdä 1660 vs 2060 (tai titan V vs 2080 ti), sillä 1080ti joutuu simuloimaan myös denoisen ym. tensor ytimillä tehdyt operaatiot. Kun noi laskee auki niin 1660 ti cuda coret on n. 33% niin nopeita kuin 2060 rtx coret. Aika kaukana nvidian ”10%” arviosta, tai sit turing cuda ytimet on yli kolme kertaa nopeampia kuin edellisen sukupolven ytimet. https://babeltechreviews.com/rtx-qu...e-with-all-rtx-cards-the-gtx-1080-ti-1660-ti/
 
Kuinka yleistä että käytössä on yli 30" näyttö tai iso telkkari jota katsotaan 2 metrin päästä tai jopa lyhyemmältä etäisyydeltä?

Onhan tuo nyt todella yleistä.


Muistan että aikanaan sanottiin, että ei pitäisi katsoa televisiota liian läheltä, koska se rasittaa silmiä.

Niin sanottiin, mutta tuo on ollut niitä vanhoja kansanviisauksia, mitä joku mututohtori on alkanut levittämään. Ei pidä paikkaansa siis, naama voi olla vaikka sentin päässä ruudusta.
 
Boksilla saa n. 16 sädettä ammuttua per pikseli 4k60fps annettujen tietojen valossa (jonkun youtube kanavan video MS:n promotilassa jossa laitetta suunnitelleet avasivat hieman speksejä). Lähtökohtaisesti se on siis merkittävästi nopeampi kuin 2080ti, sillä esim. minecraft lagailee vielä 720p resollakin ja säteitä paukutellaan merkittävästi vähemmän per pikseli ottaen huomioon mm. viiveen varjojen muodostumisessa. 2080ti speksien valossa ampuu jopa 1,8 sädettä per pikseli 4k60 (10GRays/s).
Taas jotain täysin naurettavia vertailuja peleistä ja konsolista joita ei edes ole vielä, puhumattakaan konsolin RT peleistä tai niiden efekteistä.
Ja jaksat tuota verrata johonkin minecraftiin ja vieläpä todeta että nopeampi kuin 2080Ti..

Katsomassa jotain videoita ja tietoja pää siellä ******* ja luullaan että kaikki menee käytännössä niinkuin kerrotaan.
Tarpeeksi kun näemmä kannustaa jotain ei osaa edes epäillä eikä kyseenalaistaa mitään.
Sitten on naama pettyneenä kun tulee faktat pöytään.
 
Kuinka yleistä että käytössä on yli 30" näyttö tai iso telkkari jota katsotaan 2 metrin päästä tai jopa lyhyemmältä etäisyydeltä?
Muistan että aikanaan sanottiin, että ei pitäisi katsoa televisiota liian läheltä, koska se rasittaa silmiä.
Rasittaa silmiä 2metrin päästä?
Ollaanko nyt josain 90 luvulla taas vai missä, toi rasittaa silmiä ei tuskin enään pätee.
KuvaputkiTV joo saattaakin rasittaa tai CRT jollain 60hz jos läheltä katsoo.

78"hommasin makkariin ja sitä pystyy hyvin katsoon n.2.5metrinpäästäkin.
Olkkarin 88" pystyisi vielä mukavasti katsomaan 3 metrin päästäkin tai jos 8K toistaa niin sitten pystyy lähempääkin.
 
Ihan hirveätä paskaa jos työpöydällä 27" 1080p, ehkä jos on oikeasti huono näkö niin voi toimia. Tuollaisen näytön menin joskus vuosia sitten ostamaan, pikselikoko liian iso niin teksti näyttää ihan järkyttävän pahalta. 27" koossa 1440p ihan ehdottomasti ellei katseluetäisyys ole metrin luokkaa.
27" 1440p päänäyttönä ja 32" 4k kakkosruutuna nyt, ei edes skaalausta tarvitse käyttää tuon isomman 4k ruudun kanssa. Päänäyttökin varmaan vaihtuu tuonne +30" 4k luokkaan kunhan alkaa 120hz tai yli ja g-sync löytymään sellaisista edes etäisesti järkevään hintaan.
Itse päivitin näytön niin en nyt ihan osannut sanoa mitä tuo 1080p -> 1440p vaikutti. Mutta samallahan näytön koko kasvoi 24 -> 32. Jep eli jos tuon vanhan resoluution laittaisi tähän näyttöön niin olisihan se aika tuhnu varmaan.

Eli tosiaan näytön koko vaikuttaa aika paljon. Tää 32 1440p on varmaan aika rajoilla tarkkuus vs tuumat suhteen, mutta olen ollut tyytyväinen. Töissä on 27 1440p enkä diggaa siitä kyllä niin paljon.

Seuraavaksi sitten vähän vielä suurempi 4k joskus tulevaisuudessa.
 
Sitten on minecraft demo jossa sexbox pyörittelee path tracingillä menemään arvioiden mukaan 40-60FPS 1080p
DF:n videossa arvioivat (vissiin silmämääräisesti?) demon pyörivän 30-60fps ja siinä esitellään huomattavasti yksinkertaisempaa maisemaa kuin RTX maailmoissa, joita netin benchmarkkaajat ovat enimmäkseen testeissään käyttäneet.

XSX demo voi tosin hyvinkin olla aikaisemman kehitysvaiheen versio pelistä kuin julkinen PC beta ja muutenkin oma haaransa joidenkin teknisten toteutusten suhteen, joten tarkkoja arvioita suhteellisesta suorituskyvystä tällaisten pohjalta on turha lähteä vetämään.

Nykyinen RT teho on tuhnu oli sen kortin valmistaja kuka tahansa. Mielestäni tuo teho pitää vähintään kolminkertaistaa että se alkaa olla jotain muutakin kuin vain techdemo.
Itse olen kyllä paljon optimistisempi tämän suhteen. Veikkaan, että RT-tehoiltaan esim. 2080 - 2080Ti tasoisesta konsoliraudastakin saataisiin taiottua yllättävän näyttäviä ja toimivia tuotoksia ulos, kun ottaa huomioon kaiken sen kehitystyön mitä konsolien elinkaaren aikana ehditään tehdä.

NVIDIAhan otti varaslähdön ja on siitä syystä ollut lähes ainoa kehittäjä näin alkuun. Kehitystyön määrä on kuitenkin kiihtymässä merkittävästi, kun isompien ja pienempien pelitalojen armeija ryhtyy tekemään RT-pelejä uudelle konsoli- ja PC-raudalle.

NVIDIAlla on mm. entistä kustannustehokkaampaa ja skaalautuvaa probepohjaista RTGI-efektiä, jonka pari isoa engineä on ottamassa käyttöön. Ja jos vähän mielikuvitusta/toiveajattelua otetaan mukaan niin ehkäpä esim. jokin Crytek-tyyppinen vokseliratkaisu RT-raudalla kiihdytettynä voisi olla yksi tapa tuottaa efektejä halvemmalla.
 
todeta että nopeampi kuin 2080Ti..
RT ominaisuuksien osalta ihmettelen jos ei tule nopeampaa kuin 2080ti. Sehän on kaikille jo selvää että turingin RT on ihan mopo/techdemo tasolla ja on lähes hyödytöntä tuoda vielä hitaampaa toteutusta mihinkään.
 
Path tracing on yksi säteenseurannan muodoista, ei se ole mikään "ray tracing vs path tracing" tms.
Ja eiköhän se "Minecraft with RTX" käytä ihan samaa RT-toteutusta kuin konsoliversio, asetuksissa voi olla eroa mutta ei siellä nyt kahta täysin erillistä säteenseurantatoteutusta rakenneta yhteen peliin.


Tarkoitatko sivua 32 ja kuvaa 21?´Taidetaan tarvita parempaa testiä kuin mitä NVIDIA on tuossa käyttänyt, reaalimaailmassa kun tilanne on jotain ihan muuta:
Esim Ray tracing now runs on older Nvidia GPUs - but how fast is it? testeissä GTX 1080 Ti tarjoaa ~45-65% RTX 2080 Ti:n suorituskyvystä, kun GTX luonnollisesti laskee RT-setit "softalla" eli CUDA-ytimillä, mukana 3DMark Port Royal, Battlefield 5 ja Shadow of the Tomb Raider
Fakta on nyt kuitenkin se, että tähän mennessä
1. Näytetyssä pelissä 2080Ti oli nopeampi
2. Nvidian teknisissä papereissa, joista laskentaaan liittyvän lukeman saa auki, samaan yksikköön, kuin tuon konsolipiirin ilmoitetun lukeman 2080Ti:n laskentakyky on erittäin selkeästi suurempi.

Jään odottamaan siis nyt konsolis sovellutusta, joka toimii nopeammin, samoilla asetuksilla, kuin PC versio 2080Ti:llä. Se ei vielä riitä, jos on huonommilla asetuksilla nopeampi. Esim minecravrissahan voi säätää heijastuskertojen määrää tms, joka vaikuttaa suuresti sen suorityskykyyn.

Näinollen vaikuttaa, että perinteisen suorituskyvyn LISÄKSI myös RT nopeus on konsolien piireissä 2080Ti:tä pienempi.

Ja jos viitsit lukea tuota Nvidian teknistä dokumenttiä, niin siinäkin on esimerkkejä siitä, miten RT:tä voi käyttää useissa eri tarkoituksessa.
TÄLLÄ hetkellä vaikuttaa siis siltä. että jo 2080 on RTX puoleltaan myös tulevaisuudessa ihan käyttiskamaa, vielä vuosia.
 
Tässä kannattaa vertailla suorituskykyä peleissä joissa on pelkkiä rt elementtejä. Lisäksi jotta keskityttäisiin pelkkään säteenseurantatehoon, niin vertailu kannattaa tehdä 1660 vs 2060 (tai titan V vs 2080 ti), sillä 1080ti joutuu simuloimaan myös denoisen ym. tensor ytimillä tehdyt operaatiot. Kun noi laskee auki niin 1660 ti cuda coret on n. 33% niin nopeita kuin 2060 rtx coret. Aika kaukana nvidian ”10%” arviosta, tai sit turing cuda ytimet on yli kolme kertaa nopeampia kuin edellisen sukupolven ytimet. RTX Quake II IQ and Ultra Performance Benchmarked
GTX Turingeissa ei ole tensoriyksiköitä yhtään sen enempää kuin Pascaleissakaan. Eikä denoisingia muutenkaan tehdä tensoriyksiköillä vissiin yhdessäkään RT-kiihdytetyssä pelissä, vaikka sellaista vaihtoehtoa NVIDIA tarjoaakin.

Fakta on nyt kuitenkin se, että tähän mennessä
1. Näytetyssä pelissä 2080Ti oli nopeampi
2. Nvidian teknisissä papereissa, joista laskentaaan liittyvän lukeman saa auki, samaan yksikköön, kuin tuon konsolipiirin ilmoitetun lukeman 2080Ti:n laskentakyky on erittäin selkeästi suurempi.

Jään odottamaan siis nyt konsolis sovellutusta, joka toimii nopeammin, samoilla asetuksilla, kuin PC versio 2080Ti:llä. Se ei vielä riitä, jos on huonommilla asetuksilla nopeampi. Esim minecravrissahan voi säätää heijastuskertojen määrää tms, joka vaikuttaa suuresti sen suorityskykyyn.

Näinollen vaikuttaa, että perinteisen suorituskyvyn LISÄKSI myös RT nopeus on konsolien piireissä 2080Ti:tä pienempi.

Ja jos viitsit lukea tuota Nvidian teknistä dokumenttiä, niin siinäkin on esimerkkejä siitä, miten RT:tä voi käyttää useissa eri tarkoituksessa.
TÄLLÄ hetkellä vaikuttaa siis siltä. että jo 2080 on RTX puoleltaan myös tulevaisuudessa ihan käyttiskamaa, vielä vuosia.
1. Missä ihmeen näytetyssä pelissä kun mitään tällaista vertailua ei ole missään tehty? Minecraftista boksilla on olemassa vain demo ilman mitään suorituskykylukemia, vain DF:n summittainen arvio näkemänsä perusteella, eikä mitään tietoa käytetyistä asetuksista ja vielä vähemmän samoja maailmoja.
2. Saa auki yhden esimerkin, mikä ei selvästikään hirvittävän hyvin peilaudu todellisiin peleihin. Siinä ei myöskään väitetä "n. 100 tflopsia" kuten ehdotit, vaan sanotaan että ~10x niin nopea kuin 1080 Ti, joka käyttää ~10 TFLOPSia per "gigaray/s" tuossa nimenomaisessa testissä.

Se nyt on ihan itsestäänselvää, ettei sen XSX:n sirun RT-suorituskyky ole kymmenystä 2080 Ti:stä, aivan kuten on selvää ettei 2080 Ti:n RT-suorituskyky ole kahdeksasosaa XSX:stä kuten joku muu tuolla ehdotteli.
 
Viimeksi muokattu:
GTX Turingeissa ei ole tensoriyksiköitä yhtään sen enempää kuin Pascaleissakaan. Eikä denoisingia muutenkaan tehdä tensoriyksiköillä vissiin yhdessäkään RT-kiihdytetyssä pelissä, vaikka sellaista vaihtoehtoa NVIDIA tarjoaakin.
No joku jippo siellä turingissa on sit kuitenkin, sillä 1660ti on nopeampi kuin 1080ti säteenseurannassa.
 
No joku jippo siellä turingissa on sit kuitenkin, sillä 1660ti on nopeampi kuin 1080ti säteenseurannassa.
Niissä on ero ja se on selitettykin.. Pitää yrittää katsoa, löytyisikö uudestaan, siitä on aikaa, kun näin selitystä asiasta.. Muistelisin, että siellä oli jotain tensoriyksiköiden tilalla tms..
 
Niissä on ero ja se on selitettykin.. Pitää yrittää katsoa, löytyisikö uudestaan, siitä on aikaa, kun näin selitystä asiasta.. Muistelisin, että siellä oli jotain tensoriyksiköiden tilalla tms..
Oiskohan ollu joku fp16 suorituskykyero tjsp.
 
Oiskohan ollu joku fp16 suorituskykyero tjsp.
Taisi olla jotain sellaista, oliko nyt niin, että kun tuota tehdään tensoroilla, niin 16xx korteissa on yksiköitä erikseen, joilla tuota tehdään.. Yritin etsiä, mutta noita kuukausien takaisia juttuja vain ei ole helppo löytää..
 
Taisi olla jotain sellaista, oliko nyt niin, että kun tuota tehdään tensoroilla, niin 16xx korteissa on yksiköitä erikseen, joilla tuota tehdään.. Yritin etsiä, mutta noita kuukausien takaisia juttuja vain ei ole helppo löytää..
16xx:ssä ei ole tensoreita, eikä sitä denoisingia vieläkään tehdä tensoreilla vissiin yhdessäkään RT-kiihdytetyssä pelissä paitsi tuossa Metrossa NVIDIAn esimerkin mukaan (enpä tiennyt senkään kyllä käyttävän, mutta battlefieldit jne on erikseen mainittu ettei käytetä)
Siinä on erillisiä FP16-yksiköitä mutta INT32 taitaa olla isompi tekijä vrt Pascal.
 
Sinä elät jonkinlaisessa kuplassa. Ei ihmiset halua maksaa 2000 € tietokoneesta joka toinen vuosi. Ihmiset haluavat käyttää rahansa johonkin muuhun kuin tietokoneeseen. Aika moni käyttää sen mielummin vaikka matkusteluun. Ei myöskään kaikki pelaa viimeisimpiä AAA pelejä, vaan pelaavat vähän vanhempia ja vähemmän vaativia pidempään.

Lisäksi 1080p ja jopa 720p näyttää ihan hyvältä. Näiden ero johonkin 4k resoluutioon on loppujen lopuksi aika pieni, jos vertaa taaksepäin vaikka VHS laatuun. VHS vs 720p ero on paljon suurempi ja helpommin huomattavissa, kuin 720 vs 4k, joten miksi pitäisi maksaa isoja summia, varsin pieneen parannukseen.

Vaikka olisikin varaa maksaa 1200 € pelkästään 2080 ti näytönohjaimesta, niin onko siinä mitään järkeä jos 300 € saa näytönohjaimen (5600 xt) joka on n. 40% (lähde: TPU:n listaus) hitaampi. Mielestäni ei. Mutta jos sinulle hinta/teho suhde on yhdentekevää ja vain paras on kyllin hyvää, niin mikäs siinä sitten, mutta älä oleta että kaikilla olisi varaa ja halua tähän.
Etenkään älä sano että kaikkien tulisi ajatella tästä samalla tavalla, ja sillä tämä ei ole järkevää rahan käyttöä. Vähän kun karsii vaatimuksia, niin voi säästää yli puolet muuhun joskus jopa yli ⅔.

Jos on vastakkain vaikka kahden viikon Kreikan lomamatka + heikompi tietokone ja matka jätetään väliin ja ostetaan se markkinoiden tehokkain tietokone, niin väittäisin että suurin osa haluaa mielummin tämän ensimmäisen vaihtoehdon.

720p vs 4k ero on todella todella iso, varsinkin kun ruutua katsotaan läheltä. Jopa 24" näytön kuvassa olisi todella iso ero selkeydessä, jos toisessa on 720p ja toisessa 4k kuva.

Televesiota katsotaan kuitenkin yleisesti ottaen kauempaa, mutta kyllä esim. Konsolipeleissäkin voi nähdä selkeän eron FHD vs 4k tarkkuuksien välillä.

Sinulle pelaaminen on selkeästi pientä viihdettä tai ajankulua aina välillä. Monelle pelaaminen ja tietokoneiden roplaaminen muutenkin on paljon "vakavampi" harrastus ja siihen ollaan valmiita uhraamaan rahaa ja aikaa, että saadaan oma pelikokemusta semmoiselle tasolle, mikä tuntuu hyvälle.

Enemmin itse otan sitten halvemman "Kreikan natkan" kun alan hirveästi nuukailla itselle tärkeän harrastuksen suhteen. Eikä kukaan normaali tuloinen osta markkinoiden kalleinta ja parasta sen itseisarvon takia, vaan jokainen varmasti katsoo minkä tasoinen laite riittää omien tarpeiden tyydyttämiseen. Toki jos on rahaa kun roskaa, eikä muutama tonni tunnu missään, niin tulee varmasti helposti ostettua sitten sitä parasta joka komponentin kohdalla, vaikka välttis ei tarvisikaan.
 
720p vs 4k ero on todella todella iso
Musta on todella huvittavaa seurata tätä resoluutiokeskustelua. Ensin sanotaan että 720p on epätarkkaa suttua, mutta sit ku se skaalataan ja sen jälkeen yliterävöitetään jotta saataisiin illuusio tarkkuudesta, niin kyseessä on jumalan lahja maailmalle.
 
Musta on todella huvittavaa seurata tätä resoluutiokeskustelua. Ensin sanotaan että 720p on epätarkkaa suttua, mutta sit ku se skaalataan ja sen jälkeen yliterävöitetään jotta saataisiin illuusio tarkkuudesta, niin kyseessä on jumalan lahja maailmalle.
Enemmän tämmöset pöljät yksinkertaistukset huvittaa. Kannattaa googlettaa dlss 2.0 ennen tuommosia epämääräsiä kommentteja. :)
 
Enemmän tämmöset pöljät yksinkertaistukset huvittaa. Kannattaa googlettaa dlss 2.0 ennen tuommosia epämääräsiä kommentteja. :)
Teeppä itse sama :facepalm:
Jotkut tykkää syödä koirankakkaa kultahileillä, osalle se ei maistu vaikka kuinka naamioisi.

jos kuvasta löytyy terävöitysartefakteja, niin se on yliterävöitetty. Noin ihan siis määritelmän mukaan. Skaalausosan toi dlss näyttäisi tekevän havaittavasti paremmin kuin mitä bilineaarinen skaalaus, mutta ei sekään yksityiskohtia tyhjästä voi nyhjäistä, tätä ongelmaa sit paikkaillaan tolla yliterävöityksellä ja jonnet ihmettelee kun on tarkempi kuin natiivi!, mutta sehän on väärin rendattu jos lopputulos selvästi eroaa natiivista. Bonuksena kauheat artefaktit kaikkialla (lähinnä siitä terävöityksestä) ja mitään kuvankäsittelystä ymmärtävien silmät vuotaa verta. :rofl2:
 
Viimeksi muokattu:
Teeppä itse sama :facepalm:
Jotkut tykkää syödä koirankakkaa kultahileillä, osalle se ei maistu vaikka kuinka naamioisi.
Tämäkin vaikuttaa aika turhalta kommentilta. Kuten hyvin tiedät, dlss 2.0 ei ole vain skaalaamista ja normaalia terävöittämistä. Ei kannata esiintyä noin hassun fiksuna, jos tekstissäsi ei ole faktuaalista sisältöä ollenkaan.
 
  • Tykkää
Reactions: aop
Teeppä itse sama :facepalm:
Jotkut tykkää syödä koirankakkaa kultahileillä, osalle se ei maistu vaikka kuinka naamioisi.

Mikä järki täällä on asiasta muille mäkistä? Jos ei sinulle kelpaa, niin ole ilman. Se on kuitenkin selvää, että on iso ero skaalataanko se 720p bilineaarisesti vai DLSS2.0:lla. Siinä välillä se muuttuu epätarkasta sutusta "jumalan lahjaksi".
 
Tämäkin vaikuttaa aika turhalta kommentilta. Kuten hyvin tiedät, dlss 2.0 ei ole vain skaalaamista ja normaalia terävöittämistä. Ei kannata esiintyä noin hassun fiksuna, jos tekstissäsi ei ole faktuaalista sisältöä ollenkaan.
Joo onhan sillä skaalaimella tiedossa jotain nopeusvektoreitakin, että sinänsä ei ole kyse ihan pelkästä kuvan skaalaamisesta. Se että skaalauksessa käytetään kOnE oPPimiStA, ei tosin muuta yleisesti ottaen mitään. Eihän tota dlss2.0 algoritmia edes opeteta pelikohtaisella datalla enää, niin ei se ihan oikeasti voi luoda yksityiskohtia mitä se ei näe.
 
jos kuvasta löytyy terävöitysartefakteja, niin se on yliterävöitetty. Noin ihan siis määritelmän mukaan. Skaalausosan toi dlss näyttäisi tekevän havaittavasti paremmin kuin mitä bilineaarinen skaalaus, mutta ei sekään yksityiskohtia tyhjästä voi nyhjäistä, tätä ongelmaa sit paikkaillaan tolla yliterävöityksellä ja jonnet ihmettelee kun on tarkempi kuin natiivi!, mutta sehän on väärin rendattu jos lopputulos selvästi eroaa natiivista. Bonuksena kauheat artefaktit kaikkialla (lähinnä siitä terävöityksestä) ja mitään kuvankäsittelystä ymmärtävien silmät vuotaa verta. :rofl2:
Control on ainoa peli jonka kohdalla yliterävöitystä on aiheen kritisoida, muissa sitä ei ole tai siitä pääsee eroon. Lähinnä hyviä arvostelujahan DLSS 2.0 on saanut sitä syynänneiltä tekniikkasaiteilta. Ehkäpä eivät sitten ymmärrä kuvankäsittelystä mitään. ¯\_(ツ)_/¯
 

Statistiikka

Viestiketjuista
259 451
Viestejä
4 512 602
Jäsenet
74 370
Uusin jäsen
garlicbun

Hinta.fi

Back
Ylös Bottom