AMD julkisti RDNA2-arkkitehtuurin ja Radeon RX 6000 -sarjan näytönohjaimet

(valmistajan ylihehkutukset)


No jaa.

Luvattu:
BFV 122%, Metro Exodus 115%

Toteutunut:
BFV 114% , Metro Exodus 104%

10% sinne tai tänne, kukas näitä niin tarkkaan laskee :think:

Mutta vakavammin: odotellaan oikeat luvut, ei päässyt 3070 täysin 2080ti:n tasolle kaikessa ja hyvin todennäköisesti 6000-sarjan luvutkin elää kun niitä päästään objektiivisesti tutkimaan. Siihen kellotuspotentiaalit ja SAMit päälle niin onhan siinä soppaa selvitettäväksi että kenellä se kolmen FPS:n etu on.
Bäfässä ei ole vakioitua sisäistä benchmarkkia. Suhteellinenkin ero vaihtelee sen mukaan missä kohti peliä testi on suoritettu(korttien ominaisuudet ja ajurit vaikuttaa) ja harvoin on niin pitkä että keskiarvo tasoittuisi. Kellään ei ole niin paljon aikaa yhden pelin testaamiseen yhdellä kortilla. Se että suhteelliset erot eivät ole samat eri testien välillä ei tarkoita että yksi niistä on oikeassa ja loput väärässä.
 
Niin, taitaa vaan DLSS:n päälle kytkeminen usein tuottaa paremman lopputuloksen kuin muita asetuksia tiputtamalla, jos siis halutaan sama fps.
Menee jo vähän tän aiheen ohitse, mutta tälläiset DLSS sitä ja tätä jutut on siitä naurettavia, että vaikka ja kuinka maailma kehittyy ja nämä tekniikat kehittyy, niin skaalaaminen on (loputuloksesta huolimatta) skaalaamista. Vaikka se mitenkä hienosti tehtäisiin supertietokoneita avuksi käyttäen. Se vääristää touhua. Nyt puhutaan PC:istä eli sieltä missä on kaikista kovimmat hinnat ja kaikista kovimmat tehot. Noi skaalaamiset ymmärtää alustoilla mitkä on aina samanlaisia ja tehoa on se rajattu määrä. Tuo tie, että aletaan vertailemaan seuraavaksi, että kuka skaalaa parhaiten tekee vertailemisesta aivan mahdotonta, joten käytännössä on pakko pysyä siellä kovassa rautamaailmassa missä ei kikkailla.
 
Menee jo vähän tän aiheen ohitse, mutta tälläiset DLSS sitä ja tätä jutut on siitä naurettavia, että vaikka ja kuinka maailma kehittyy ja nämä tekniikat kehittyy, niin skaalaaminen on (loputuloksesta huolimatta) skaalaamista. Vaikka se mitenkä hienosti tehtäisiin supertietokoneita avuksi käyttäen. Se vääristää touhua. Nyt puhutaan PC:istä eli sieltä missä on kaikista kovimmat hinnat ja kaikista kovimmat tehot. Noi skaalaamiset ymmärtää alustoilla mitkä on aina samanlaisia ja tehoa on se rajattu määrä. Tuo tie, että aletaan vertailemaan seuraavaksi, että kuka skaalaa parhaiten tekee vertailemisesta aivan mahdotonta, joten käytännössä on pakko pysyä siellä kovassa rautamaailmassa missä ei kikkailla.
Skaalausta on AMD harrastanut jo pitkän tovin, ainakin xbox360 ajoilta asti (rendausreso harvoin oli se, mitä pistettiin töllölle), eli kyllä siitä pitäisi olla ihan riittävissä määrin kokemusta myös AMD:llä. Ylipäätään. tuo DLSS/super resolution on ihan jepa keino saada juttuja pyörimään näytön natiiviresolle, jos se ei sillä ennestään jo pyöri. Onhan sitä ennenkin säädetty nuppeja pienemmälle/muutettu kuvanlaatuasetuksia, jos jokin peli ei pyöri riittävän hyvin ja tuo vaikuttaisi olevan ihan jepa keino toteuttaa se kuvanlaadun paljoakaan kärsimättä. Arvosteluihin se tuonee vain yhden sliden lisää, itse vertailun uskon tehtävän yhä natiiviresolla. Eiköhän sitä varsinaisissa arvosteluissa nähdä vaikutukset sekä laatuun että nopeuteen super resolution päällä ja pois, vastaavasti miten näitä DLSS-vaikutuksia on päässyt vertailemaan. 6xxx revikoita odotellessa siis. (se että jokin peli xyz näyttää jopa paremmalta dlss päällä kun natiiviresolla jättänen hieman vielä kyseenalaiseksi, onhan moni peli paaljon paremman näköinen kun blurreja, doffia ja vaikka ambient occlusionia nappaa pykäliä paria pienemmälle, jolloin kuitekaan ei olla siellä "kaikki kaakossa" asennossa)
 
Omasta mielestäni jos unohtaa tämän hiusten halkomisen suuntaan tai toiseen, nyt kummankin leirin korteissa on valinnanvaraa 3070 vs 6800, 3080 vs 6800xt, mitä tahansa noista nyt ottaa ei voi mennä pieleen. Melkeinpä makuasia sen jälkeen mitä asiaa haluaa jommalta kummalta leiriltä painottaa, riittääkö ram (mielestään) omaan käyttöön, ynm detailit. 1440p pelailuun tai 4k pelailuun.

3090 onkin sitten selkeä poikkeus, hintansa takia ei oikein suositeltava. Eiköhän sitäkin viilata kun 6900xt:täkin alkaa löytyä hyllystä.

Loistavaa aikaa viimein pelaajille:sclap:
 
Skaalausta on AMD harrastanut jo pitkän tovin, ainakin xbox360 ajoilta asti (rendausreso harvoin oli se, mitä pistettiin töllölle), eli kyllä siitä pitäisi olla ihan riittävissä määrin kokemusta myös AMD:llä. Ylipäätään. tuo DLSS/super resolution on ihan jepa keino saada juttuja pyörimään näytön natiiviresolle, jos se ei sillä ennestään jo pyöri. Onhan sitä ennenkin säädetty nuppeja pienemmälle/muutettu kuvanlaatuasetuksia, jos jokin peli ei pyöri riittävän hyvin ja tuo vaikuttaisi olevan ihan jepa keino toteuttaa se kuvanlaadun paljoakaan kärsimättä. Arvosteluihin se tuonee vain yhden sliden lisää, itse vertailun uskon tehtävän yhä natiiviresolla. Eiköhän sitä varsinaisissa arvosteluissa nähdä vaikutukset sekä laatuun että nopeuteen super resolution päällä ja pois, vastaavasti miten näitä DLSS-vaikutuksia on päässyt vertailemaan. 6xxx revikoita odotellessa siis. (se että jokin peli xyz näyttää jopa paremmalta dlss päällä kun natiiviresolla jättänen hieman vielä kyseenalaiseksi, onhan moni peli paaljon paremman näköinen kun blurreja, doffia ja vaikka ambient occlusionia nappaa pykäliä paria pienemmälle, jolloin kuitekaan ei olla siellä "kaikki kaakossa" asennossa)
On skaalausta tehty tosiaan ennenkin. Mutta tämä suuntaus ja sen hyväksyminen on sama kuin alettaisiin antamaan formuloissa tai juoksukisoissa tyylipisteitä. Että nopein ei enää voitakkaan jos ei juokse määrätyllä tyylillä. Se on sitten loputon suo ja vertailtavuus laskee luokattomaksi. Se, että otat asetuksia pienemmäksi tekee saman joka laitteella, se miten se skaalaus menee ei taas toimi samalla tavalla, kun sille ei ole olemassa yhtä standardia vaan porukka kilpailee keskenään. Siksi tuo koko DLSS/Super Sampling minkä nimen se ja tää keksiikään seuraavaksi pitäisi käyttäjien heittää romukoppaan, koska tuolle tielle me kuluttajina emme halua lähteä.

Ja kun seuraavaksi joku sanoo, että sitten ei 4k voi sitä ja 8k tätä, niin tiedän, se on se hinta siitä annatko paholaiselle sen pikkusormen ja menee koko käsi, vai teetkö juurikin sen mitä ne myyjät eivät halua, eli et suostu niiden toimintaan. Tuolla tiellä tullaan näkemään päivä kun ne DLSS:t yms. on se perus juttu ja silloin kuluttaja hävisi ja firma(t) voitti. Tähän asti tilanne on ollut helppoa kun DLSS kin oli huono toiminnaltaan. DLSS 2.0 on jo niin hyvä, että houkutus vastustaa kiusausta vain on suunnattoman suuri ja loppukädessä kuluttaja häviää, vaikka hetken se onkin juhlallista kun kaikki toimii hyvin.
 
Joskus vuosituhannen vaihteessahan korttien vertailussa oli mukana myös kuvanlaadun silmämääräinen arviointi, kun tilanne oli se, että vähän vaihtelevasti joku korttivalmistajista yritti aina oikoa rendauksessa ja jälki oli vähän mitä sattuu. Eli vaikka oli (tai ei edes välttämättä ollut) nopein kortti niin jälki saattoi olla tarkemmassa syynissä ihan suttua ja pahimmillaan jopa jotain objekteja jäi piirtämättä ruudulta.

edit: Ja pointti siis oli että olisi hienoa jos nopeusvertailu saataisiin tehtyä niin että jokainen ruutu on rendattu ns. täydellisesti, että jokainen pikseli olisi jokaisella kortilla identtinen. Sitten jos se "referenssilaadun" vauhti on liian kankeaa niin pelaajat voisivat itse ruuvata "suttuasetukset" kehiin.
 
Joskus vuosituhannen vaihteessahan korttien vertailussa oli mukana myös kuvanlaadun silmämääräinen arviointi, kun tilanne oli se, että vähän vaihtelevasti joku korttivalmistajista yritti aina oikoa rendauksessa ja jälki oli vähän mitä sattuu. Eli vaikka oli (tai ei edes välttämättä ollut) nopein kortti niin jälki saattoi olla tarkemmassa syynissä ihan suttua ja pahimmillaan jopa jotain objekteja jäi piirtämättä ruudulta.

edit: Ja pointti siis oli että olisi hienoa jos nopeusvertailu saataisiin tehtyä niin että jokainen ruutu on rendattu ns. täydellisesti, että jokainen pikseli olisi jokaisella kortilla identtinen. Sitten jos se "referenssilaadun" vauhti on liian kankeaa niin pelaajat voisivat itse ruuvata "suttuasetukset" kehiin.
Onneksi nämäkin huijaukset paljastui ja ne keskittyi lähinnä kusettamiseen jossain yksittäisissä testiohjelmissa. Tästähän nimen omaan päästiin eroon sillä, että kuluttajat nosti haloon ja firmojen oli taivuttava kuluttajien tahtoon ja rehellisyyteen. Nyt ne yrittää samaa uudestaan, vähän vain hienostuneemmilla tavoilla.
 
Hyvä julkaisu AMD:lta, tosin eipä RTX 3000 -sarjassakaan tehojen puolesta mitään vikaa ollut. Tämä RT & DLSS-tilanne vaan menee jännäksi, kun ei tiedä, mikä peli tukee kenenkin toteutusta. Tulee ihan 3Dfx Glide vs. Direct3D -ajat mieleen. No, RX 5700 XT riittää vielä toistaiseksi niin voi seurata sivusta, kuinka tämä kehittyy.
 
Hyvä julkaisu AMD:lta, tosin eipä RTX 3000 -sarjassakaan tehojen puolesta mitään vikaa ollut. Tämä RT & DLSS-tilanne vaan menee jännäksi, kun ei tiedä, mikä peli tukee kenenkin toteutusta. Tulee ihan 3Dfx Glide vs. Direct3D -ajat mieleen. No, RX 5700 XT riittää vielä toistaiseksi niin voi seurata sivusta, kuinka tämä kehittyy.

Toisaalta kaikki dx pelit on standardi dxr apin päällä. Vulkan api:lle ei vielä ole standardia säteenseurantaan. Toki pelienginet on todennäköisesti optimoitu toimimaan hyvin nvidian dxr toteutuksen kanssa. AMD:lla/Pelintekijöillä lienee työtä tehtävänä, että dxr saadaan optimoitua.

Tämä on hyvä diasetti. Näkee hyvin miten paljon engineissä kikkaillaan, että saadaan dxr suorituskykyä ylöspäin

 
Pientä osviittaa RT suorituskyvystä on kaiveltavissa esiin näemmä RDNA2 sivun footnoteseista:

Measured by AMD engineering labs 8/17/2020 on an AMD RDNA 2 based graphics card, using the Procedural Geometry sample application from Microsoft’s DXR SDK, the AMD RDNA 2 based graphics card gets up to 13.8x speedup (471 FPS) using HW based raytracing vs using the Software DXR fallback layer (34 FPS) at the same clocks. Performance may vary. RX-571

Eli DXR SDK:n testiohjelmalla on saatu 471 FPS, alla olevan tweetin mukaan 6800XT:llä (vaikka sitähän tuossa ei kyllä suoraan sanota enkä löydä ainakaan tuolta sivulta mitään vihjettä mistä näin voisi päätellä). Kyseinen esimerkkiohjelma on vapaasti saatavilla (löytyy githubista) joten luonnollisesti sitä on ajettu muillakin korteilla. 3080 TUF täräyttää 630 fps lukeman ja 2080 ilmeisesti yltää 308 fps:ään.

Setupit on tietysti muuten täysin tuntemattomat, AMD:n testit ajettu jo pari kuukautta sitten eli optimointeja on voitu tehdä, kortista ei ole varmuutta, testi on erittäin simppeli (softallakin yli 30fps) eli ei kuvaa juuri pelisuorituskykyä eikä varsinkaan kerro mitään siitä miten AMD:n arkkitehtuuri tasapainoilee RT-kuorman ja "muun" kuorman kanssa.

Mutta jos lukemat antaa yhtään suuntaa niin a) ei ihme ettei juuri meuhkattu julkkiksessa RT:stä kun ollaan reilusti jäljessä Amperea b) suorituskyky on itse asiassa hiukan parempi kuin itse pelkäsin, varsinkin jos se vielä tuosta skaalautuu ylöspäin.

 
Itse en lähtisi kyllä minkään valmistajan hehkutuksesta "tasan ne menevät" vetämään mitään johtopäätöksiä. Valmistajien hehkutukset kun voivat olla hyvinkin sellaisia, jotka eivät sitten käytännössä toteudu. Varsinkin AMD:llä on perinteisesti viime julkaisuissa ollut GPU puolella tätä ongelmaa.
Se, että nvidia veti tuonkin asian vihkoon tässä julkaisussa ei automaattisesti tarkoita, että AMD:n luvut olisivat samanlaista liiottelua. Vain testit sen sitten kertoo vasta.
 
Mielestäni täydellinen julkasu, enään ei tarvi mieittä värejä vaan molemmilta löytyy vaihtoehto. Se että miten pärjää kumpiki valmistaja ilman "virityksiään" ja niiden kanssa ei heilauta vaakaa sinänsä kuin keksimääräsesti muutaman prosentin suuntaan tai toiseen. Pääasia että tarjontaa on eikä siitä mielestäni tarvii sen enempää vääntää, jokanen ostaa mitä parhaaksi näkee...enään ei oo kilpailusta kiinni.
 
Se, että nvidia veti tuonkin asian vihkoon tässä julkaisussa ei automaattisesti tarkoita, että AMD:n luvut olisivat samanlaista liiottelua. Vain testit sen sitten kertoo vasta.
AMD:llä on ko asian kanssa pieleen menosta GPU puolella varsinkin jo perinteet, joten kannattaa nyt vain odottaa niitä kolmansien osapuolten kattavia testejä ennen hehkutteluja ja mopojen keulimisia..
Asian pitäisi kyllä selvitä parissa kuukaudessa..
 
AMD:llä on ko asian kanssa pieleen menosta GPU puolella varsinkin jo perinteet, joten kannattaa nyt vain odottaa niitä kolmansien osapuolten kattavia testejä ennen hehkutteluja ja mopojen keulimisia..
Asian pitäisi kyllä selvitä parissa kuukaudessa..
Sitä juuri sanoin, että ei voi tietää ennen testejä onko liioteltu suorituskykyä, kuten nvidia teki vai onko linjassaan. Tuskin kuitenkaan näytetty liian pieniä suorituskykylukemia.
 
Kuvittelisin että 8K pelaaminen korkeammilla hertseillä vie vielä sellaiset 5-10v.

Tuo on aika hyvä veikkaus, lähempänä varmaan tuota kymmentä vuotta. High-hertz 4K tuli mahdolliseksi nyt julkistetuilla korteilla ja 8K samoilla hertseillä tarvitsee nelinkertaiset tehot.
 
Toisaalta kaikki dx pelit on standardi dxr apin päällä. Vulkan api:lle ei vielä ole standardia säteenseurantaan. Toki pelienginet on todennäköisesti optimoitu toimimaan hyvin nvidian dxr toteutuksen kanssa. AMD:lla/Pelintekijöillä lienee työtä tehtävänä, että dxr saadaan optimoitua.

Toisaalta GN oli kysellyt AMD:ltä mitkä dxr/rt-pelit toimisivat launchissa ja sieltä ei oikein luvattu yhtään mitään, eli jää nähtäväksi miten helposti tuo menee.
 
Toisaalta GN oli kysellyt AMD:ltä mitkä dxr/rt-pelit toimisivat launchissa ja sieltä ei oikein luvattu yhtään mitään, eli jää nähtäväksi miten helposti tuo menee.

Mä epäilen, että worst case ne pelit toimisivat, mutta jos suorituskyky on optimoimaton niin amd estää niiden toimimisen siihen asti, että suorituskyky on kohdallaan. Tuolla keinoin välttää isot lööpit, jos perffi on nyt sikahuono, mutta 6kk päästä kohdallaan.

imho. jos amd ei saa toimimaan cyberpunk2077:sta launch:ssa ray tracen kanssa niin se ei ole kovin miellyttävää high end kortin ostajan mielestä. Toki osa ei siitä välitä, mutta kai high end kortin ostaja haluaa kaikki ominaisuudet päälle? Ainakin mun silmään cyberpunkin promopätkissä säteenseuranta on näyttänyt namilta. Eli amd:n kengissä jos olisin niin satsaisin säteenseurantapaukut cyberpunk:iin ja muut pelit myöhemmin, jos on pakko tehdä kompromissia.
 
Viimeksi muokattu:
AMD:llä on ko asian kanssa pieleen menosta GPU puolella varsinkin jo perinteet, joten kannattaa nyt vain odottaa niitä kolmansien osapuolten kattavia testejä ennen hehkutteluja ja mopojen keulimisia..
Asian pitäisi kyllä selvitä parissa kuukaudessa..
No höpsönlöpsön ole mitään "perinteitä" mistään pieleenmenosta. Parissa julkaisussa ovat turvautuneet normaalista poikkeaviin asetuksiin optimisuorituskyvyn löytämiseksi, mutta nekin luvut olivat toistettavissa.
Muutoin kyse on ollut lähinnä cherrypickaamisesta mitä tekee jok'ikinen valmistaja.
 
Pientä osviittaa RT suorituskyvystä on kaiveltavissa esiin näemmä RDNA2 sivun footnoteseista:



Eli DXR SDK:n testiohjelmalla on saatu 471 FPS, alla olevan tweetin mukaan 6800XT:llä (vaikka sitähän tuossa ei kyllä suoraan sanota enkä löydä ainakaan tuolta sivulta mitään vihjettä mistä näin voisi päätellä). Kyseinen esimerkkiohjelma on vapaasti saatavilla (löytyy githubista) joten luonnollisesti sitä on ajettu muillakin korteilla. 3080 TUF täräyttää 630 fps lukeman ja 2080 ilmeisesti yltää 308 fps:ään.

Setupit on tietysti muuten täysin tuntemattomat, AMD:n testit ajettu jo pari kuukautta sitten eli optimointeja on voitu tehdä, kortista ei ole varmuutta, testi on erittäin simppeli (softallakin yli 30fps) eli ei kuvaa juuri pelisuorituskykyä eikä varsinkaan kerro mitään siitä miten AMD:n arkkitehtuuri tasapainoilee RT-kuorman ja "muun" kuorman kanssa.

Mutta jos lukemat antaa yhtään suuntaa niin a) ei ihme ettei juuri meuhkattu julkkiksessa RT:stä kun ollaan reilusti jäljessä Amperea b) suorituskyky on itse asiassa hiukan parempi kuin itse pelkäsin, varsinkin jos se vielä tuosta skaalautuu ylöspäin.


Ihan vertailun vuoksi niin GTX 1070 (oma) saa tuossa 108FPS. Hieman ihmettelen noita AMD:n lukuja.
 
Skaalausta on AMD harrastanut jo pitkän tovin, ainakin xbox360 ajoilta asti (rendausreso harvoin oli se, mitä pistettiin töllölle), eli kyllä siitä pitäisi olla ihan riittävissä määrin kokemusta myös AMD:llä. Ylipäätään. tuo DLSS/super resolution on ihan jepa keino saada juttuja pyörimään näytön natiiviresolle, jos se ei sillä ennestään jo pyöri. Onhan sitä ennenkin säädetty nuppeja pienemmälle/muutettu kuvanlaatuasetuksia, jos jokin peli ei pyöri riittävän hyvin ja tuo vaikuttaisi olevan ihan jepa keino toteuttaa se kuvanlaadun paljoakaan kärsimättä. Arvosteluihin se tuonee vain yhden sliden lisää, itse vertailun uskon tehtävän yhä natiiviresolla. Eiköhän sitä varsinaisissa arvosteluissa nähdä vaikutukset sekä laatuun että nopeuteen super resolution päällä ja pois, vastaavasti miten näitä DLSS-vaikutuksia on päässyt vertailemaan. 6xxx revikoita odotellessa siis. (se että jokin peli xyz näyttää jopa paremmalta dlss päällä kun natiiviresolla jättänen hieman vielä kyseenalaiseksi, onhan moni peli paaljon paremman näköinen kun blurreja, doffia ja vaikka ambient occlusionia nappaa pykäliä paria pienemmälle, jolloin kuitekaan ei olla siellä "kaikki kaakossa" asennossa)
Skaalaus on joko pikselien monistamista tai verrattavissa lähinnä anti-aliasointiin. Ei mikään algoritmi osaa keksiä puuttuvaa informaatiota takaisin.
 
Itse en lähtisi kyllä minkään valmistajan hehkutuksesta "tasan ne menevät" vetämään mitään johtopäätöksiä. Valmistajien hehkutukset kun voivat olla hyvinkin sellaisia, jotka eivät sitten käytännössä toteudu. Varsinkin AMD:llä on perinteisesti viime julkaisuissa ollut GPU puolella tätä ongelmaa.

Itse taas muistelisin että AMD on nimenomaan kunnostautunut siinä että ei ole enää lapinlisää tuloksissa. Ja kun noita testituloksia katselee niin sinne olisi varmaan voitu myös poimia kirsikoina kaikki sellaisia pelejä joissa mennään ohi, mutta nyt vaikuttaa siltä että ihan rehdisti näytetään myös niitä heikompia tuloksia jossa kaveri vie.

Ja lavalla esim. Lisan sanat oli tarkasti harkittuja. Zen 3 julkkarissa suoraan rummutettiin että maailman paras peliprossu koska tietäävät että se on totta. RX6000 julkkarissa näin röyhkeästi ei sanottu, vaan sanottiin leading edge performance.
Koska rasteroinnissa voidaan vaikka ollakin käressä, mutta se on jo nyt varmaa että RT puolella ei pärjätä niin jos olisi kehuttu maailman parhaaksi niin se olisi kostautunut hirmusena paskamyrskynä interwebissä.

Mutta toisille kun mikään ei ole hyvä, ainoastaan välttävä.
 
Ne ihmiset jotka maksaa 1500€ 10%:ia 3080:a nopeammasta näyttiksestä niin luuletko että heitä kuten minua se hinta hirveenä liikuttaa?

Se ryhmä haluaa parasta ja 8K edustaa sitä.

4K:sta on tulossa pikkuhiljaa mainstreamia niille jotka haluaa vähän parempaa kuin 1080p/1440p ja 8K on niille jotka haluaa sitä kaikista parasta ja joilla on varaa.

Ja katsoin io techin 8K testin, siinä tehtiin se iso virhe että käytettiin liian pientä 8K näyttöä niin eroja ei huomannut selkeästi jolloin myös mielestäni testin tuloksen johtopäätös vääristyi, mutta se on toisen topicin aihe.
Koita nyt päättää mitä pidät tärkeänä 8k pelaamista, vai jokin aika sitten rummuttamaasi 1080p low-settings 360 hz pelaamista.

Alkaa tuntua että aihe vaihtuu sen mukaan miten suosikkivalmistajasi: NVIDIA ja intel pärjää.
 
Eivät nuo 8K-televisiot enää hirmuisia maksa.
55-tuumainen LG IPS @1293,79 €
Tukee 8K@60Hz ja 4K@120Hz (HDMI 2.1)
Jos laittaa 55" 4k ja 8k töllön vierekkäin niin näkeekö mitään eroa kuvassa joltain järkevältä etäisyydeltä?

Jotenkin tuntuu että vaatisi isomman ruudun ja ne isommat ruudut maksaa (70"+)
 
Jos laittaa 55" 4k ja 8k töllön vierekkäin niin näkeekö mitään eroa kuvassa joltain järkevältä etäisyydeltä?

Jotenkin tuntuu että vaatisi isomman ruudun ja ne isommat ruudut maksaa (70"+)
Jos teet sellaista työtä, jossa käsitellään isoja kuvia (esimerkiksi satelliittikuvia) tai vaikka karttoja/karttadataa, suuremmasta resoluutiosta on aina hyötyä. Ja eron kyllä näkee selvästi.
Pelaamisasioihin ja muuhun viihdekäyttöön en halua kommentoida mitään.
 
Jos laittaa 55" 4k ja 8k töllön vierekkäin niin näkeekö mitään eroa kuvassa joltain järkevältä etäisyydeltä?

Jotenkin tuntuu että vaatisi isomman ruudun ja ne isommat ruudut maksaa (70"+)
FoV 110 astetta ja oot optimissa tolle resoluutiolle. Tietokonenäytölle tyypillisellä etäisyydellä hyvä, toihan vastaa vaan neljän 27 tuumaisen 4k näytön setuppia. Telkkariksi auttamattoman pieni, ei olkkarissa ole moisesta mitään hyötyä.
 
FoV 110 astetta ja oot optimissa tolle resoluutiolle. Tietokonenäytölle tyypillisellä etäisyydellä hyvä, toihan vastaa vaan neljän 27 tuumaisen 4k näytön setuppia. Telkkariksi auttamattoman pieni, ei olkkarissa ole moisesta mitään hyötyä.
Eikö tuo ole jo liian iso? 43" on havaintojeni mukaan optimi työpöytäkäytössä käsivarren mitan päästä. Mutta ehkä siihen tottuu, kunhan saa näytön tarpeeksi alas. Tuo 43" 4K on neljä 24" FullHD:ta, minulle aika passeli.
 
Eikö tuo ole jo liian iso? 43" on havaintojeni mukaan optimi työpöytäkäytössä käsivarren mitan päästä. Mutta ehkä siihen tottuu, kunhan saa näytön tarpeeksi alas. Tuo 43" 4K on neljä 24" FullHD:ta, minulle aika passeli.
VR laseissakin toi 110 asteen FoV yhdistettynä tarkkaan kuvaan on kuulemma se graalin malja immersiivisyyden kannalta. Miksi työpöydällä tilanne olisi eri?

Henkilökohtaisesti en moista tässä vaiheessa haaveile matalista hertsiluvuista johtuen. Lisäksi noi nykymallit on joko todella kalliita tai hohkaa lämpöä aika paljon.

Muutama vuosi sitten 9 näytön eyefinity oli hienoin juttu ikinä vaikkapa lentosimupelaajille, nyt sen saa kätevästi yhdellä näytöllä ja kaapelilla kiinni tietokoneeseen.
 
VR laseissakin toi 110 asteen FoV yhdistettynä tarkkaan kuvaan on kuulemma se graalin malja immersiivisyyden kannalta. Miksi työpöydällä tilanne olisi eri?
Koska VR-lasit on suunniteltu kattamaan koko ihmisen näkökenttä (tai mahdollisimman suuri osa sitä) "luonnollisesti", näet vain sen, et ympäröivää oikeaa maailmaa. Näytöt sen sijaan ovat "tauluja" joita katselet keskellä muuta maailmaa, jolloin tilanne muuttuu ainakin IMO merkittävästi.
 
Näyttöihin silmä tarkentaa johonkin 60-100cm etäisyydelle - VR-laseilla silmän mykiön tarkennuspiste on yleensä merkittävästi kauempana, vähintään useammissa metreissä, ellei jopa äärettömyydessä.

Ei niitä oikein voi verrata silmän kannalta toisiinsa.
 
Koska VR-lasit on suunniteltu kattamaan koko ihmisen näkökenttä (tai mahdollisimman suuri osa sitä) "luonnollisesti", näet vain sen, et ympäröivää oikeaa maailmaa. Näytöt sen sijaan ovat "tauluja" joita katselet keskellä muuta maailmaa, jolloin tilanne muuttuu ainakin IMO merkittävästi.
Toki tästäkin saa olla montaa mieltä, mutta itse en kaipaa takaisin postimerkkinäyttöjen maailmaan vaan suunta on selvästi isompaan päin. Eihän toi ole kuin kaksi sampan G9 näyttöä päällekkäin, ei kuulosta kovin dramaattiselta.

Ja oli asiasta mitä mieltä tahansa, niin noi 8k resoluution setit on lähtökohtaisesti suunniteltu tuota 110 asteen FoVia silmälläpitäen, sillä pienempänä et pahemmin hyödy kasvavasta tarkkuudesta.
Näyttöihin silmä tarkentaa johonkin 60-100cm etäisyydelle - VR-laseilla silmän mykiön tarkennuspiste on yleensä merkittävästi kauempana, vähintään useammissa metreissä, ellei jopa äärettömyydessä.

Ei niitä oikein voi verrata silmän kannalta toisiinsa.
Silmien terveyden kannalta onkin tärkeää että näyttö on mahdollisimman kaukana, siinä mielessä toi 8k 55 tuumaisena on aika järjetön. 110 tuumainen toimisi paremmin tuplaetäisyydeltä.
 
Silmien terveyden kannalta onkin tärkeää että näyttö on mahdollisimman kaukana

Samaa mieltä, ja tästä voisi mielellään jutella enemmän. Kuinka kaukana on kaukana, jne.

Pelkästään ahkera kirjojen lukeminen, monella lailla hyvä asia, voi tehdä kasvuikäisestä likinäköisen, tai lisätä sitä riskiä.
Sillä lailla olen mutuillut pitkän aikaa mutta en ole aiheeseen perehtynyt.
Likinäköiseksi tuleminen ei ole kivaa, mutta se otetaan annettuna, ettei ole mahdollista järjestää kirjojen ja ruutujen lukemista eri lailla kuin nykyjään.
Onhan se iso juttu jos kokonaiset sukupolvet osaksi turhaan hankkii silmälaseja.
 
Näyttöihin silmä tarkentaa johonkin 60-100cm etäisyydelle - VR-laseilla silmän mykiön tarkennuspiste on yleensä merkittävästi kauempana, vähintään useammissa metreissä, ellei jopa äärettömyydessä.

Ei niitä oikein voi verrata silmän kannalta toisiinsa.
VR-laseilla silmät tarkentuvat sille etäisyydelle, jolla VR-lasien näyttö on silmästä. Eli johonkin 10 senttimetrin päähän.
Tämä tuli hiljattain todennettua, kun kokeilin pelata poikani Oculus VR-laseilla Alyxia. Kun tuota ikänäköä on jo, piti laittaa lukulasit päähän jotta näkisin kuvan tarkasti. Ilman lukulaseja oli auttamattoman sumeaa.

Näen kauas tarkasti ilman silmälaseja (silmät leikattu 2,5 vuotta sitten - suosittelen muuten, jos joku haluaa päästä silmälaseista (likinäkö) eroon).
Tämän ikänäön vuoksi suosinkin itse suuria näyttöjä: ne voi laittaa niin kauas (nyt 40-tuumainen 4K n. 80 cm päässä), että voi katsella ilman lukulaseja tai näyttöpäätelaseja (lukulasit toimivat minulla n. 10-40 cm, näyttöpäätelasit n. 30-80 cm, tarkka näkö ilman laseja n. 70 sentistä alkaen).
Mutta tämä on sellaista pappojen jorinaa. Nuorilla silmillä tilanne on varmaan vähän toinen.
:sdullt:
 
VR-laseissa on yleensä linssit joilla saadaan se tarkennuspiste korjattua kauemmaksi.
 
VR laseissakin toi 110 asteen FoV yhdistettynä tarkkaan kuvaan on kuulemma se graalin malja immersiivisyyden kannalta. Miksi työpöydällä tilanne olisi eri?

Henkilökohtaisesti en moista tässä vaiheessa haaveile matalista hertsiluvuista johtuen. Lisäksi noi nykymallit on joko todella kalliita tai hohkaa lämpöä aika paljon.

Muutama vuosi sitten 9 näytön eyefinity oli hienoin juttu ikinä vaikkapa lentosimupelaajille, nyt sen saa kätevästi yhdellä näytöllä ja kaapelilla kiinni tietokoneeseen.
VR-lasien immersiivisyys syntyy eri syistä. Testasin tuota virtuaaliselta näytöltä pelaten FS2020 VR-laseilla (Reverb G1), ei tule samaa tunnelmaa kuin VR:llä vaikka olisi trackIR käytössä. Työpöydällä liian isolla näytöllä työskennellessä voi tulla niska- ja hartiavaivoja jo 43" jos näyttö on liian korkealla. Ei 55" kuitenkaan välttämättä mahdoton ole jos kuvan alareunan saa tarpeeksi alas. Minulla näkyvän kuvan alareuna on kuitenkin 10 cm korkeudella pöydän pinnasta mitattuna, joten varaa olisi. En kuitenkaan ottaisi ainakaan isompaa kuin 55" ellei tosiaan laita näyttöä kauemmaksi.

Jos näyttö taas ei ole pöydällä niin silloin tilanne on eri. Taikka lentosimuissa TrackIR:n kanssa tuollainen iso näyttö on varmasti parempi kuin 43", itse puhuin lähinnä hyötykäytöstä. Peleissä jos ei tarvitse usein katsoa reunoja niin ei se silloin niin rasita niskaa ja immersio lienee parempi. Etuina VR:ään on että ulkoiset ohjaimet, mittarit yms näkyvät ja kuva on huomattavasti tarkempi kuin VR:llä eikä vaadi niin paljoa tehoja. Immersio ei vain ole mielestäni lähellekään samaa ellei ole kotiohjaamoa. VR antaa syvyysnäköä joka helpottaa huomattavasti esimerkiksi helikopterilla lentämistä.

VR-laseilla silmät tarkentuvat sille etäisyydelle, jolla VR-lasien näyttö on silmästä. Eli johonkin 10 senttimetrin päähän.
Tämä tuli hiljattain todennettua, kun kokeilin pelata poikani Oculus VR-laseilla Alyxia. Kun tuota ikänäköä on jo, piti laittaa lukulasit päähän jotta näkisin kuvan tarkasti. Ilman lukulaseja oli auttamattoman sumeaa.

Näen kauas tarkasti ilman silmälaseja (silmät leikattu 2,5 vuotta sitten - suosittelen muuten, jos joku haluaa päästä silmälaseista (likinäkö) eroon).
Tämän ikänäön vuoksi suosinkin itse suuria näyttöjä: ne voi laittaa niin kauas (nyt 40-tuumainen 4K n. 80 cm päässä), että voi katsella ilman lukulaseja tai näyttöpäätelaseja (lukulasit toimivat minulla n. 10-40 cm, näyttöpäätelasit n. 30-80 cm, tarkka näkö ilman laseja n. 70 sentistä alkaen).
Mutta tämä on sellaista pappojen jorinaa. Nuorilla silmillä tilanne on varmaan vähän toinen.
:sdullt:

VR lasien tarkennus vastaa jotain 3 metrin etäisyyttä. Jos kyse olisi 10 cm niin en pystyisi tarkentamaan laseilla ollenkaan vaan toimisi ilman laseja paremmin.

Edit: Laseilla näen 25 cm eteenpäin, lukulasit 15cm-30 cm etäisyydelle ja alle 15 cm on sumeaa millä tahansa. Harkitsen vahvasti piilolinssejä VR-käyttöön, nuo lasit painavat hieman mutta ennen kaikkea likaantuvat. Itselläni hajataitto on suurin ongelma.
 
Viimeksi muokattu:
VR lasien tarkennus vastaa jotain 3 metrin etäisyyttä. Jos kyse olisi 10 cm niin en pystyisi tarkentamaan laseilla ollenkaan vaan toimisi ilman laseja paremmin.
VR lasien tarkennusetäisyys on täysin mallikohtaista ja on pääsääntöisesti jotain välillä n. 1.5 metristä äärettömyyteen.
 
Työpöydällä liian isolla näytöllä työskennellessä voi tulla niska- ja hartiavaivoja jo 43" jos näyttö on liian korkealla. Ei 55" kuitenkaan välttämättä mahdoton ole jos kuvan alareunan saa tarpeeksi alas. Minulla näkyvän kuvan alareuna on kuitenkin 10 cm korkeudella pöydän pinnasta mitattuna, joten varaa olisi. En kuitenkaan ottaisi ainakaan isompaa kuin 55" ellei tosiaan laita näyttöä kauemmaksi.
Jep, ja tästä syystä johtuen 8k on monella tapaa järjetön ajatus. Järkevää hyötyä saa vasta kun heittää ergonomialla vesilintua.
 
Ennen kuin hyökkäät uutisen kirjoittajaa vastaan kannattaa sisäistää mitä uutisessa on kirjoitettu. Kyse ei ole uutisen kirjoittajan "julistuksesta" vaan yhtiön (=AMD) omien suorituskykymittauksien perusteella tehdystä analyysistä joka viittaa siihen, että tässä on todellinen kilpailija NVidialle. Todellinen suorituskyky selvinnee sitten kun testit joskus julkaistaan. Muutenkin yleisessä asenteessa olisi hieman korjauksen varaa, tekstistä loistaa negatiivinen asenne ko. valmistajaa kohtaan, puhut objektiivisuudesta mutta samalla oma ulosantisi on mielestäni selkeästi toista valmistajaa suosiva.

Uutisessa luki, että: "AMD täytti ainakin omien testiensä mukaan lupauksensa ja taistelee nyt tasaväkisesti näytönohjainmarkkinoiden tehokkaimman näytönohjaimen tittelistä."

niin tulkitsin tämän, että uutisessa sanottiin että AMD on omien testiensä perusteella täyttänyt lupauksensa ja sitten uutisen kirjoittajan päätelmä olisi ollut sen perusteella: "taistelee nyt tasaväkisesti näytönohjainmarkkinoiden tehokkaimman näytönohjaimen tittelistä".

Ehkä ymmärsin sitten väärin mitä tuolla yritettiin sanoa, mutta kyllä tuon tekstin voi noinkin tulkita (piti ihan äidinkielen opettaja kaverilta tarkistaa).

Ja mielestäni en ole täällä kirjoittanut yhtään sen negatiivisemmin AMD:stä mitä suurin osa kirjoittaa Intelistä ja Nvidiasta, pikemminkin olen pyrkinyt heidän kirjoitusasua kopioimaan, mutta vaihtamaan kohteen vain AMD:ksi ja katsomaan miten väki siihen reagoi. Ainakin nopeasti näyttää siltä, että Nvidiasta ja Intelistä saa sanoa mitä tahansa, mutta jos samoin sanoo AMD:stä niin se on heti negatiivista tekstiä siihen tapaan mitä ei saisi täällä foorumilla sanoa. Se kummastuttaa kun en ole huomannut että kun Inteliä tai Nvidia kuvaillaan samoin monien toimesta niin siihen ei puututa.

Siitä olen aidosti tyytyväinen että AMD tuo kilpailua, mutta koen että minulla on myös oikeus esiittää kritiikkiäkin jos sille on paikkansa.
 
Viimeksi muokattu:
NVIDIA vaikuttaisi heittävän hiekkaa SAM-rattaisiin:



Vie vähän pohjaa muutenkin omituiselta vaatimukselta että pitäisi olla "puhdas" AMD systeemi alla jos kyse tosiaan on vain siitä PCIe-speksin ominaisuudesta (eikä edes liity PCIe4:ään). AMD:n toteutus toki voi tehdä lisätaikoja, mutta rajoitus omalle alustalle vaikuttaa nyt hieman kotiinpäin vedolta.

Edit: Tosin sitten herää kysymys että miksi vain Ampere, mutta ehkä siinä voi olla ihan oikea rautarajoitus. Tai sitten ei haluta enää antaa suorituskykyä 2080Ti:lle. Kukapa tietää.
 
Viimeksi muokattu:
NVIDIA vaikuttaisi heittävän hiekkaa SAM-rattaisiin:



Vie vähän pohjaa muutenkin omituiselta vaatimukselta että pitäisi olla "puhdas" AMD systeemi alla jos kyse tosiaan on vain siitä PCIe-speksin ominaisuudesta (eikä edes liity PCIe4:ään). AMD:n toteutus toki voi tehdä lisätaikoja, mutta rajoitus omalle alustalle vaikuttaa nyt hieman kotiinpäin vedolta.

Edit: Tosin sitten herää kysymys että miksi vain Ampere, mutta ehkä siinä voi olla ihan oikea rautarajoitus. Tai sitten ei haluta enää antaa suorituskykyä 2080Ti:lle. Kukapa tietää.

Sulla jäi toi toinen twiitti puuttumaan;


Varsinkin toi "Doesn't look like it'll be ready before RX 6000 launch, but we'll keep an eye on development" hieman hymyilytti. :D

Edit. Hymyilytti siis sen takia, että jos Nvidia oli tuota suunnitellut jo pidempään (kuten oletettavasti tuotekehityksen kannalta vaatii), niin miksi siitä huudeltiin jälkijunassa vasta siinä vaiheessa, kun AMD oli omansa esitellyt? :think:
Vaikuttaa hieman samalta, kuin "ei meillä ole mitään ongelmia tuotannossa" selittelyltä.
 
Viimeksi muokattu:
NVIDIA vaikuttaisi heittävän hiekkaa SAM-rattaisiin:



Vie vähän pohjaa muutenkin omituiselta vaatimukselta että pitäisi olla "puhdas" AMD systeemi alla jos kyse tosiaan on vain siitä PCIe-speksin ominaisuudesta (eikä edes liity PCIe4:ään). AMD:n toteutus toki voi tehdä lisätaikoja, mutta rajoitus omalle alustalle vaikuttaa nyt hieman kotiinpäin vedolta.

Edit: Tosin sitten herää kysymys että miksi vain Ampere, mutta ehkä siinä voi olla ihan oikea rautarajoitus. Tai sitten ei haluta enää antaa suorituskykyä 2080Ti:lle. Kukapa tietää.

nVidian SAM Tuki tulee vain Amperelle siksi, että muut nVidian näytönohjaimet eivät tue PCIe gen4 -standardia.
Ja miksi AMD:n SAM-toteutus ei tue Inteliä? Varmaan siksi, että intelillä ei ole tarjolla PCIe gen 4 -emolevyjä/prosessoreita.
 
NVIDIA vaikuttaisi heittävän hiekkaa SAM-rattaisiin:



Vie vähän pohjaa muutenkin omituiselta vaatimukselta että pitäisi olla "puhdas" AMD systeemi alla jos kyse tosiaan on vain siitä PCIe-speksin ominaisuudesta (eikä edes liity PCIe4:ään). AMD:n toteutus toki voi tehdä lisätaikoja, mutta rajoitus omalle alustalle vaikuttaa nyt hieman kotiinpäin vedolta.

Edit: Tosin sitten herää kysymys että miksi vain Ampere, mutta ehkä siinä voi olla ihan oikea rautarajoitus. Tai sitten ei haluta enää antaa suorituskykyä 2080Ti:lle. Kukapa tietää.

Sinänsä mielenkiintoista että tämä on näköjään mahdollista jo pci-e 3, ei vaadi 4. Kai tuossa täytyy olla raudan rajoituksista kyse, muuten olisi aika outoa ettei sitä olisi enabloitu jo aikaa sitten kun näyttää antavan ihan hyvin suorituskykyä.
 
Sinänsä mielenkiintoista että tämä on näköjään mahdollista jo pci-e 3, ei vaadi 4. Kai tuossa täytyy olla raudan rajoituksista kyse, muuten olisi aika outoa ettei sitä olisi enabloitu jo aikaa sitten kun näyttää antavan ihan hyvin suorituskykyä.
Tuonne toisaalle jo vastasinkin, että nopeushyöty hitaammalla PCIe -versiolla voi olla aika marginaalista, jolloin AMD ei ole nähnyt tarpeelliseksi sen tukemista (etenkin, kun AMD on toimittanut PCIe gen4 --näytönohjaimia jo pidempään). Varmaan teknisesti saadaan toimimaan PCIe gen3:n kanssakin.
 
Tuonne toisaalle jo vastasinkin, että nopeushyöty hitaammalla PCIe -versiolla voi olla aika marginaalista, jolloin AMD ei ole nähnyt tarpeelliseksi sen tukemista (etenkin, kun AMD on toimittanut PCIe gen4 --näytönohjaimia jo pidempään). Varmaan teknisesti saadaan toimimaan PCIe gen3:n kanssakin.

Eiköhän tuossa ole takana ihan 3 syytä:
1) Saadaan uusista tuotteista paremmin rahaa ja tämä myy niitä paremmin.
2) Vanhemman raudan tukeminen vaatii tukea ja validointia, eli kuluttaa rahaa.
3) Featuren aktivoiminen vanhoille korteille ilman validointia voi aiheuttaa ongelmia ja tahraa mainetta enemmän, mitä tuen puuttuminen.

Linuxissahan tuo on ollut jo pitkään, mutta jos siellä tulee ongelmia, niin porukka ei valita foorumilla, paskaa rautaa/paskat ajurit postauksilla.
 
...raudan tukeminen vaatii tukea ja validointia, eli kuluttaa rahaa...
Ja tämä on varmaan syy miksi AMD on validoinut sitä vain omalle raudalleen, ei intelille, koska rahankulutus pitää jotenkin puoltaa oman raudan myyntiin. Nvidialla taas ei ole prossa-affiliteettiä niin, niin heidän validointi voi lähteä yleensä versus prossuihin. Saattaa olla että AMD enabloi tuota kilpailutilanteen takia myös intelin prossiin, ai hitsi, kilpailu on tässäkin hyvästä!
 

Statistiikka

Viestiketjuista
258 651
Viestejä
4 494 949
Jäsenet
74 266
Uusin jäsen
ufozz112

Hinta.fi

Back
Ylös Bottom