AMD-spekulaatioketju (RDNA:n ja CDNA:n tulevat sukupolvet)

Siinä ei pieni pehmeys paljoa paina kun softakikkailulla koko kuva on täynnä haloja ja rikkinäisiä partikkeliefektejä.
Se tuollaissa DLSS-tyyppisessä toteutuksessa tosin on kätevää, että efektejä on periaatteessa mahdollista tehdä DLSS-passin ulkopuolella/jälkeen. Vastikään toivat Unreal Engine branchiinsä mahdollisuuden flägätä partikkelit piirrettäviksi DLSS-passin ulkopuolella, jolla vältetään niiden rikkoutuminen.

Mistähän johtuu, että samat kultasilmät, jotka väittävät näkevänsä millisekuntitason eroja paljaalla silmällä ovat sokeita DLSS:n artifakteille
Onnekkaitapa ovat kyllä he, jotka eivät näe eroa 30fps:n ja 60fps:n välillä. Tämä hyppy oli ihan todellisuutta esim. Minecraftissä RTX 2080:llä 1440p resolla ja itse olen kyllä ihan valmis karsimaan kuvanlaadusta että pyörii noin paljon sulavammin.

Siinä DLSS-upskaalatussa kuvassa ei ole mitään "natiivimpaa" kuin RIS-upskaalatussa kuvassa.

Molemmilla näyttis rendaa pienemmällä resolla ja skaalaa kuvan ylös tarkentaen sitä ja näyttö saa sisään 4k-kuvaa
DLSS:llä osa post-process efekteistä tehdään natiiviresolla ja myös texture mip bias on säädetty output resolle, jolloin teksuurit näyttävät tarkoilta.

RIS huomattavasti yksinkertaisempana ratkaisuna skaalaa koko kuvan, paitsi HUDin ellen nyt väärin muista.
 
Onnekkaitapa ovat kyllä he, jotka eivät näe eroa 30fps:n ja 60fps:n välillä. Tämä hyppy oli ihan todellisuutta esim. Minecraftissä RTX 2080:llä 1440p resolla ja itse olen kyllä ihan valmis karsimaan kuvanlaadusta että pyörii noin paljon sulavammin.
30 vs. 60 näkee kuka tahansa. Tarkoitin porukkaa joka täällä väittää näkevänsä paljaalla silmällä pienetkin fps erot kun ruudunpäivitys on lähempänä 200 fps
 
Kuva täynnä... Aika mielenkiintoiset kirteerit siitä, mitä "kuva täynnä" tarkoittaa.
Kyllä se ihan koko kuva on täynnä, johtuu DLSS algon opettamiseksi käytetystä kuvamateriaalista, joka on skaalattu alaspäin lanczos menetelmällä ilman että väriarvoja on mitenkään rajattu olemaan skaalaamattoman kuvan arvoalueen sisäpuolella. Tästä syystä johtuen aivan koko kuva on pilattu, jotkut vaan pitävät tästä "terävämmästä" lookista.

Käyttäkää mitä haluatte, mutta älkää sanoko että se mitä satutte käyttämään on objektiivisesti parempi kuin joku toinen valinta, sillä kyseinen väite ei pidä paikkaansa. Kaikki nykyisin saatavilla olevat skaalaustekniikat on kompromissiratkaisuja, siinä missä natiiviresoluutiolla rendaaminenkin. Se että mikä kompromissi on käyttäjän kannalta paras on käyttäjästä riippuva asia.
 
Kyllä se ihan koko kuva on täynnä, johtuu DLSS algon opettamiseksi käytetystä kuvamateriaalista, joka on skaalattu alaspäin lanczos menetelmällä ilman että väriarvoja on mitenkään rajattu olemaan skaalaamattoman kuvan arvoalueen sisäpuolella. Tästä syystä johtuen aivan koko kuva on pilattu, jotkut vaan pitävät tästä "terävämmästä" lookista.

Käyttäkää mitä haluatte, mutta älkää sanoko että se mitä satutte käyttämään on objektiivisesti parempi kuin joku toinen valinta, sillä kyseinen väite ei pidä paikkaansa. Kaikki nykyisin saatavilla olevat skaalaustekniikat on kompromissiratkaisuja, siinä missä natiiviresoluutiolla rendaaminenkin. Se että mikä kompromissi on käyttäjän kannalta paras on käyttäjästä riippuva asia.

Ottaen huomioon, että Nvidia tarjoaa myös sen RIS:ää vastaavan terävöitysoption, niin DLSS-option tarjoaminen sen rinnalla on kyllä ihan objektiivisesti parempi.
 
Ottaen huomioon, että Nvidia tarjoaa myös sen RIS:ää vastaavan terävöitysoption, niin DLSS-option tarjoaminen sen rinnalla on kyllä ihan objektiivisesti parempi.
Käsittääkseni tässä oli puhe eri optioiden keskinäisestä paremmuudesta. Jos AMD tuo jonkun uuden vendor lockatun option ajureihinsa, niin sitten ollaan taas tasoissa sillä vaihtoehtoja on yhtä monta?
 
Käsittääkseni tässä oli puhe eri optioiden keskinäisestä paremmuudesta. Jos AMD tuo jonkun uuden vendor lockatun option ajureihinsa, niin sitten ollaan taas tasoissa sillä vaihtoehtoja on yhtä monta?

No ei oikeastaan ollut, koska keskustelun tämä haara käynnistyi pohdinnasta "miten AMD vastaa Nvidian DLSS:ään". Vertailukohteina on silloin AMD:n kootut tekniikat vs. Nvidian kootut tekniikat.
 
Menkää tuonne AMD vs. Nvidia ketjuun väittelemään noista.
Ensiksi AMD:n kortit eivät kelvanneet, koska tehoa ei ole tarpeeksi. Nyt kun näyttää tehoja (oletettavasti/arvaten) riittävän, niin otettiinkin silmätikuksi DLSS:n puute.

Itelläni on myös tuo LG:n 55" OLED tuossa vieressä "kakkosnäyttönä", mutta ei ole pienintäkään kaipuuta pelata siinä mitään "4K" DLSS peliä. Katseluetäisyyttä noin kaksi metriä ja 1440p ei todellakaan näytä "sutulta", kuten joku täällä väitti. AC Odysseytä tulee pelattua 1080p resoluutiolla ja tuo LG hoitaa skaalautumisen niin hyvin, ettei edes se näytä yhtään epätarkalta.


Edit: Ehkä Nvidian kortti tulee hommattua, koska tässä 2019 telkussa on vain G-Sync eikä VRR:ää. Mutta eipä senkään puute nykyisellään ole haitannut, eikä tuo DLSS tule myöskään olemaan millään tapaa deal breaker omalla kohdallani.
 
No ei oikeastaan ollut, koska keskustelun tämä haara käynnistyi pohdinnasta "miten AMD vastaa Nvidian DLSS:ään". Vertailukohteina on silloin AMD:n kootut tekniikat vs. Nvidian kootut tekniikat.
Ei sen tarvitse siihen vastata mitenkään, tämän varmaan tiedät itsekkin. Väitän että AMD:n kootut tekniikat on jotakuinkin yhtä hyvät/huonot kuin nvidian, eikä asialle löydy objektiivisesti tarkasteltuna mitään muuta totuutta. Jatka toki keskustelua tuolla DLSS:lle varatussa jankkausketjussa jos olet asiasta voimakkaasti eri mieltä.

Onneksi kaikki merkit juuri nyt viittaavat siihen että nopeammat näyttikset tulevat vaihteeksi AMD:n leiristä, niin saa Nvidian fanipojat vähän uutta keskusteltavaa. Oletettavasti seuraavat aiheet liittyvät täällä siihen että "miten AMD vastaa Nvidian 8k gamingiin" ja muihin asioihin jotka ei juuri ketään kiinnosta.
 
Ei sen tarvitse siihen vastata mitenkään, tämän varmaan tiedät itsekkin. Väitän että AMD:n kootut tekniikat on jotakuinkin yhtä hyvät/huonot kuin nvidian, eikä asialle löydy objektiivisesti tarkasteltuna mitään muuta totuutta. Jatka toki keskustelua tuolla DLSS:lle varatussa jankkausketjussa jos olet asiasta voimakkaasti eri mieltä.

Onneksi kaikki merkit juuri nyt viittaavat siihen että nopeammat näyttikset tulevat vaihteeksi AMD:n leiristä, niin saa Nvidian fanipojat vähän uutta keskusteltavaa. Oletettavasti seuraavat aiheet liittyvät täällä siihen että "miten AMD vastaa Nvidian 8k gamingiin" ja muihin asioihin jotka ei juuri ketään kiinnosta.
Voit varmaan itse jatkaa siellä ketjussa jos asia häiritsee? Erittäin epäloogista valittaa asiasta ja itse tehdä sitten sama.

Objektiivisesti tarkasteltuna nvidialla on paremmat, koska se osaa enemmän ominaisuuksia. Kuten jo kerrottu suuremman määrän/erilaisten natiivielementtien ruudulle sijoittamisen. Tämä on objektiivisesti mitattava asia eikä sinun päänsisäisen fantasia.

Tällaisia asioita odotetaan nyt AMD uutuuksiin myös.
 
Ei sen tarvitse siihen vastata mitenkään, tämän varmaan tiedät itsekkin. Väitän että AMD:n kootut tekniikat on jotakuinkin yhtä hyvät/huonot kuin nvidian, eikä asialle löydy objektiivisesti tarkasteltuna mitään muuta totuutta. Jatka toki keskustelua tuolla DLSS:lle varatussa jankkausketjussa jos olet asiasta voimakkaasti eri mieltä.

Onneksi kaikki merkit juuri nyt viittaavat siihen että nopeammat näyttikset tulevat vaihteeksi AMD:n leiristä, niin saa Nvidian fanipojat vähän uutta keskusteltavaa. Oletettavasti seuraavat aiheet liittyvät täällä siihen että "miten AMD vastaa Nvidian 8k gamingiin" ja muihin asioihin jotka ei juuri ketään kiinnosta.

En minä esittänyt aiheesta mitään väitteitä tähän ketjuun. Eräs toinen keskustelija mainitsi (ketjun aiheeseen ihan hyvin osuvasti), että mikähän on AMD:n vastine DLSS:lle. Johon sitten esitettiin RIS:ää, joka ei luonnollisestikaan voi olla vastine DLSS:lle, koska Nvidialla on täsmälleen saman asian tekevä tekniikka myöskin. AMD:llä ei ole tällä hetkellä DLSS:ää vastaavaa tekniikkaa.

Ei mulla tähän muuta ole kommentoitavaa, AMD vastaa jos katsoo aiheelliseksi vastata. Mutta ei ole vastannut toistaiseksi.
 
Ei noilla mikään kiire ole, niin harva peli tuota tukee vielä, eikö tuosta muutenkaan ole mitään hyötyä muulle kuin 4K+ resoille, suurinosa pelaa 1440p resolla vielä vuoden päivät.

Sanoisin omasta kokemuksesta että ainakin itselläni kestää pidempään kuin "vuoden päivät". Tämän 1440p 144Hz monitorin ostin marraskuussa 2018 kun paremmalta puoliskolta hajosi vanha 24" TN (1080p) näyttö mikä oli hankittu joskus 2008/2009. Hän sai oman käytössä olleen Dell UltraSharp U2713HM näytön mikä lienee hankittu joskus 2014 enkä olisi sitä muuten vielä edes korvannut.

Vielä siis hetken kestänee että on tarvetta päivittää johonkin 32" 4K 240+Hz IPS näyttöön (kun niiden hinnat alkavat olla tuossa ~500€ paikkeilla tai hieman vähemmän). Sanoisin että ainakin 3+ vuotta menee että teknologia kehittyy ja hinnat tulevat alaspäin. En olisi edes järjettömän yllättynyt jos tuohon menisi viisikin vuotta...

Siihen mennessä kyllä näytönohjain ehtii vaihtua useampaan kertaan.
 
Kuka haluaa kuvavhuononnustekniikkaa. Mieluummin 1440p ja kunnon kuvanlaadulla jos ei 4k taivu
Mutta ku kaikki youtube tech ukot + nvidia sanoo että "better image quality than native", niin se on pakko olla hyvä. :D Itse olen henkilökohtaisesti kokeillut tuota DLSS 2.0 4K näytöllä, näyttää hyvälle ja aika vaikea joissai tapauksissa erottaa natiivista, mikä on erittäin hieno saavutus, mutta kuva nihilistinä on pakko sanoa että upscale on aina upscale, ihan sama mikä skynet siellä on sitä vääntämässä...
 
Mutta ku kaikki youtube tech ukot + nvidia sanoo että "better image quality than native", niin se on pakko olla hyvä. :D Itse olen henkilökohtaisesti kokeillut tuota DLSS 2.0 4K näytöllä, näyttää hyvälle ja aika vaikea joissai tapauksissa erottaa natiivista, mikä on erittäin hieno saavutus, mutta kuva nihilistinä on pakko sanoa että upscale on aina upscale, ihan sama mikä skynet siellä on sitä vääntämässä...

Mutta on se silti hemmetisti parempi kuvanlaadultaan, kun se vaihtoehto, että heittää vaan resoksi 1440p ja antaa näytön vaan skaalata, kuten @Hellsinkin ehdottaa...

Ei kait kovin moni DLSS:ää käytä, jos näytön natiiviresolla pyörii tarpeeksi hyvin.
 
Mutta on se silti hemmetisti parempi kuvanlaadultaan, kun se vaihtoehto, että heittää vaan resoksi 1440p ja antaa näytön vaan skaalata, kuten @Hellsinkin ehdottaa...

Ei kait kovin moni DLSS:ää käytä, jos näytön natiiviresolla pyörii tarpeeksi hyvin.
Näyttöhän ostetaan käytetyn resoluution mukaan. 4K ei juuri mikään näyttis ole vielä tähän päivään mennessä jaksanut ilman kuvanlaadun huononnusta. 2080ti ei edes pystynyt säteenseurannalla kelvollisiin lukemiin. Siksi kai tuo kuvanhuononnusteknologia on keksitty. Jos joku kuitenki on fiksuna ostanut 4K näytön ja tehot ei oo riittäneet ni se on oma virhe
 
Näyttöhän ostetaan käytetyn resoluution mukaan. 4K ei juuri mikään näyttis ole vielä tähän päivään mennessä jaksanut ilman kuvanlaadun huononnusta. 2080ti ei edes pystynyt säteenseurannalla kelvollisiin lukemiin. Siksi kai tuo kuvanhuononnusteknologia on keksitty. Jos joku kuitenki on fiksuna ostanut 4K näytön ja tehot ei oo riittäneet ni se on oma virhe
Niin meinasit että näyttö myyntiin ja pienempää tilalle... Noh onhan sekin toki ratkaisu, vaikka ei välttis ihan jokainen ole heti lähtemässä tohon hommaan. :think:
 
387453_CFA6CB87-2FA6-4769-BDDD-3A0846257123.png

Tämmöisen bongasin
 
4k telkkareita on ehditty myydä jo vuosikausia. Kelvollisen telkkarin kuvanlaatu hakkaa 100-0 kaikki pc-näytöt, joissa on naurettavan pieni kontrasti, mitätön HDR, huonot värit ja postimerkkikoko.

Tosi käytännöllistä katsoa 55-65" telkkaria 1m katseluetäisyydeltä...
On noilla käyttötarkoituksensa, mutta tietokoneen näytöksi aika huono valinta. (3x32" on paljon käytännöllisempi...)

Saa nyt nähdä miten pielessä kaikki AMD vuodot on. Nvidia sai aika hyvin pidettyä Amperen oikeat speksit piilossa, kun vielä päivää ennen julkaisua oltiin ihan varmoja että on mm. 7nm prosessi...
 
387453_CFA6CB87-2FA6-4769-BDDD-3A0846257123.png

Tämmöisen bongasin

Tuossa oletetaan 2.25 GHz kellotaajuudeksi Navi21lle, mikä voi olla paljon. Voi todelliset (oikeasti ylläpidettävät) kellot olla lähempänä 2 GHzaa mikä tarkoittaisi n. 10% hitaampaa suorituskykyä.

Muuten vaikuttaa järkeviltä luvut teoreettisiksi törmäystarkastusten nopeusluvuiksi, joku vihdoin laittanut nämä yhteen kuvaan.


Eli oma tuomio: Approved.
 
Tuossa oletetaan 2.25 GHz kellotaajuudeksi Navi21lle, mikä voi olla paljon. Voi todelliset (oikeasti ylläpidettävät) kellot olla lähempänä 2 GHzaa mikä tarkoittaisi n. 10% hitaampaa suorituskykyä.

Muuten vaikuttaa järkeviltä luvut teoreettisiksi törmäystarkastusten nopeusluvuiksi, joku vihdoin laittanut nämä yhteen kuvaan.


Eli oma tuomio: Approved.

Jos nuo luvut olisi noin, niin miten tehotasapaino mahtaa mennä, onko tuo suhde fiksumpi nVidialla vai amdllä?
 
Niin meinasit että näyttö myyntiin ja pienempää tilalle... Noh onhan sekin toki ratkaisu, vaikka ei välttis ihan jokainen ole heti lähtemässä tohon hommaan. :think:
Parasta on kun porukka käyttää 27" 4k näyttöjä. Tarvii melko läheltä katsoa, estää huomaa eron 4k vs 2.5k.

Mutta asiaan, mielenkiintoinen toi RT suorituskyky kaavio kun on tosiaan käytetty 2250MHz core kelloja vaikka kaikki vuodot näyttää 2050. Ja siis noi on vuodettu datat, se että joku huhuilee jotain YouTubessa ei tee siitä vuotoa.
 
Parasta on kun porukka käyttää 27" 4k näyttöjä. Tarvii melko läheltä katsoa, estää huomaa eron 4k vs 2.5k.

Mutta asiaan, mielenkiintoinen toi RT suorituskyky kaavio kun on tosiaan käytetty 2250MHz core kelloja vaikka kaikki vuodot näyttää 2050. Ja siis noi on vuodettu datat, se että joku huhuilee jotain YouTubessa ei tee siitä vuotoa.
Se 2050 MHz on peräisin vain yhdestä vuodosta, ei "kaikista vuodoista". Samassa taulukossa jossa se oli oli myös 1000 MHz maksimikellotaajuutena Navi10:lle. Eli ei ehkä kannata ottaa ihan niin kiveen kirjoitettuna.
 
Myös se Macin ajureista pultattu tieto oli 2200 tasolla joka aiheuttaa kyllä kysymyksiä, koska Applen tuotteita harvemmin on kellotettu (kun jotkut miettivät voisiko se olla yksinkertaisesti kellotaajuuden virityksen yläraja ajureissa)...

Edit: korjaus navi21 oli 2050-2200, navi22 oli 2500(?).
 
Aika iso ero tuossa AMD:n ratkaisun Box vs triangle nopeudessa. Viisaammat varmaan osaa sanoa, voiko aiheuttaa pullonkaulaa käytännössä... :hmm:
Jos tuo kerran on laskettu Xboxin piiristä joka ei kuulema edes ole puhdas rdna2, niin tuloksilla ei ole suuremmin merkitystä. Oikeat näkee vasta kun AMD julkaisee Big Navin virallisesti
 
4k telkkareita on ehditty myydä jo vuosikausia. Kelvollisen telkkarin kuvanlaatu hakkaa 100-0 kaikki pc-näytöt, joissa on naurettavan pieni kontrasti, mitätön HDR, huonot värit ja postimerkkikoko.
Mutta niissä sitten massiivinen input-lagi kumoaa kaikki edut tehden telkkarista pelikelvottoman PC pelailuun, ellet ole pistänyt telkkuun useita tonneja. Vasta viimeaikoina kelvollisia pelitelkkuja on alkanut saada tonnin hintaluokassa.

Eli kyseiden pelitelkkujen omistajat ovat yhä aika marginaalissa...
 
Aika iso ero tuossa AMD:n ratkaisun Box vs triangle nopeudessa. Viisaammat varmaan osaa sanoa, voiko aiheuttaa pullonkaulaa käytännössä... :hmm:

Testaus kolmioon on matemaattisesti paljon raskaampi laskea kuin testaus laatikkoon, se vaatii enemmän (muistaakseni vähän yli tuplasti) laskutoimituksia.

Mutta laatikkoon testaus on yleensä myös monta kertaa yleisempi operaatio kuin kolmion testaus

Eli molemmat tekivät säteenjäljitysrautansa ekasta versiosta sellaisen, että se tekee 4 laatikkotestausta kellojaksosssa (ilmeisesti käyttävät radix4-BVH-puuta, jolloin siellä on luonnollisesti ne 4 laatikkoa testattavaksi), ja tälle mitoitettu rauta pystyy sitten melko helposti myös tekemään yhden kolmiotestin kellojaksossa.

Nyt sitten toisessa sukupolvessa nVdia päätti että lisätäänpäs niihin yksiköihin sen verran lisää rautaa, että pystytään tekemään myös kaksi kolmiotestausta kellojaksossa.

edit:
Näiden kahden kolmion pitää sitten todennäköisesti tulla samasta BVH-puun lehtilaatikosta (en ole varma tästä), koska niiden kolmioiden "ruokkiminen" törmäystarkastusyksiköille eri laatikoista olisi paljon monimutkaisempaa.

Vielä vartti sitten tätä viestiä alun perin sitten kirjoittaessani luulin, että yleensä käytetään yhden kolmion kokoisia lehtilaatikoita, ja se että nVidia nyt ilmeisesti tukee myös useamman kolmion laatikoita olisi joku uusi juttu. Kunnes lähdin vähän kyselemään asiasta oikeasta suunnasta, ja selvisi, että monen kolmion lehtilaatikot onkin ihan arkipäivää (ja tämä muuttaa tähän sitä laatikko- vs kolmio-tarkastusten suhdetta).

Jos nuo luvut olisi noin, niin miten tehotasapaino mahtaa mennä, onko tuo suhde fiksumpi nVidialla vai amdllä?

Yhtä kolmiotestiä kohden tehdään ehkä n. 10-40 laatikkotestiä => Tilanteessa jossa kolmiotestejä tarvitaan 2 kpl, AMDllä aikaa kuluu siis keskimäärin 5-20 kellojaksoa laatikkotesteihin ja 2 kellojaksoa kolmiotestiin.

nVidialla laatikkotestit menee samassa 5-20 kellojaksossa, mutta kolmiotesteihin kuluu vain 1 kellojakso.

Eli nVidia säästänee noilla tuplanopeilla kolmiotesteillään usein (vain n.) luokkaa 5-15% kellojaksoja.
 
Viimeksi muokattu:
Nvidian RTX korttien kanssa tehon ei tarvi riittääkkään jollekkin resolle kun DLSS 2.0:lla saat hyvin pitkälti täysin samanäköistä jälkeä kuin natiivi.

AMD on tässä valovuosia takana, Nvidialla onnistuu DLSS 2.0:lla jo 8K pelaaminenkin, AMD:llä tämä on fantasiaa jos haluaa että peli näyttäisi vielä hyvällekkin

ÖÖh, miten tämä 8K pelaaminen nyt liittyy spekulaatioketjuun AMD:n Navi näytönohjaimista? Spekuloit että se ei natiivina onnistu kuten ei Nvidiallakaan mutta ehkä jollain muulla teknologialla sitten....
 
Mutta niissä sitten massiivinen input-lagi kumoaa kaikki edut tehden telkkarista pelikelvottoman PC pelailuun, ellet ole pistänyt telkkuun useita tonneja. Vasta viimeaikoina kelvollisia pelitelkkuja on alkanut saada tonnin hintaluokassa.

Eli kyseiden pelitelkkujen omistajat ovat yhä aika marginaalissa...
6-16 ms akselia löytyy laajalla skaalalla Samsungeista, Sonyista ja LG:ltä. Ei tuo ole ollut enää toviin mikään iso ongelma, jos ei osta sikaa säkissä. Parin viime vuoden aikana on ollut kovaa kehitystä input lagin suhteen tv-rintamalla. Eivät toki sovellu kilpailuhenkisempiin peleihin, mutta niitä varten on sitten ne 240 Hz näytöt. :)
 
6-16 ms akselia löytyy laajalla skaalalla Samsungeista, Sonyista ja LG:ltä. Ei tuo ole ollut enää toviin mikään iso ongelma, jos ei osta sikaa säkissä. Parin viime vuoden aikana on ollut kovaa kehitystä input lagin suhteen tv-rintamalla. Eivät toki sovellu kilpailuhenkisempiin peleihin, mutta niitä varten on sitten ne 240 Hz näytöt. :)

Niin sampalla on response time max 4ms + input lag 14ms. LG:llä on response time about 1ms + input lag 14ms. Joten aika hyvät nykyään.
 
Niin sampalla on response time max 4ms + input lag 14ms. LG:llä on response time about 1ms + input lag 14ms. Joten aika hyvät nykyään.
Noissa on hieman enemmän hajontaa. Samsungilla esim Q90T ja Q80T 10 ms @ 60 Hz ja 6 ms @120 Hz, viime vuoden Q70R 15 ms ja 6 ms. LG:n C9 ja CX vajaat 14 ms ja 7 ms, Sonyn XH90 15 ms ja 7 ms.
 
Mutta niissä sitten massiivinen input-lagi kumoaa kaikki edut tehden telkkarista pelikelvottoman PC pelailuun, ellet ole pistänyt telkkuun useita tonneja. Vasta viimeaikoina kelvollisia pelitelkkuja on alkanut saada tonnin hintaluokassa.

Eli kyseiden pelitelkkujen omistajat ovat yhä aika marginaalissa...
Massiivinen input lagi pelikelvottoman heitä ukko satuilemasta, iät ajat tullu telsulla pelattua plasmasta lähtien on se eri makia pelata pitkästi yli 50" kokosella ruudulla sohvalta käsin kuin jossaki nurkassa jakkaralla nokka kiinni pikkuruudusta semmosesta josta viitti edes elokuvia katsoa. Tieten jos ainut peli on joku CS:GO niin sillon kait ihan sama mistä linnunpöntöstä sitä pelaa kunhan on korkea ruudunpäivitys.
 
Viimeksi muokattu:
Okei ehkä tuo input lagin valinta argumentiksi oli huono valinta. Pointtini siis oli aikaisempaan DLSS-keskusteluun liittyen se, että vaikka 4K (peli-)telkkareita löytyykin niin harvalla (pl. nämä foorumit) sellaiseen on tietokone kytkettynä pelaamista varten. Ja vielä harvempi on ostanut 4K monitorin pelaamista varten.

Joten vaikkakin DLSS voi varmasti olla hyödyllinen, suurelle yleisölle se ei ole mitään muuta kuin markkinointitermi tai lisäherkku, jonka perusteella näytönohjainta ei valita. Ja uskon että näin on, kunnes kyseinen ominaisuus löytyy pelistä kuin pelistä, eikä kehittäjien tarvitse sitä pelikohtaisesti implementoida.
Edit: Joten itse en ainakaan panikoi, jos vielä tässä sukupolvessa AMD:llä ei ole sille vastinetta.
 
Videocardzin twitterissä oli vähän jäähyttelyä:
Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.


NVIDIA jebaited AMD.
- Big Navi perf target was GA104.
- NVIDIA upgraded 3080 to GA102
- AMD now targets 3070
- NVIDIA announced Ampere at lower than expected price
- AMD announced Oct 28 event
- NVIDIA postponed the launch to Oct 29

Just what we gathered this week from AIBs

Vastaavasti osa youtuben puhuvat päät hype-huhuäijistä taas väittää, että AIB:ille on jaettu tietoa vain navi22 piiristä, kun on tiedossa, että ne vuotaa kaiken.
 
Videocardzin twitterissä oli vähän jäähyttelyä:
Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.


NVIDIA jebaited AMD.
- Big Navi perf target was GA104.
- NVIDIA upgraded 3080 to GA102
- AMD now targets 3070
- NVIDIA announced Ampere at lower than expected price
- AMD announced Oct 28 event
- NVIDIA postponed the launch to Oct 29

Just what we gathered this week from AIBs

Vastaavasti osa youtuben puhuvat päät hype-huhuäijistä taas väittää, että AIB:ille on jaettu tietoa vain navi22 piiristä, kun on tiedossa, että ne vuotaa kaiken.


Olishan se aika fail AMD:ltä jos toi pitäisi paikkaansa. Että tupla CU:lla tähdättäisiin vain noin 50% tehoparannukseen kun on vielä arkkitehtuuri parannuksia ja kellojen nousua luvassa niin olishan toi fail.

Kyllä ittekkin ennemmin kallistun siihen että se on nimenomaan se keskisarjan piiri jolla tuohon 3070 tähdätään.
 
Olishan se aika fail AMD:ltä jos toi pitäisi paikkaansa. Että tupla CU:lla tähdättäisiin vain noin 50% tehoparannukseen kun on vielä arkkitehtuuri parannuksia ja kellojen nousua luvassa niin olishan toi fail.

Kyllä ittekkin ennemmin kallistun siihen että se on nimenomaan se keskisarjan piiri jolla tuohon 3070 tähdätään.

Olisihan tuo aika fail. No aika hyvin nuo speksit on pysyneet piilossa. AMD on sanonut itse todella vähän, mutta huhupuolella irrotellaan joka suuntaan, vaikka on enää muutama viikko julkaisuun. Amperen speksit oli todella hyvin vuodettuna pitkään ennen julkaisua. Oli se samsung 8nm ja gddr6x, vaikka niitä ei uskottu ja oli kulutukset ja about suorituskykylukemat. Tuplatut cudatkin tuli ennen julkaisua.
 
GA104 perf target ei tarkoita, että se olisi yhtä nopea. Voi hyvinkin olla nopeampi, mutta ei RTX 3080 tasolla. Muutaman viikon päästä toivottavasti asia selvenee.
 
GA104 perf target ei tarkoita, että se olisi yhtä nopea. Voi hyvinkin olla nopeampi, mutta ei RTX 3080 tasolla. Muutaman viikon päästä toivottavasti asia selvenee.

Mutta se tarkoittaa että AMD:llä olisi täysin unohdettu että nvidia tulee julkaisemaan huipulle myös kortin tai kuten nyt on käynyt kortteja myös 102 ytimellä. Eli silloin ne lupaukset että tullaan kilpailemaan ihan huipulla voitaisiin vetää pöntöstä alas.

Ja GA104 vastaan kilpailuun ei kaiken järjen mukaan tarvita 80CU:ta vaan joku 60 pitäisi riittää.
 
Ongelma 4k pelaamisessa on lähinnä se, että aika harvaa peliä on kiva pelata 4k resolla telkkarista. En itse ainakaan pysty jotain civ6:sta 50 tuumaiselta telkkarilta pelailemaan kun tekstit ovat niin pientä. Saisi tulla enemmän optioita peleihin olohuone -valinnalla asetuksiin joissa vaikka grafiikka olisi tarkkaa niin erilaisia tekstejä yms. saisi säädettyä isommaksi. Jonkin verran noita UI säätöjä onkin, mutta aika nihkeää on.

Jos tuollaista käyttää monitorina lähellä niin siinä tulee vastaan sitten muut mahdolliset käytännön ongelmat, vaikka itse teksteistä saisikin sitten selvää.

Mitä AMD:n vastineeseen tulee, niin kyllähän 2080ti korttia merkittävästi parempi suorituskykyvaatimus on ollut jo pitkään tiedossa. Se on sitten eri asia säätääkö AMD omia korttejaan toimimaan suhteellisesti paremmin 1440p resolla nvidian Ampere kortteja vastaan joissa resoluution lasku aiheuttaa suhteellisesti huonompaa pyörimistä esim. 2080ti korttia vastaan (absoluuttisesti on siis nopeampi, mutta resoluutiota laskiessa pelinopeutta tulee suhteessa vähemmän lisää).

Tuossa resoluution laskusta vähän dataakin:
Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.


Tai jos ei sen kummemmin säädä, niin tuleeko vertailuluvut 1440p resosta materiaalissa suhteellisesti paremman pyörimisen johdosta.
 
Videocardzin twitterissä oli vähän jäähyttelyä:
Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.


NVIDIA jebaited AMD.
- Big Navi perf target was GA104.
- NVIDIA upgraded 3080 to GA102
- AMD now targets 3070
- NVIDIA announced Ampere at lower than expected price
- AMD announced Oct 28 event
- NVIDIA postponed the launch to Oct 29

Just what we gathered this week from AIBs

Vastaavasti osa youtuben puhuvat päät hype-huhuäijistä taas väittää, että AIB:ille on jaettu tietoa vain navi22 piiristä, kun on tiedossa, että ne vuotaa kaiken.


Joo niinkuin muut ovat jo sanoneet niin olisi kyllä aivan massiivinen failure jos 80CU ja 2.1GHz tarvittaisiin 3070 tasolle pääsyyn.

Luulisi sen onnistuvan jo tuolla 40CU ja 2.5GHz, tai ainakin niin lähelle, etta hinnalla pystyisi kilpailemaan.

Toki kaiken hulluuden huippuhan olisi, etta uudet CU:t eivät olisikaan niin nopeita kuin vanhat ja kaikki tiedot noista pinta-aloista on ihan hatusta vedetty ja AMD tekisi todella jonkun minipiirin. Ei kai täysin mahdotonta mutta kuulostaa kaukaa haetulta.
 
Olishan se aika fail AMD:ltä jos toi pitäisi paikkaansa. Että tupla CU:lla tähdättäisiin vain noin 50% tehoparannukseen kun on vielä arkkitehtuuri parannuksia ja kellojen nousua luvassa niin olishan toi fail.

Kyllä ittekkin ennemmin kallistun siihen että se on nimenomaan se keskisarjan piiri jolla tuohon 3070 tähdätään.

Onko ikinä ollut radeon-sukupolvien välillä paljoa yli 50% eroa? Ja toisaalta ilmeisesti muistikaista on pysymässä samana, 256 bit GDDR6. En malta olla toteamatta että itse jo monta viikkoa sitten täällä veikkailin että big navi on aavistuksen nopeampi kuin 3070, ja toisaalta että 3070 jää hivenen 2080Ti:stä jälkeen. Jos Big navi yltää 2080 Ti:n tehoihin niin se on jo aika hyvin.
 
Onko ikinä ollut radeon-sukupolvien välillä paljoa yli 50% eroa? Ja toisaalta ilmeisesti muistikaista on pysymässä samana, 256 bit GDDR6. En malta olla toteamatta että itse jo monta viikkoa sitten täällä veikkailin että big navi on aavistuksen nopeampi kuin 3070, ja toisaalta että 3070 jää hivenen 2080Ti:stä jälkeen. Jos Big navi yltää 2080 Ti:n tehoihin niin se on jo aika hyvin.
Minullekin eräs moderaattori rupesi kuittailemaan jokin aika sitten, kun veikkasin, että hyvinkin vain noin 3070/2080 ti tasoa. Nähdään miten käy :asif:
 
Onko ikinä ollut radeon-sukupolvien välillä paljoa yli 50% eroa? Ja toisaalta ilmeisesti muistikaista on pysymässä samana, 256 bit GDDR6. En malta olla toteamatta että itse jo monta viikkoa sitten täällä veikkailin että big navi on aavistuksen nopeampi kuin 3070, ja toisaalta että 3070 jää hivenen 2080Ti:stä jälkeen. Jos Big navi yltää 2080 Ti:n tehoihin niin se on jo aika hyvin.

Niin unohdat vaan, että 5000-sukupolvessa ei ollut ollenkaan isoa korttia. Joo, tuleva 40CU on tuskin yli 50% nopeampi kuin 5700XT. Mutta 5000-sukupolveenkin olisi pystytty julkaisemaan vähintään 64CU ellei 80CU piiri, joka olisi ollut sen 50% nopeampi.
 
Minullekin eräs moderaattori rupesi kuittailemaan jokin aika sitten, kun veikkasin, että hyvinkin vain noin 3070/2080 ti tasoa. Nähdään miten käy :asif:

Se olisi kyllä aika outoa, etenkin kun tuohon aikaan oli ne devaajien tehoarviot pihalle, eli uusi xbox on about 2080. Joten olisi aika epic fail, jos 53% lisää coreja ja 10-20% lisää kelloja ei tuottaisi, kuin about 30% lisää tehoa.
 
Minullekin eräs moderaattori rupesi kuittailemaan jokin aika sitten, kun veikkasin, että hyvinkin vain noin 3070/2080 ti tasoa. Nähdään miten käy :asif:
Joo on itselläni ainakin suurin osa huvia on nimenomaan spekulaatiossa tai veikkailussa. Voisin edelliseen vielä lisätä että sukupolvien sijaan tarkoitin julkaisua, siis mietin että onko ikinä (tai 9700pron jälkeen) käynyt niin että uusi kortti olisi ollut reippaasti yli 50% nopeampi kuin edellinen lippulaiva. Lisäksi nyt on tulossa ray tracingin merkittävästi uudenlainen teknologia, eikä olla vaan lisäämässä tehoja. En muuten ihmettelisi jos big navi pärjäisi ray tracing-testeissä suhteessa parempi kuin muissa, ehkä jopa 3080-tasoisesti.
 
Se olisi kyllä aika outoa, etenkin kun tuohon aikaan oli ne devaajien tehoarviot pihalle, eli uusi xbox on about 2080. Joten olisi aika epic fail, jos 53% lisää coreja ja 10-20% lisää kelloja ei tuottaisi, kuin about 30% lisää tehoa.
Totta. Itsekin olisin hieman yllättynyt mikäli ei mene Big Navi vähintään 3080 tasolle, mikäli 80 CU ja yli 2Ghz kellot pitävät paikkansa. Itse pidän vain mielessä, että lähimenneisyydessä AMD:n näyttiksiä on rummutettu lähes joka kerta Nvidian tappajiksi tms. eikä vielä ole niin tapahtunut. Tuhnua voi mielestöni ihan yhtä hyvin tulla kuin jytkyäkin. Toivottavasti se jytky, jotta hinnoittelut pysyvät molemmilla kurissa.
 
Onko ikinä ollut radeon-sukupolvien välillä paljoa yli 50% eroa? Ja toisaalta ilmeisesti muistikaista on pysymässä samana, 256 bit GDDR6. En malta olla toteamatta että itse jo monta viikkoa sitten täällä veikkailin että big navi on aavistuksen nopeampi kuin 3070, ja toisaalta että 3070 jää hivenen 2080Ti:stä jälkeen. Jos Big navi yltää 2080 Ti:n tehoihin niin se on jo aika hyvin.

Tässä on vaan se ongelma, että tuo 80CU piiri on huhujen mukaan >500mm^2. Sen valmistus on jo jonkin verran kallista prosessilla, jolla duunataan Pleikkari, Xboxi, Zen2 ja Zen3. Eli siitä on pakko saada kunnon rahat.

Jos AMD kilpailisi vain 3070 tasolla olisi tuo piiri myytävä melko halvalla. Varsinkin kun kaikki konventionaalinen logiikka sanoo, että 56CU RDNA1 olisi jo tuolla tasolla niin jos todella on otettu niin pahasti takapakkia, että tarvitaan 80CU ja 2.2GHz, että saadaan +40% niin AMD ei vaan yksinkertaisesti tekisi tuota. Muutenkin tuossa vaikka olisi 700€ hintaluokassa tulee olemaan huonommat katteet per mm^2 kuin prosessoreissa ja jos tuo jouduttaisiin tunkemaan 450-550€ hintaluokkaan niin siinä ei vaan olisi mitään taloudellista järkeä.

Parempi olisi olla julkaisematta mitään ja kertoa, että nyt kävi näin, ostakaa Pleikkari.
 

Statistiikka

Viestiketjuista
295 909
Viestejä
5 055 865
Jäsenet
81 002
Uusin jäsen
Samposal

Hinta.fi

Back
Ylös Bottom