AMD-spekulaatioketju (RDNA:n ja CDNA:n tulevat sukupolvet)

AMDllä ON "jotain vastaavaa", tai oikeastaan parempaa, Radeon Image Sharpening.

Luvalla sanoen, Image sharpening on ihan hirveä:D olen testannut sitä laajasti itse, ja kuvanlaatu verrattuna natiiviresoon on niin paljon huonompi ettei sitä huvita käyttää.
 
Luvalla sanoen, Image sharpening on ihan hirveä:D olen testannut sitä laajasti itse, ja kuvanlaatu verrattuna natiiviresoon on niin paljon huonompi ettei sitä huvita käyttää.

Ihan samaa mieltä itse. Olen useammassikin pelissä koittanut, että pudottaisi edes pikkasen render scalea (esim 90%:n) ja sitten pieni sharpening siihen. Loputulokset ollu aina todella suttusia vs. natiivi reso. DLSS 2.0 valovuosia edellä. Siinä ei pienet artefaktit paljoa paina kun softakikkailuilla koko kuva on ihan puuroa.
 
Ihan samaa mieltä itse. Olen useammassikin pelissä koittanut, että pudottaisi edes pikkasen render scalea (esim 90%:n) ja sitten pieni sharpening siihen. Loputulokset ollu aina todella suttusia vs. natiivi reso. DLSS 2.0 valovuosia edellä. Siinä ei pienet artefaktit paljoa paina kun softakikkailuilla koko kuva on ihan puuroa.
Luvalla sanoen, Image sharpening on ihan hirveä:D olen testannut sitä laajasti itse, ja kuvanlaatu verrattuna natiiviresoon on niin paljon huonompi ettei sitä huvita käyttää.

Samaa mieltä. AMD:llä tulee kiire optimoida tekniikka DLSS 2.0 tasolle ennen julkasua tai varmasti näkyy myynnissä negatiivisesti
 
Samaa mieltä. AMD:llä tulee kiire optimoida tekniikka DLSS 2.0 tasolle ennen julkasua tai varmasti näkyy myynnissä negatiivisesti
Ei noilla mikään kiire ole, niin harva peli tuota tukee vielä, eikö tuosta muutenkaan ole mitään hyötyä muulle kuin 4K+ resoille, suurinosa pelaa 1440p resolla vielä vuoden päivät.
 
Samaa mieltä. AMD:llä tulee kiire optimoida tekniikka DLSS 2.0 tasolle ennen julkasua tai varmasti näkyy myynnissä negatiivisesti
Ei ole mitään kiirettä. Jos se teho ei riitä natiiviresolle, niin olet ostanut liian tehottoman kortin. Enkä muutenkaan ainakaan itse ota vapaaehtoisesti käyttöön yhtään kuvanlaatua huonontavaa tekniikkaa
 
Tuo kuvailee L1:n toimintaa, RDNA:ssa on aina jaetut L1:t, tuo antaa mahdollisuuden olla privaatti tai jaettu, epäilty että CDNA:ssa olisi käytössä.
Jos "Infinity Cache" on iso kuten on ehdotettu sillä tuskin on mitään tekemistä L1:n kanssa.

Juu.

edit:
Tosin monet ovat veikkailleet Infinity Cachea next gen Infinity Fabricin osaksi prossujen päähän

Käsittääkseni AMDn näyttisten sisällä on myös infinity fabric, mutta leveämpänä versiona.


Jos tuo iso kakku tulee, se olisi todennäköisesti "memory side cache" eli että se sijaitsee muistiohjaimen puolella crossbaria, siten että
1) se toimii automaattisesti aivan kaikille ketkä sitä muistia käyttää
2) se jakautuu lohkoihin joista jokainen on kullekin muistikanavalle ja kakuttaa vaan siihen muistiohjaimeen kytkettyjä muistialueita
3) mitään koherenttiusprotokollaa ei tuon välimuistin osalta tarvita koska kaikki accessit muistiin menee aina tuon välimuistiohjaimen kautta, muistista ei ole mahdollista lukea "vanhentunutta versiota" datasta

Haittapuolena memory side cachessä on sitten että
1) se on kauempana ytimistä, (paljon) enemmän viiveitä kuin yksityisillä välimuisteilla ja se ei vähennä kuormitusta piirin crossbarilta (virrankulutus, tarve järeään crossbariin) joten sen lisäksi tarvii aina myös muita (pienempiä, nopeampia) välimuisteja toiselle puolelle crossbaria. Soveltuu siis vain uloimman tason välimuistiksi (tai no, jos välimuistitasoja on oikein monta (vähintään 4), niin EHKÄ myös toiseksi uloimmaksi tasoksi).
2) Kaikki kaistaa käyttävä IO (joka usein käsittelee dataa tasan kerran, (näyttiksellä esim. kuvan lähettäminen itse ruudulle)) tekee myös muistiaccessinsa tämän saman välimuistin läpi, ja voi heittää sieltä menemään "tärkeämpää" dataa. Toki on mahdollista tehdä virityksiä joilla "asiakas" tai "streamaava request" tunnistetaan ja hudin tullen data jätetään lataamatta välimuistiin jos sitä haluaa väärää "asiakas" tai luku on väärässä moodissa, ja samoin näille "väärien asiakkaiden" tai "streamaavassa moodissa" tehdyille kirjoituksille toimitaan write-through eikä writeback-moodissa, mutta tämä asiakkaiden syrjiminen poistaa osan siitä yksinkertaisuushyödystä joka memory side cachellä on, sitten sen käyttäminen ei enää olekaan täysin läpinäkyvää.

Memory-side-cachejä on aiemmin ollut ainakin mm.

1) Intelin iris pro-iGPUiden sisältävissä Intelin prossuissa se 64MiB tai 128MiB eDRAM-välimuisti (prossulle L4, iGPUlle L5)
2) IBMn POWER-sarjan Centaur-IO-piireille integroidut L4 välimuistit
 
Viimeksi muokattu:
Ei noilla mikään kiire ole, niin harva peli tuota tukee vielä, eikö tuosta muutenkaan ole mitään hyötyä muulle kuin 4K+ resoille, suurinosa pelaa 1440p resolla vielä vuoden päivät.
RTX 20-sarjan vanhana omistajana olen tästä täysin eri mieltä, DLSS 2.0 on hyödyllinen myös esimerkiksi 1440p-resoluutiolla. En tiedä oletko sitä kokeillut, mutta tämä oma mielipide. Jatkoväittelyt voi sitten ottaa väittelyketjussa.

Joka tapauksessa AMD:n vastaavat ratkaisut ovat Nvidiaa jäljessä ja kyseisten ratkaisuiden tärkeys tulee vain korostumaan jatkossa.
 
Siinä ei pieni pehmeys paljoa paina kun softakikkailulla koko kuva on täynnä haloja ja rikkinäisiä partikkeliefektejä.
Omat DLSS-kokemukset on Death Strandingista @"4k" 55", enkä pysty mitenkään allekirjoittamaan väitteitä ruudun täyttävistä rikkinäisistä partikkeliefekteistä ja haloista. Ne ovat poikkeuksia, kun jossain jonkun ongelman näkee. Pieni hinta siitä, että voi ajaa telkkaria natiivi 4k:na 1440p-sutun sijaan, joka todellakin on suttua joka ikisessä freimissä.
 
Siinä ei pieni pehmeys paljoa paina kun softakikkailulla koko kuva on täynnä haloja ja rikkinäisiä partikkeliefektejä.

Kuva täynnä... Aika mielenkiintoiset kirteerit siitä, mitä "kuva täynnä" tarkoittaa. Silloin tällöin näkyvät halot ja partikkliefektien virheet on aika pientä vs vaseliiniukuva 100%: ajasta, 100% kuva-alasta. :whistling:

Toki natiivia käytän, jos suorituskyky riittää, mutta se ei aina riitä, jolloin DLSS on hyvä olla optiona, kun render scalen lasku vaan paskoo sen kuvan niin totaalisesti, että sitä ei noilla sharpenin kikkailuilla saa pelastettua.
 
Omat DLSS-kokemukset on Death Strandingista @"4k" 55", enkä pysty mitenkään allekirjoittamaan väitteitä ruudun täyttävistä rikkinäisistä partikkeliefekteistä ja haloista. Ne ovat poikkeuksia, kun jossain jonkun ongelman näkee. Pieni hinta siitä, että voi ajaa telkkaria natiivi 4k:na 1440p-sutun sijaan, joka todellakin on suttua joka ikisessä freimissä.

Siinä DLSS-upskaalatussa kuvassa ei ole mitään "natiivimpaa" kuin RIS-upskaalatussa kuvassa.

Molemmilla näyttis rendaa pienemmällä resolla ja skaalaa kuvan ylös tarkentaen sitä ja näyttö saa sisään 4k-kuvaa
 
Siinä ei pieni pehmeys paljoa paina kun softakikkailulla koko kuva on täynnä haloja ja rikkinäisiä partikkeliefektejä.
Se tuollaissa DLSS-tyyppisessä toteutuksessa tosin on kätevää, että efektejä on periaatteessa mahdollista tehdä DLSS-passin ulkopuolella/jälkeen. Vastikään toivat Unreal Engine branchiinsä mahdollisuuden flägätä partikkelit piirrettäviksi DLSS-passin ulkopuolella, jolla vältetään niiden rikkoutuminen.

Mistähän johtuu, että samat kultasilmät, jotka väittävät näkevänsä millisekuntitason eroja paljaalla silmällä ovat sokeita DLSS:n artifakteille
Onnekkaitapa ovat kyllä he, jotka eivät näe eroa 30fps:n ja 60fps:n välillä. Tämä hyppy oli ihan todellisuutta esim. Minecraftissä RTX 2080:llä 1440p resolla ja itse olen kyllä ihan valmis karsimaan kuvanlaadusta että pyörii noin paljon sulavammin.

Siinä DLSS-upskaalatussa kuvassa ei ole mitään "natiivimpaa" kuin RIS-upskaalatussa kuvassa.

Molemmilla näyttis rendaa pienemmällä resolla ja skaalaa kuvan ylös tarkentaen sitä ja näyttö saa sisään 4k-kuvaa
DLSS:llä osa post-process efekteistä tehdään natiiviresolla ja myös texture mip bias on säädetty output resolle, jolloin teksuurit näyttävät tarkoilta.

RIS huomattavasti yksinkertaisempana ratkaisuna skaalaa koko kuvan, paitsi HUDin ellen nyt väärin muista.
 
Onnekkaitapa ovat kyllä he, jotka eivät näe eroa 30fps:n ja 60fps:n välillä. Tämä hyppy oli ihan todellisuutta esim. Minecraftissä RTX 2080:llä 1440p resolla ja itse olen kyllä ihan valmis karsimaan kuvanlaadusta että pyörii noin paljon sulavammin.
30 vs. 60 näkee kuka tahansa. Tarkoitin porukkaa joka täällä väittää näkevänsä paljaalla silmällä pienetkin fps erot kun ruudunpäivitys on lähempänä 200 fps
 
Kuva täynnä... Aika mielenkiintoiset kirteerit siitä, mitä "kuva täynnä" tarkoittaa.
Kyllä se ihan koko kuva on täynnä, johtuu DLSS algon opettamiseksi käytetystä kuvamateriaalista, joka on skaalattu alaspäin lanczos menetelmällä ilman että väriarvoja on mitenkään rajattu olemaan skaalaamattoman kuvan arvoalueen sisäpuolella. Tästä syystä johtuen aivan koko kuva on pilattu, jotkut vaan pitävät tästä "terävämmästä" lookista.

Käyttäkää mitä haluatte, mutta älkää sanoko että se mitä satutte käyttämään on objektiivisesti parempi kuin joku toinen valinta, sillä kyseinen väite ei pidä paikkaansa. Kaikki nykyisin saatavilla olevat skaalaustekniikat on kompromissiratkaisuja, siinä missä natiiviresoluutiolla rendaaminenkin. Se että mikä kompromissi on käyttäjän kannalta paras on käyttäjästä riippuva asia.
 
Kyllä se ihan koko kuva on täynnä, johtuu DLSS algon opettamiseksi käytetystä kuvamateriaalista, joka on skaalattu alaspäin lanczos menetelmällä ilman että väriarvoja on mitenkään rajattu olemaan skaalaamattoman kuvan arvoalueen sisäpuolella. Tästä syystä johtuen aivan koko kuva on pilattu, jotkut vaan pitävät tästä "terävämmästä" lookista.

Käyttäkää mitä haluatte, mutta älkää sanoko että se mitä satutte käyttämään on objektiivisesti parempi kuin joku toinen valinta, sillä kyseinen väite ei pidä paikkaansa. Kaikki nykyisin saatavilla olevat skaalaustekniikat on kompromissiratkaisuja, siinä missä natiiviresoluutiolla rendaaminenkin. Se että mikä kompromissi on käyttäjän kannalta paras on käyttäjästä riippuva asia.

Ottaen huomioon, että Nvidia tarjoaa myös sen RIS:ää vastaavan terävöitysoption, niin DLSS-option tarjoaminen sen rinnalla on kyllä ihan objektiivisesti parempi.
 
Ottaen huomioon, että Nvidia tarjoaa myös sen RIS:ää vastaavan terävöitysoption, niin DLSS-option tarjoaminen sen rinnalla on kyllä ihan objektiivisesti parempi.
Käsittääkseni tässä oli puhe eri optioiden keskinäisestä paremmuudesta. Jos AMD tuo jonkun uuden vendor lockatun option ajureihinsa, niin sitten ollaan taas tasoissa sillä vaihtoehtoja on yhtä monta?
 
Käsittääkseni tässä oli puhe eri optioiden keskinäisestä paremmuudesta. Jos AMD tuo jonkun uuden vendor lockatun option ajureihinsa, niin sitten ollaan taas tasoissa sillä vaihtoehtoja on yhtä monta?

No ei oikeastaan ollut, koska keskustelun tämä haara käynnistyi pohdinnasta "miten AMD vastaa Nvidian DLSS:ään". Vertailukohteina on silloin AMD:n kootut tekniikat vs. Nvidian kootut tekniikat.
 
Menkää tuonne AMD vs. Nvidia ketjuun väittelemään noista.
Ensiksi AMD:n kortit eivät kelvanneet, koska tehoa ei ole tarpeeksi. Nyt kun näyttää tehoja (oletettavasti/arvaten) riittävän, niin otettiinkin silmätikuksi DLSS:n puute.

Itelläni on myös tuo LG:n 55" OLED tuossa vieressä "kakkosnäyttönä", mutta ei ole pienintäkään kaipuuta pelata siinä mitään "4K" DLSS peliä. Katseluetäisyyttä noin kaksi metriä ja 1440p ei todellakaan näytä "sutulta", kuten joku täällä väitti. AC Odysseytä tulee pelattua 1080p resoluutiolla ja tuo LG hoitaa skaalautumisen niin hyvin, ettei edes se näytä yhtään epätarkalta.


Edit: Ehkä Nvidian kortti tulee hommattua, koska tässä 2019 telkussa on vain G-Sync eikä VRR:ää. Mutta eipä senkään puute nykyisellään ole haitannut, eikä tuo DLSS tule myöskään olemaan millään tapaa deal breaker omalla kohdallani.
 
No ei oikeastaan ollut, koska keskustelun tämä haara käynnistyi pohdinnasta "miten AMD vastaa Nvidian DLSS:ään". Vertailukohteina on silloin AMD:n kootut tekniikat vs. Nvidian kootut tekniikat.
Ei sen tarvitse siihen vastata mitenkään, tämän varmaan tiedät itsekkin. Väitän että AMD:n kootut tekniikat on jotakuinkin yhtä hyvät/huonot kuin nvidian, eikä asialle löydy objektiivisesti tarkasteltuna mitään muuta totuutta. Jatka toki keskustelua tuolla DLSS:lle varatussa jankkausketjussa jos olet asiasta voimakkaasti eri mieltä.

Onneksi kaikki merkit juuri nyt viittaavat siihen että nopeammat näyttikset tulevat vaihteeksi AMD:n leiristä, niin saa Nvidian fanipojat vähän uutta keskusteltavaa. Oletettavasti seuraavat aiheet liittyvät täällä siihen että "miten AMD vastaa Nvidian 8k gamingiin" ja muihin asioihin jotka ei juuri ketään kiinnosta.
 
Ei sen tarvitse siihen vastata mitenkään, tämän varmaan tiedät itsekkin. Väitän että AMD:n kootut tekniikat on jotakuinkin yhtä hyvät/huonot kuin nvidian, eikä asialle löydy objektiivisesti tarkasteltuna mitään muuta totuutta. Jatka toki keskustelua tuolla DLSS:lle varatussa jankkausketjussa jos olet asiasta voimakkaasti eri mieltä.

Onneksi kaikki merkit juuri nyt viittaavat siihen että nopeammat näyttikset tulevat vaihteeksi AMD:n leiristä, niin saa Nvidian fanipojat vähän uutta keskusteltavaa. Oletettavasti seuraavat aiheet liittyvät täällä siihen että "miten AMD vastaa Nvidian 8k gamingiin" ja muihin asioihin jotka ei juuri ketään kiinnosta.
Voit varmaan itse jatkaa siellä ketjussa jos asia häiritsee? Erittäin epäloogista valittaa asiasta ja itse tehdä sitten sama.

Objektiivisesti tarkasteltuna nvidialla on paremmat, koska se osaa enemmän ominaisuuksia. Kuten jo kerrottu suuremman määrän/erilaisten natiivielementtien ruudulle sijoittamisen. Tämä on objektiivisesti mitattava asia eikä sinun päänsisäisen fantasia.

Tällaisia asioita odotetaan nyt AMD uutuuksiin myös.
 
Ei sen tarvitse siihen vastata mitenkään, tämän varmaan tiedät itsekkin. Väitän että AMD:n kootut tekniikat on jotakuinkin yhtä hyvät/huonot kuin nvidian, eikä asialle löydy objektiivisesti tarkasteltuna mitään muuta totuutta. Jatka toki keskustelua tuolla DLSS:lle varatussa jankkausketjussa jos olet asiasta voimakkaasti eri mieltä.

Onneksi kaikki merkit juuri nyt viittaavat siihen että nopeammat näyttikset tulevat vaihteeksi AMD:n leiristä, niin saa Nvidian fanipojat vähän uutta keskusteltavaa. Oletettavasti seuraavat aiheet liittyvät täällä siihen että "miten AMD vastaa Nvidian 8k gamingiin" ja muihin asioihin jotka ei juuri ketään kiinnosta.

En minä esittänyt aiheesta mitään väitteitä tähän ketjuun. Eräs toinen keskustelija mainitsi (ketjun aiheeseen ihan hyvin osuvasti), että mikähän on AMD:n vastine DLSS:lle. Johon sitten esitettiin RIS:ää, joka ei luonnollisestikaan voi olla vastine DLSS:lle, koska Nvidialla on täsmälleen saman asian tekevä tekniikka myöskin. AMD:llä ei ole tällä hetkellä DLSS:ää vastaavaa tekniikkaa.

Ei mulla tähän muuta ole kommentoitavaa, AMD vastaa jos katsoo aiheelliseksi vastata. Mutta ei ole vastannut toistaiseksi.
 
Ei noilla mikään kiire ole, niin harva peli tuota tukee vielä, eikö tuosta muutenkaan ole mitään hyötyä muulle kuin 4K+ resoille, suurinosa pelaa 1440p resolla vielä vuoden päivät.

Sanoisin omasta kokemuksesta että ainakin itselläni kestää pidempään kuin "vuoden päivät". Tämän 1440p 144Hz monitorin ostin marraskuussa 2018 kun paremmalta puoliskolta hajosi vanha 24" TN (1080p) näyttö mikä oli hankittu joskus 2008/2009. Hän sai oman käytössä olleen Dell UltraSharp U2713HM näytön mikä lienee hankittu joskus 2014 enkä olisi sitä muuten vielä edes korvannut.

Vielä siis hetken kestänee että on tarvetta päivittää johonkin 32" 4K 240+Hz IPS näyttöön (kun niiden hinnat alkavat olla tuossa ~500€ paikkeilla tai hieman vähemmän). Sanoisin että ainakin 3+ vuotta menee että teknologia kehittyy ja hinnat tulevat alaspäin. En olisi edes järjettömän yllättynyt jos tuohon menisi viisikin vuotta...

Siihen mennessä kyllä näytönohjain ehtii vaihtua useampaan kertaan.
 
Kuka haluaa kuvavhuononnustekniikkaa. Mieluummin 1440p ja kunnon kuvanlaadulla jos ei 4k taivu
Mutta ku kaikki youtube tech ukot + nvidia sanoo että "better image quality than native", niin se on pakko olla hyvä. :D Itse olen henkilökohtaisesti kokeillut tuota DLSS 2.0 4K näytöllä, näyttää hyvälle ja aika vaikea joissai tapauksissa erottaa natiivista, mikä on erittäin hieno saavutus, mutta kuva nihilistinä on pakko sanoa että upscale on aina upscale, ihan sama mikä skynet siellä on sitä vääntämässä...
 
Mutta ku kaikki youtube tech ukot + nvidia sanoo että "better image quality than native", niin se on pakko olla hyvä. :D Itse olen henkilökohtaisesti kokeillut tuota DLSS 2.0 4K näytöllä, näyttää hyvälle ja aika vaikea joissai tapauksissa erottaa natiivista, mikä on erittäin hieno saavutus, mutta kuva nihilistinä on pakko sanoa että upscale on aina upscale, ihan sama mikä skynet siellä on sitä vääntämässä...

Mutta on se silti hemmetisti parempi kuvanlaadultaan, kun se vaihtoehto, että heittää vaan resoksi 1440p ja antaa näytön vaan skaalata, kuten @Hellsinkin ehdottaa...

Ei kait kovin moni DLSS:ää käytä, jos näytön natiiviresolla pyörii tarpeeksi hyvin.
 
Mutta on se silti hemmetisti parempi kuvanlaadultaan, kun se vaihtoehto, että heittää vaan resoksi 1440p ja antaa näytön vaan skaalata, kuten @Hellsinkin ehdottaa...

Ei kait kovin moni DLSS:ää käytä, jos näytön natiiviresolla pyörii tarpeeksi hyvin.
Näyttöhän ostetaan käytetyn resoluution mukaan. 4K ei juuri mikään näyttis ole vielä tähän päivään mennessä jaksanut ilman kuvanlaadun huononnusta. 2080ti ei edes pystynyt säteenseurannalla kelvollisiin lukemiin. Siksi kai tuo kuvanhuononnusteknologia on keksitty. Jos joku kuitenki on fiksuna ostanut 4K näytön ja tehot ei oo riittäneet ni se on oma virhe
 
Näyttöhän ostetaan käytetyn resoluution mukaan. 4K ei juuri mikään näyttis ole vielä tähän päivään mennessä jaksanut ilman kuvanlaadun huononnusta. 2080ti ei edes pystynyt säteenseurannalla kelvollisiin lukemiin. Siksi kai tuo kuvanhuononnusteknologia on keksitty. Jos joku kuitenki on fiksuna ostanut 4K näytön ja tehot ei oo riittäneet ni se on oma virhe
Niin meinasit että näyttö myyntiin ja pienempää tilalle... Noh onhan sekin toki ratkaisu, vaikka ei välttis ihan jokainen ole heti lähtemässä tohon hommaan. :think:
 
387453_CFA6CB87-2FA6-4769-BDDD-3A0846257123.png

Tämmöisen bongasin
 
4k telkkareita on ehditty myydä jo vuosikausia. Kelvollisen telkkarin kuvanlaatu hakkaa 100-0 kaikki pc-näytöt, joissa on naurettavan pieni kontrasti, mitätön HDR, huonot värit ja postimerkkikoko.

Tosi käytännöllistä katsoa 55-65" telkkaria 1m katseluetäisyydeltä...
On noilla käyttötarkoituksensa, mutta tietokoneen näytöksi aika huono valinta. (3x32" on paljon käytännöllisempi...)

Saa nyt nähdä miten pielessä kaikki AMD vuodot on. Nvidia sai aika hyvin pidettyä Amperen oikeat speksit piilossa, kun vielä päivää ennen julkaisua oltiin ihan varmoja että on mm. 7nm prosessi...
 
387453_CFA6CB87-2FA6-4769-BDDD-3A0846257123.png

Tämmöisen bongasin

Tuossa oletetaan 2.25 GHz kellotaajuudeksi Navi21lle, mikä voi olla paljon. Voi todelliset (oikeasti ylläpidettävät) kellot olla lähempänä 2 GHzaa mikä tarkoittaisi n. 10% hitaampaa suorituskykyä.

Muuten vaikuttaa järkeviltä luvut teoreettisiksi törmäystarkastusten nopeusluvuiksi, joku vihdoin laittanut nämä yhteen kuvaan.


Eli oma tuomio: Approved.
 
Tuossa oletetaan 2.25 GHz kellotaajuudeksi Navi21lle, mikä voi olla paljon. Voi todelliset (oikeasti ylläpidettävät) kellot olla lähempänä 2 GHzaa mikä tarkoittaisi n. 10% hitaampaa suorituskykyä.

Muuten vaikuttaa järkeviltä luvut teoreettisiksi törmäystarkastusten nopeusluvuiksi, joku vihdoin laittanut nämä yhteen kuvaan.


Eli oma tuomio: Approved.

Jos nuo luvut olisi noin, niin miten tehotasapaino mahtaa mennä, onko tuo suhde fiksumpi nVidialla vai amdllä?
 
Niin meinasit että näyttö myyntiin ja pienempää tilalle... Noh onhan sekin toki ratkaisu, vaikka ei välttis ihan jokainen ole heti lähtemässä tohon hommaan. :think:
Parasta on kun porukka käyttää 27" 4k näyttöjä. Tarvii melko läheltä katsoa, estää huomaa eron 4k vs 2.5k.

Mutta asiaan, mielenkiintoinen toi RT suorituskyky kaavio kun on tosiaan käytetty 2250MHz core kelloja vaikka kaikki vuodot näyttää 2050. Ja siis noi on vuodettu datat, se että joku huhuilee jotain YouTubessa ei tee siitä vuotoa.
 
Parasta on kun porukka käyttää 27" 4k näyttöjä. Tarvii melko läheltä katsoa, estää huomaa eron 4k vs 2.5k.

Mutta asiaan, mielenkiintoinen toi RT suorituskyky kaavio kun on tosiaan käytetty 2250MHz core kelloja vaikka kaikki vuodot näyttää 2050. Ja siis noi on vuodettu datat, se että joku huhuilee jotain YouTubessa ei tee siitä vuotoa.
Se 2050 MHz on peräisin vain yhdestä vuodosta, ei "kaikista vuodoista". Samassa taulukossa jossa se oli oli myös 1000 MHz maksimikellotaajuutena Navi10:lle. Eli ei ehkä kannata ottaa ihan niin kiveen kirjoitettuna.
 
Myös se Macin ajureista pultattu tieto oli 2200 tasolla joka aiheuttaa kyllä kysymyksiä, koska Applen tuotteita harvemmin on kellotettu (kun jotkut miettivät voisiko se olla yksinkertaisesti kellotaajuuden virityksen yläraja ajureissa)...

Edit: korjaus navi21 oli 2050-2200, navi22 oli 2500(?).
 
Aika iso ero tuossa AMD:n ratkaisun Box vs triangle nopeudessa. Viisaammat varmaan osaa sanoa, voiko aiheuttaa pullonkaulaa käytännössä... :hmm:
Jos tuo kerran on laskettu Xboxin piiristä joka ei kuulema edes ole puhdas rdna2, niin tuloksilla ei ole suuremmin merkitystä. Oikeat näkee vasta kun AMD julkaisee Big Navin virallisesti
 
4k telkkareita on ehditty myydä jo vuosikausia. Kelvollisen telkkarin kuvanlaatu hakkaa 100-0 kaikki pc-näytöt, joissa on naurettavan pieni kontrasti, mitätön HDR, huonot värit ja postimerkkikoko.
Mutta niissä sitten massiivinen input-lagi kumoaa kaikki edut tehden telkkarista pelikelvottoman PC pelailuun, ellet ole pistänyt telkkuun useita tonneja. Vasta viimeaikoina kelvollisia pelitelkkuja on alkanut saada tonnin hintaluokassa.

Eli kyseiden pelitelkkujen omistajat ovat yhä aika marginaalissa...
 
Aika iso ero tuossa AMD:n ratkaisun Box vs triangle nopeudessa. Viisaammat varmaan osaa sanoa, voiko aiheuttaa pullonkaulaa käytännössä... :hmm:

Testaus kolmioon on matemaattisesti paljon raskaampi laskea kuin testaus laatikkoon, se vaatii enemmän (muistaakseni vähän yli tuplasti) laskutoimituksia.

Mutta laatikkoon testaus on yleensä myös monta kertaa yleisempi operaatio kuin kolmion testaus

Eli molemmat tekivät säteenjäljitysrautansa ekasta versiosta sellaisen, että se tekee 4 laatikkotestausta kellojaksosssa (ilmeisesti käyttävät radix4-BVH-puuta, jolloin siellä on luonnollisesti ne 4 laatikkoa testattavaksi), ja tälle mitoitettu rauta pystyy sitten melko helposti myös tekemään yhden kolmiotestin kellojaksossa.

Nyt sitten toisessa sukupolvessa nVdia päätti että lisätäänpäs niihin yksiköihin sen verran lisää rautaa, että pystytään tekemään myös kaksi kolmiotestausta kellojaksossa.

edit:
Näiden kahden kolmion pitää sitten todennäköisesti tulla samasta BVH-puun lehtilaatikosta (en ole varma tästä), koska niiden kolmioiden "ruokkiminen" törmäystarkastusyksiköille eri laatikoista olisi paljon monimutkaisempaa.

Vielä vartti sitten tätä viestiä alun perin sitten kirjoittaessani luulin, että yleensä käytetään yhden kolmion kokoisia lehtilaatikoita, ja se että nVidia nyt ilmeisesti tukee myös useamman kolmion laatikoita olisi joku uusi juttu. Kunnes lähdin vähän kyselemään asiasta oikeasta suunnasta, ja selvisi, että monen kolmion lehtilaatikot onkin ihan arkipäivää (ja tämä muuttaa tähän sitä laatikko- vs kolmio-tarkastusten suhdetta).

Jos nuo luvut olisi noin, niin miten tehotasapaino mahtaa mennä, onko tuo suhde fiksumpi nVidialla vai amdllä?

Yhtä kolmiotestiä kohden tehdään ehkä n. 10-40 laatikkotestiä => Tilanteessa jossa kolmiotestejä tarvitaan 2 kpl, AMDllä aikaa kuluu siis keskimäärin 5-20 kellojaksoa laatikkotesteihin ja 2 kellojaksoa kolmiotestiin.

nVidialla laatikkotestit menee samassa 5-20 kellojaksossa, mutta kolmiotesteihin kuluu vain 1 kellojakso.

Eli nVidia säästänee noilla tuplanopeilla kolmiotesteillään usein (vain n.) luokkaa 5-15% kellojaksoja.
 
Viimeksi muokattu:
Nvidian RTX korttien kanssa tehon ei tarvi riittääkkään jollekkin resolle kun DLSS 2.0:lla saat hyvin pitkälti täysin samanäköistä jälkeä kuin natiivi.

AMD on tässä valovuosia takana, Nvidialla onnistuu DLSS 2.0:lla jo 8K pelaaminenkin, AMD:llä tämä on fantasiaa jos haluaa että peli näyttäisi vielä hyvällekkin

ÖÖh, miten tämä 8K pelaaminen nyt liittyy spekulaatioketjuun AMD:n Navi näytönohjaimista? Spekuloit että se ei natiivina onnistu kuten ei Nvidiallakaan mutta ehkä jollain muulla teknologialla sitten....
 
Mutta niissä sitten massiivinen input-lagi kumoaa kaikki edut tehden telkkarista pelikelvottoman PC pelailuun, ellet ole pistänyt telkkuun useita tonneja. Vasta viimeaikoina kelvollisia pelitelkkuja on alkanut saada tonnin hintaluokassa.

Eli kyseiden pelitelkkujen omistajat ovat yhä aika marginaalissa...
6-16 ms akselia löytyy laajalla skaalalla Samsungeista, Sonyista ja LG:ltä. Ei tuo ole ollut enää toviin mikään iso ongelma, jos ei osta sikaa säkissä. Parin viime vuoden aikana on ollut kovaa kehitystä input lagin suhteen tv-rintamalla. Eivät toki sovellu kilpailuhenkisempiin peleihin, mutta niitä varten on sitten ne 240 Hz näytöt. :)
 
6-16 ms akselia löytyy laajalla skaalalla Samsungeista, Sonyista ja LG:ltä. Ei tuo ole ollut enää toviin mikään iso ongelma, jos ei osta sikaa säkissä. Parin viime vuoden aikana on ollut kovaa kehitystä input lagin suhteen tv-rintamalla. Eivät toki sovellu kilpailuhenkisempiin peleihin, mutta niitä varten on sitten ne 240 Hz näytöt. :)

Niin sampalla on response time max 4ms + input lag 14ms. LG:llä on response time about 1ms + input lag 14ms. Joten aika hyvät nykyään.
 
Niin sampalla on response time max 4ms + input lag 14ms. LG:llä on response time about 1ms + input lag 14ms. Joten aika hyvät nykyään.
Noissa on hieman enemmän hajontaa. Samsungilla esim Q90T ja Q80T 10 ms @ 60 Hz ja 6 ms @120 Hz, viime vuoden Q70R 15 ms ja 6 ms. LG:n C9 ja CX vajaat 14 ms ja 7 ms, Sonyn XH90 15 ms ja 7 ms.
 
Mutta niissä sitten massiivinen input-lagi kumoaa kaikki edut tehden telkkarista pelikelvottoman PC pelailuun, ellet ole pistänyt telkkuun useita tonneja. Vasta viimeaikoina kelvollisia pelitelkkuja on alkanut saada tonnin hintaluokassa.

Eli kyseiden pelitelkkujen omistajat ovat yhä aika marginaalissa...
Massiivinen input lagi pelikelvottoman heitä ukko satuilemasta, iät ajat tullu telsulla pelattua plasmasta lähtien on se eri makia pelata pitkästi yli 50" kokosella ruudulla sohvalta käsin kuin jossaki nurkassa jakkaralla nokka kiinni pikkuruudusta semmosesta josta viitti edes elokuvia katsoa. Tieten jos ainut peli on joku CS:GO niin sillon kait ihan sama mistä linnunpöntöstä sitä pelaa kunhan on korkea ruudunpäivitys.
 
Viimeksi muokattu:
Okei ehkä tuo input lagin valinta argumentiksi oli huono valinta. Pointtini siis oli aikaisempaan DLSS-keskusteluun liittyen se, että vaikka 4K (peli-)telkkareita löytyykin niin harvalla (pl. nämä foorumit) sellaiseen on tietokone kytkettynä pelaamista varten. Ja vielä harvempi on ostanut 4K monitorin pelaamista varten.

Joten vaikkakin DLSS voi varmasti olla hyödyllinen, suurelle yleisölle se ei ole mitään muuta kuin markkinointitermi tai lisäherkku, jonka perusteella näytönohjainta ei valita. Ja uskon että näin on, kunnes kyseinen ominaisuus löytyy pelistä kuin pelistä, eikä kehittäjien tarvitse sitä pelikohtaisesti implementoida.
Edit: Joten itse en ainakaan panikoi, jos vielä tässä sukupolvessa AMD:llä ei ole sille vastinetta.
 
Videocardzin twitterissä oli vähän jäähyttelyä:


NVIDIA jebaited AMD.
- Big Navi perf target was GA104.
- NVIDIA upgraded 3080 to GA102
- AMD now targets 3070
- NVIDIA announced Ampere at lower than expected price
- AMD announced Oct 28 event
- NVIDIA postponed the launch to Oct 29

Just what we gathered this week from AIBs

Vastaavasti osa youtuben puhuvat päät hype-huhuäijistä taas väittää, että AIB:ille on jaettu tietoa vain navi22 piiristä, kun on tiedossa, että ne vuotaa kaiken.
 
Videocardzin twitterissä oli vähän jäähyttelyä:


NVIDIA jebaited AMD.
- Big Navi perf target was GA104.
- NVIDIA upgraded 3080 to GA102
- AMD now targets 3070
- NVIDIA announced Ampere at lower than expected price
- AMD announced Oct 28 event
- NVIDIA postponed the launch to Oct 29

Just what we gathered this week from AIBs

Vastaavasti osa youtuben puhuvat päät hype-huhuäijistä taas väittää, että AIB:ille on jaettu tietoa vain navi22 piiristä, kun on tiedossa, että ne vuotaa kaiken.


Olishan se aika fail AMD:ltä jos toi pitäisi paikkaansa. Että tupla CU:lla tähdättäisiin vain noin 50% tehoparannukseen kun on vielä arkkitehtuuri parannuksia ja kellojen nousua luvassa niin olishan toi fail.

Kyllä ittekkin ennemmin kallistun siihen että se on nimenomaan se keskisarjan piiri jolla tuohon 3070 tähdätään.
 

Uusimmat viestit

Statistiikka

Viestiketjuista
258 311
Viestejä
4 490 714
Jäsenet
74 194
Uusin jäsen
Juhisti

Hinta.fi

Back
Ylös Bottom