AMD-spekulaatioketju (RDNA:n ja CDNA:n tulevat sukupolvet)

Tuossahan saisi energiatehokkuus kasvaa sadalla prosentilla, kun AMD on luvannut 50 %. Nämä luvut tuskin pitävät paikkaansa, ainakin jos puhutaan työpöytäpuolen kärjestä. Ehkä mobiiliin?

Mobiiliin nuo olisi teoriassa mahdollisia, mutta mobiilipiirit on yleensä esitelty vasta reilusti myöhemmin. Eli tuntuisi oudolle.

Tuo TDP on kyllä todella alhainen, mutta TDP =! TGP, eli päälle tulisi VRM, muistit, tuulettimet yms. Esim pelkät muistit olisi 40W tuossa huippumallissa,. Tietty jos mahdolliset nuo on, jos TSCM prosessi on hyvä ja AMD on todennut, ettei Amperen suorituskyvylle pärjää ja eivät ole puskeneet siksi piiriä sweetspotin ohi. Esim 3080FE, alikellotustesteissä 50W katosi kulutuksesta 5% perffipenaltilla. Tuo nyt kuvaa 5700XT/Vega korttien lisäksi sitä mitä tapahtuu energiatehokkuudelle, kun korttia pusketaan sweetspotin ohi. Kyllä käytännön 250W-300W TGP kortti huipulle tuntuu silti uskottavammalle, mitä tuo 120-150W TDP.

Tietty onhan kummassakin se iso ero siihen, mitä Jar-Fin on ulkomaanfoorumeilla trollanut: 6000 sarja olisi 5700XT CF:ssä, eli 464W.. :lol:
 
Esim pelkät muistit olisi 40W tuossa huippumallissa,.

Ainoastaan jos jostain syystä vedettäisiin clamshell tilassa mutta miksi niin tehtäisiin kun 16gb lastujakin GDDR6:ssa on.

Noi luvut on niin kryptisiä jota toi jantteli postasi että ei niistä kannata päätellä mitään, siellä on kommenteissa joku todennutkin että voisiko olla intelin lukemia, kun ne ilmeisesti natsaisi myös intelin joihinkin lukuihin.
Ja jantteri tuntuu olevan niin itepäinen että ei viitsi valottaa että mitä ne hänen lukemat oikein tarkoittaa.

Tietty onhan kummassakin se iso ero siihen, mitä Jar-Fin on ulkomaanfoorumeilla trollanut: 6000 sarja olisi 5700XT CF:ssä, eli 464W.. :lol:

Häh? Siis se ihan ulkomaita myöten jaksaa sitä intelnvidia evankeliumiaan paasata? :D
 
Taitaa 3080 GPU viedä alle 200W, miksi nämä ei olisi ok kulutuksia itse sirulle?
Edit: Siis GPU-Z tuollaisia näyttää.
 
Viimeksi muokattu:
Ainoastaan jos jostain syystä vedettäisiin clamshell tilassa mutta miksi niin tehtäisiin kun 16gb lastujakin GDDR6:ssa on.

Noi luvut on niin kryptisiä jota toi jantteli postasi että ei niistä kannata päätellä mitään, siellä on kommenteissa joku todennutkin että voisiko olla intelin lukemia, kun ne ilmeisesti natsaisi myös intelin joihinkin lukuihin.
Ja jantteri tuntuu olevan niin itepäinen että ei viitsi valottaa että mitä ne hänen lukemat oikein tarkoittaa.

Häh? Siis se ihan ulkomaita myöten jaksaa sitä intelnvidia evankeliumiaan paasata? :D

Joo, tuo 40W tuli laskettua pikaisesti tutulla 2.5W/muistipiiri kulutuksella, mutta onhan niitä tosiaan isompinakin.

Ja google translate on mahdollistanut evankeliumin levittämisen techpowerupissa ja videocardzissa.
 
Oli tuohossa twitterissä näemä jatkoakin, eli aika kryptisenä yrittää pitää:

It can be read as RDNA 2 but it also could be DG2. If it's RDNA B/W|Bus|Vram If it's DG2 Core|Bus|Vram
 
Oli tuohossa twitterissä näemä jatkoakin, eli aika kryptisenä yrittää pitää:

It can be read as RDNA 2 but it also could be DG2. If it's RDNA B/W|Bus|Vram If it's DG2 Core|Bus|Vram

Njoo kuulostaiskin hieman oudolta pelkkiä muistiasetuksia luetella ja sitten antaa jokin TDP. Eli liekkö siis todellakin intelin(512EU = 4096 shader) Xe-HPG näyttisten tietoja.
 
Mobiiliin nuo olisi teoriassa mahdollisia, mutta mobiilipiirit on yleensä esitelty vasta reilusti myöhemmin. Eli tuntuisi oudolle.

Tuo TDP on kyllä todella alhainen, mutta TDP =! TGP, eli päälle tulisi VRM, muistit, tuulettimet yms. Esim pelkät muistit olisi 40W tuossa huippumallissa,. Tietty jos mahdolliset nuo on, jos TSCM prosessi on hyvä ja AMD on todennut, ettei Amperen suorituskyvylle pärjää ja eivät ole puskeneet siksi piiriä sweetspotin ohi. Esim 3080FE, alikellotustesteissä 50W katosi kulutuksesta 5% perffipenaltilla. Tuo nyt kuvaa 5700XT/Vega korttien lisäksi sitä mitä tapahtuu energiatehokkuudelle, kun korttia pusketaan sweetspotin ohi. Kyllä käytännön 250W-300W TGP kortti huipulle tuntuu silti uskottavammalle, mitä tuo 120-150W TDP.

Ei AMD huvin vuoksi kyllä laita 2x 8pin lisävirtaliittimiä korttiin jos TDP on 120-150W, eikä tuossa kyllä muutenkaan ole mitään järkeä kun tiedetään mitä AMD on tuolle virallisesti luvannut.
 
Ei AMD huvin vuoksi kyllä laita 2x 8pin lisävirtaliittimiä korttiin jos TDP on 120-150W, eikä tuossa kyllä muutenkaan ole mitään järkeä kun tiedetään mitä AMD on tuolle virallisesti luvannut.

Jep, kyllä tuon täytyy olla Intelin XG, tai stetson harrison postaus. 5700XT "typical board power" oli kyllä 225W. Igors lab noita laskeli, eli 5700XT TDP olisi siten 180W. Ei täsmäisi siltikään 50% perf/w lupaukseen.
 
16 Gb - 10 Gb (160% vs 3080)

16Gt määrä voi toimia markkinoissa, mutta käytännössähän se ei taida nopeuseroa antaa kuin vasta kun muisti toisesta (3080) loppuu kesken...

Öö.. olet tulkinnut väärin... Siinä tweetissä oli vain, että käyttää 16Gb:n muistipiirejä. Ja se b oli bitti, eikä tavu. 16Gb = 2Gt. Käytännössä tämä tarkoittaa, että siellä on parillinen määrä GDDR6-muistia.
(ja se bitti luki siellä tweetissäkin, ei tarvitse hirveän tarkasti katsoa)
 
No nyt jotain rajaa tuohon sekoiluun. Näytönohjaimia ei suunnitella kuukaudessa joten tuo argumentti että on myöhemmin julkaistu on täysin absurdi.
Se suunnittelun aloituksesta lopputuotteeksi on varmaan joku 2v projekti.

Kokonaisuudessaan pikemminkin neljän vuoden, mutta kahden vuoden kohdalla voi vielä jotain keskikokoisia asioita muuttaa, kunhan muutokset eivät ole liian suuria.

Raudan ekan "täyden version" pitää olla käytännössä valmis n. vuosi ennen julkaisua (kun tehdään tapeout). Tämän jälkeen piiriin pystytään tekemään vain hyvin pieniä paikallisia muutoksia (bugikorjauksia, tai yksittäisten kriittisten polkujen viilauksia parempien kellojen toivossa).
 
Saattaa olla, että hinta tulee olemaan aika korkea niinkuin on nyt tulevissa Zen 3 suorittimissa.

Luulisin näin koska oletan, että saatavuus on alkuun matala koska tuo 7nm prosessi on käytössä helvetin monessa tuotteessa. Ja sen takia on sitten hyvä laittaa hintaa korkeammalle koska kaikki tulee menemään, varsinkin kun NV:llä on myös toimitusvaikeuksia.

7nm on myös kapasiteettia ns. tarpeeksi, koska Apple on siirtynyt 5nm prosessille. Toki varmasti vielä tehdään vanhojakin, mutta ei samalla volyymilla kuin viimevuosina. Viime vuosien myyntidatoja kun katselee niin hatusta heittäen tuotantoa on siirretty tänä vuonna vähintään 100 miljoonaa piiriä pois 7nm prosessilta, siihen saa muutaman Zenin ja Big Navin painaa menemään. 7nm A13 Bionic on vähän vajaa 100 neliömillimetrin koolla n. 20% isompi kuin Zen 3 (joka vissii saman kokoinen kuin zen 2), eli kapasiteettiakin on. Ja tietysti RDNA1 piirien tuotanto on myös varmaan ajettu melkolailla alas, joten kapasiteettia pitäisi sekä pidemmällä tähtäimellä että just nyt olla ihan reilusti tarjolla
 
7nm on myös kapasiteettia ns. tarpeeksi, koska Apple on siirtynyt 5nm prosessille. Toki varmasti vielä tehdään vanhojakin, mutta ei samalla volyymilla kuin viimevuosina. Viime vuosien myyntidatoja kun katselee niin hatusta heittäen tuotantoa on siirretty tänä vuonna vähintään 100 miljoonaa piiriä pois 7nm prosessilta, siihen saa muutaman Zenin ja Big Navin painaa menemään. 7nm A13 Bionic on vähän vajaa 100 neliömillimetrin koolla n. 20% isompi kuin Zen 3 (joka vissii saman kokoinen kuin zen 2), eli kapasiteettiakin on. Ja tietysti RDNA1 piirien tuotanto on myös varmaan ajettu melkolailla alas, joten kapasiteettia pitäisi sekä pidemmällä tähtäimellä että just nyt olla ihan reilusti tarjolla
Missä 3300x jos kapasiteettia piisaa...
 
Eikö 3300X ja 3100 käytä mahdollisesti rikkinäisiä piirejä, joista osa ytimistä on kytketty pois päältä? Jos saannot ovat niin hyvät, ettei sopivasti rikkinäisiä oikein tule linjastolta?
Vaikka Ryzen 3 3100 ja 3300X ovat molemmat neliytimisiä prosessoreita, niiden rakenteesta löytyy merkittävä eroavaisuus. 3300X käyttää vain yhtä CPU-kompleksia eli CCX:ää, joka käsittää kaikki neljä prosessoriydintä ja koko 16 megatavun L3-välimuistin. 3100 puolestaan käyttää kahta puolitettua CCX:ää, joista molemmissa on käytössä kaksi prosessoriydintä ja kahdeksan megatavua L3-välimuistia. 3300X:n ja yhden CCX:n etuna ovat alhaisemmat prosessoriytimien ja L3-välimuistin väliset viiveet.

Kyseisellä järjestelyllä AMD saa hyötykäyttöön sellaisetkin CCD- eli Client Compute Die -piirit, joista toimii vain toinen CCX tai molemmat puolittain.
3300x-dia05.jpg
 
Viimeksi muokattu:
Eikö 3300X ja 3100 käytä mahdollisesti rikkinäisiä piirejä, joista osa ytimistä on kytketty pois päältä? Jos saannot ovat niin hyvät, ettei sopivasti rikkinäisiä oikein tule linjastolta?

3300x-dia05.jpg

Kyseenalaistan vahvasti koko 3300X:n bisnesloogikan näkökulmasta. Tuon kiven myynti on käytännössä kokonaan pois 3600:n myynnistä ja hinta on vain n. 70%. Varmaan AMD:llä tehty johtopäätökset että kuristetaan työpöytätarjontaa noissa hetkeksi ja sitten kaadetaan OEM -laariin.
 
Kyseenalaistan vahvasti koko 3300X:n bisnesloogikan näkökulmasta. Tuon kiven myynti on käytännössä kokonaan pois 3600:n myynnistä ja hinta on vain n. 70%. Varmaan AMD:llä tehty johtopäätökset että kuristetaan työpöytätarjontaa noissa hetkeksi ja sitten kaadetaan OEM -laariin.

Ynnä 5000 sarjan launchi on aika pian, joten epycien takia tuota nykyistä sarjaa tehdään yhä, mutta jos tuotantoa ajetaan pienemmäksi, niin kamaa menee enää parempikatteiseen osastoon.
 
Missä 3300x jos kapasiteettia piisaa...

Sen piru tietää. 3100 saa kuitenkin hyllystä kokoajan, eli voi olla ihan tietoinen valinta AMD:ltä olla tekemättä niitä, ettei 6-ytimisten myyntiä kannibalisoida. Ja uusien mallien eka aalto ei asiaa muuta, koska 3600 ja sen X variantti täyttää yhä selkeää roolia mallistossa. Myös klassinen "Kiinan nettikahvilat" on ihan oikea vaihtoehto sille minne nuo nyt menevät.

Ja toki loputtomasti kapasiteettia ei ole, nyt pitää myös tehdä esim zen2 apuja joita ei 2019 tarvinnut tehdä, mutta ei tilanne ole myöskään se, että tuotteita tarttis tehdä mutta kapasiteetti on täysin varattu jo ennestään
 
Ajoin läpi Borderlands 3 benchmarkin 10900k (unlimited eli tehorajoitukset poistettu) + 3080 Founders Edition 4k, DX 12, Badass-asetukset:

IMG_20201013_113929_copy_2000x1500.jpg


60 FPS eli sama tulos kuin Ryzen 9 5900X(?) + RX 6000. AMD halusi siis näyttää että heidän uutuuksillaan saavutetaan sama suorituskyky kuin i9-10900k + 3080.
 
Ajoin läpi Borderlands 3 benchmarkin 10900k (unlimited eli tehorajoitukset poistettu) + 3080 Founders Edition 4k, DX 12, Badass-asetukset:

IMG_20201013_113929_copy_2000x1500.jpg


60 FPS eli sama tulos kuin Ryzen 9 5900X(?) + RX 6000. AMD halusi siis näyttää että heidän uutuuksillaan saavutetaan sama suorituskyky kuin i9-10900k + 3080.
Kokeileppa DX11 moodissa. Tuosta pelistä on ollut valitusta, että DX12-moodi rampauttaa suorituskykyä NVIDIA:n korteilla, en sitten tiedä pitääkö enää paikkansa uudemmilla ajureilla ja uudella arkkitehtuurilla.
 
Jos kortti ei lyö 3080 rasteroinnissa niin hinnassa pitää ottaa huomioon myös RTX ja DLSS kyky. Samalla tai heikommalla rasterointiteholla ei voi oikeen myydä korttia samaan hintaan vaan se tippuu alempaan "lokeroon".

Menisi varmaan kaupaksi heikommalla RTX kyvyllä ja ilman DLSS:ää jos hinta on ~600$ :hmm:
Miksi ihmeessä kuvanhuononnussuorituskyky pitäisi ottaa mukaan yhtään mihinkään?
Ja mistä ihmeen "RTX-suorituskyvystä" puhut? RTX on NVIDIAn brändi omille näytönohjaimilleen ja joukolle erilaisia muita tekniikoita mukaanlukien säteenseuranta, mutta ei missään nimessä mikään yleisnimi säteenseurannalle.
 
Viimeksi muokattu:
Borderlands Dx11 ~10% paremmat tulokset kuin Dx12 eli melkein sama kuin jukaisussa edelleen.
Amd en tiedä ei pysty testaan nyt, mutta jullaisussa ainakin oli Dx12 heikompi suorituskyky kuin Dx11
 
Miksi ihmeessä kuvanhuononnussuorituskyky pitäisi ottaa mukaan yhtään mihinkään?
Hankalaksi tekee se, että kyseessä on täysin subjektiivinen asia. Täälläkin on taidettu mainita siihen suuntaan, että DLSS näyttää paremmalta kuin natiivi... eihän se ole objektiivisesti mahdollista, koska natiivi on se paras mahdollinen mihin verrataan, mutta subjektiivisesti voi mennä kummin päin tahansa. Joka tapauksessa yksityiskohtia voi valikoidusti karsia eikä kukaan huomaa mitään paitsi suurennetuista kuvankaappauksista, onhan tuota harrastettu ennenkin, mutta nyt nvidialla on aiempaa tehokkaampi systeemi kehitteillä.
 
Hankalaksi tekee se, että kyseessä on täysin subjektiivinen asia. Täälläkin on taidettu mainita siihen suuntaan, että DLSS näyttää paremmalta kuin natiivi... eihän se ole objektiivisesti mahdollista, koska natiivi on se paras mahdollinen mihin verrataan, mutta subjektiivisesti voi mennä kummin päin tahansa. Joka tapauksessa yksityiskohtia voi valikoidusti karsia eikä kukaan huomaa mitään paitsi suurennetuista kuvankaappauksista, onhan tuota harrastettu ennenkin, mutta nyt nvidialla on aiempaa tehokkaampi systeemi kehitteillä.
Senpä vuoksi sillä ei ole mitään asiaa mihinkään suorituskykyvertailuihin. Suorituskykyvertailujen kuuluu olla objektiivisia, ei subjektiivisia.
 
Senpä vuoksi sillä ei ole mitään asiaa mihinkään suorituskykyvertailuihin. Suorituskykyvertailujen kuuluu olla objektiivisia, ei subjektiivisia.
Kuten jos toinen on nopeampi niin todetaan "Ei sitä huomaa" koska kyseessä ei ole ollut ilmeisesti toivottu tulos ja sitä vähätellään joko näin tai muilla keksityillä subjektiivisilla jutuilla..
Tämä on ollut ihan yleistä täällä foorumillakin joten missä menee se raja milloin pitää olla objektiivinen ja millloin subjektiivinen vai meneekö vain sen mukaan mikä on sen hetkisen kirjoittajan agenda.
 
Senpä vuoksi sillä ei ole mitään asiaa mihinkään suorituskykyvertailuihin. Suorituskykyvertailujen kuuluu olla objektiivisia, ei subjektiivisia.
Tästä samaa mieltä, että suorituskyky testit jollain dlss:llä on pelleilyä, kuten rtx 3090 8k markkinoinnit.

Mutta ominaisuutena ja käytännöntasolla tämä on taas yksi asia, missä nvidia paljon edellä, koska tulee amd:lle kovat paikat pyöritellä rt valaistusta natiivina vs sitten nvidia, kun laitetaan dlss päälle. Jos molemmat näytönohjaimet ovat yhtä tehokkaita, mutta toisella rt ei voi ajaa ellei halua 30fps pelailla, niin onhan se iso ero.
 
Senpä vuoksi sillä ei ole mitään asiaa mihinkään suorituskykyvertailuihin. Suorituskykyvertailujen kuuluu olla objektiivisia, ei subjektiivisia.
Kuvanlaatua voi myös verrata objektiivisesti. Kontrastia, mikrokontrastia, haloja, moirea sun muita voi tutkia ilman subjektiivista elementtiä kunhan on natiivikuva johon verrata. Subjektiivisuus tulee esille vasta kun eri vaihtoehtoja yrittää kokonaisuutena laittaa järjestykseen, eri osa-alueet taas voi pisteyttää ihan puhtaan objektiivisesti. Natiiville annetaan pisteiksi sata ja kaikki muut sitten saavat prosentuaalisen eron mukaan vähemmän pisteitä mitä kauemmas poikkeavat tavoitellusta natiivikuvasta. Se mikä valitaan sitten natiivikuvaksi on ihan hyvä kysymys. Ehkä 16x SSAA kuva, tai sitten se miten peli käyttäytyy vakioasetuksilla, joiden voidaan kuvitella olevan lähimpänä taiteellisen johtajan visiota?

esimerkiksi dpreview tekee suht korkealaatuista pääosin objektiivista kuva-analyysiä kamera- ja linssiarvosteluidensa yhteydessä.
 
Fakta taitaa kuitenkin aika pitkälle olla se, että kaikki saitit jotka tuota dlss2:ta ovat testanneet suosittelevat sen käyttämistä, valitusta kuuluu lähinnä niiltä jotka eivät sitä koskaan ole edes käyttäneet.
 
Fakta taitaa kuitenkin aika pitkälle olla se, että kaikki saitit jotka tuota dlss2:ta ovat testanneet suosittelevat sen käyttämistä, valitusta kuuluu lähinnä niiltä jotka eivät sitä koskaan ole edes käyttäneet.
Ikään kuin kuvanlaadun vertailu pitäisi olla varattu vain kokemusasiantuntijoille. Samalla tapaa voidaan sanoa että radeon image sharpeningista valittavat lähinnä ihmiset jotka eivät ole sitä kokeneet.
 
Fakta taitaa kuitenkin aika pitkälle olla se, että kaikki saitit jotka tuota dlss2:ta ovat testanneet suosittelevat sen käyttämistä, valitusta kuuluu lähinnä niiltä jotka eivät sitä koskaan ole edes käyttäneet.

Jos peli on pelattava 4k:llä RTX ON dlss päällä mutta ilman ei, niin onhan se todennäköisesti paremman näköinen kokonaisuutena.

Pitäisin outona jos AMD ei tuo mitään vastaavaa tekniikkaa jolla 4k pelaaminen olisi mahdollista.
 
Jos peli on pelattava 4k:llä RTX ON dlss päällä mutta ilman ei, niin onhan se todennäköisesti paremman näköinen kokonaisuutena.

Pitäisin outona jos AMD ei tuo mitään vastaavaa tekniikkaa jolla 4k pelaaminen olisi mahdollista.
Integer scaling? :P
Tuolla telkkariketjussa suurin osa istuu niin kaukana laitteistaan että ei tuota varmaan suurin osa edes huomaisi. 4k pelaaminen monitorilla taas on vähän hassu, tai vähintään kovin kallis idea. 4k 120Hz adaptive sync näytöt järkevällä väriavaruudella ja kontrastilla on aika kalliita.
 
Ajoin läpi Borderlands 3 benchmarkin 10900k (unlimited eli tehorajoitukset poistettu) + 3080 Founders Edition 4k, DX 12, Badass-asetukset:

60 FPS eli sama tulos kuin Ryzen 9 5900X(?) + RX 6000. AMD halusi siis näyttää että heidän uutuuksillaan saavutetaan sama suorituskyky kuin i9-10900k + 3080.
Kyllähän se on aikamoinen jytky jos tosiaan 3080:n kanssa pääsee tasoihin. Ei ole muutamiin vuosiin ollut puhettakaan vastaavasta tilanteesta.
 
Kuten jos toinen on nopeampi niin todetaan "Ei sitä huomaa" koska kyseessä ei ole ollut ilmeisesti toivottu tulos ja sitä vähätellään joko näin tai muilla keksityillä subjektiivisilla jutuilla..
Tämä on ollut ihan yleistä täällä foorumillakin joten missä menee se raja milloin pitää olla objektiivinen ja millloin subjektiivinen vai meneekö vain sen mukaan mikä on sen hetkisen kirjoittajan agenda.
Keskustelufoorumit ovat asia erikseen, jossa jokaisella on oma subjektiivinen mielipiteensä. Sillä ei ole mitään tekemistä testien kanssa, joiden pitää olla objektiiivisia.

Kuvanlaatua voi myös verrata objektiivisesti. Kontrastia, mikrokontrastia, haloja, moirea sun muita voi tutkia ilman subjektiivista elementtiä kunhan on natiivikuva johon verrata. Subjektiivisuus tulee esille vasta kun eri vaihtoehtoja yrittää kokonaisuutena laittaa järjestykseen, eri osa-alueet taas voi pisteyttää ihan puhtaan objektiivisesti. Natiiville annetaan pisteiksi sata ja kaikki muut sitten saavat prosentuaalisen eron mukaan vähemmän pisteitä mitä kauemmas poikkeavat tavoitellusta natiivikuvasta. Se mikä valitaan sitten natiivikuvaksi on ihan hyvä kysymys. Ehkä 16x SSAA kuva, tai sitten se miten peli käyttäytyy vakioasetuksilla, joiden voidaan kuvitella olevan lähimpänä taiteellisen johtajan visiota?

esimerkiksi dpreview tekee suht korkealaatuista pääosin objektiivista kuva-analyysiä kamera- ja linssiarvosteluidensa yhteydessä.
Kyllä, objektiiviset mittarit ovat teoriassa mahdollisia myös kuvanlaadulle, mutta vaikeita ellei mahdottomia toteuttaa kun puhutaan pelien liikkuvasta kuvasta.

Jos peli on pelattava 4k:llä RTX ON dlss päällä mutta ilman ei, niin onhan se todennäköisesti paremman näköinen kokonaisuutena.

Pitäisin outona jos AMD ei tuo mitään vastaavaa tekniikkaa jolla 4k pelaaminen olisi mahdollista.
Entä jos ei tarvita mitään kikkakolmosia siihen 4K-pelaamiseen? :hmm:

Joka tapauksessa keskustelu DLSS:stä ei kuulu Navi-spekulaatioketjuun, sille on ihan omakin ketjunsa tuolla.
 
Kuten jos toinen on nopeampi niin todetaan "Ei sitä huomaa" koska kyseessä ei ole ollut ilmeisesti toivottu tulos ja sitä vähätellään joko näin tai muilla keksityillä subjektiivisilla jutuilla..
Tämä on ollut ihan yleistä täällä foorumillakin joten missä menee se raja milloin pitää olla objektiivinen ja millloin subjektiivinen vai meneekö vain sen mukaan mikä on sen hetkisen kirjoittajan agenda.

Mielestäni silloin jos kyseessä on arvostelu pitäisi olla objektiivinen. Mikäli kirjoitetaan vain mielipide voi olla subjektiivinen. Eli arvostelussa täytyy todeta esim: kortti X saa 3FPS enemmän yltäen 396FPS:n lukemaan kuin kortti Y. Mutta kun laitetaan se oma mielipide voidaan todeta esim: "itselläni on 1440p 144Hz monitori ja MINULLE se on ihan yksi ja hailea jos maksamalla 900€ enemmän saisin 396FPS vastaan nykyinen 393FPS testin mukaan".

Toki AINA löytyy niitä jotka ostavat sen kalleimman mitä rahalla saa, vaikka se "parannus" olisikin vain prosentin murto-osia. Puhutaan sitten prosessoreista, näytönohjaimista, muisteista tai emolevyistä.

Tähän voi toki vaikuttaa myös mielikuva. Se että itse ei ikina tule nestemäistä typpeä tunkemaan siihen prosessoria kylmentämään ei kuulu asiaan jos nyt vaan haluaa 100% saman emon kuin millä joku Mr Z on tehnyt maailmanennätyksen hän sen hankkii, vaikka "kaikki" foorumeillakin sanoisivat että siitä ei kannata maksaa 300€ enempää kuin muuten samanlaisesta emosta missä ei nyt satu olemaan 20 vastusta vaan "pelkästään" 14.
 
Kyllä, objektiiviset mittarit ovat teoriassa mahdollisia myös kuvanlaadulle, mutta vaikeita ellei mahdottomia toteuttaa kun puhutaan pelien liikkuvasta kuvasta.
Myös videolle ovat ihan täysin mahdollisia toteuttaa, kunhan pelimoottori tukee sopivia skriptausasetuksia. Kiinteän time-stepin demo-ajoilla voidaan saada kuvasarja jokaisesta halutusta kuvanlaatuasetuksesta ja näitä kuvapinoja voidaan verrata siinä missä mitä tahansa stillikuviakin. Vertailu ei ole pelkästään teoriassa mahdollista, vaan myös käytännössä mahdollista. Valitettavasti kyseinen skene on aika erillään perus tekkiarvostelijoiden skenestä (kuten noista kaiken maailman "DLSS on paras, koska fps ja parempi kuin 'natiivi'" -arvosteluista voidaan havaita) ja siksi tuohon pitäisi palkata joku kuvateknikko tai sitten opetella hyvin paljon uusia asioita.
 
Kuvanlaatua voi myös verrata objektiivisesti. Kontrastia, mikrokontrastia, haloja, moirea sun muita voi tutkia ilman subjektiivista elementtiä kunhan on natiivikuva johon verrata. Subjektiivisuus tulee esille vasta kun eri vaihtoehtoja yrittää kokonaisuutena laittaa järjestykseen, eri osa-alueet taas voi pisteyttää ihan puhtaan objektiivisesti. Natiiville annetaan pisteiksi sata ja kaikki muut sitten saavat prosentuaalisen eron mukaan vähemmän pisteitä mitä kauemmas poikkeavat tavoitellusta natiivikuvasta. Se mikä valitaan sitten natiivikuvaksi on ihan hyvä kysymys. Ehkä 16x SSAA kuva, tai sitten se miten peli käyttäytyy vakioasetuksilla, joiden voidaan kuvitella olevan lähimpänä taiteellisen johtajan visiota?

esimerkiksi dpreview tekee suht korkealaatuista pääosin objektiivista kuva-analyysiä kamera- ja linssiarvosteluidensa yhteydessä.
"Objektiivinen" kuvanlaadun mittaaminen ei kuitenkaan ole oikeastaan objektiivista, vaan siinä mitataan ns. välimuuttujia eikä päätetapahtumaa (päätetapahtumana kuvanlaadussa on katselukokemus). Samalla mitatut välimuuttujat joudutaan perustelemaan arvioijan perstuntumalla, koska ei ole olemassa mitään konsensusta siitä millainen olisi "aitoa" hyvää kuvanlaatua.
 
Fakta taitaa kuitenkin aika pitkälle olla se, että kaikki saitit jotka tuota dlss2:ta ovat testanneet suosittelevat sen käyttämistä, valitusta kuuluu lähinnä niiltä jotka eivät sitä koskaan ole edes käyttäneet.
Kyllä sen käyttäminen on suositeltavaa varsinkin korkeilla resoluutioilla ja varsinkin silloin kun ruudunpäivitysnopeus ei ole riittävän korkea ilman sitä, erot kuvalaadussa ovat omasta mielestäni olemattomat DLSS 2.0:n myötä varsinkin liikkeessä.
 
Hankalaksi tekee se, että kyseessä on täysin subjektiivinen asia. Täälläkin on taidettu mainita siihen suuntaan, että DLSS näyttää paremmalta kuin natiivi... eihän se ole objektiivisesti mahdollista, koska natiivi on se paras mahdollinen mihin verrataan, mutta subjektiivisesti voi mennä kummin päin tahansa. Joka tapauksessa yksityiskohtia voi valikoidusti karsia eikä kukaan huomaa mitään paitsi suurennetuista kuvankaappauksista, onhan tuota harrastettu ennenkin, mutta nyt nvidialla on aiempaa tehokkaampi systeemi kehitteillä.
On se mahdollista.
Minäkin otin Pariisin Louvressa valokuvan (vielä ilman salamaa) Mona Lisasta, ja kuva on parempi kuin alkuperäinen maalaus (tämä on sentään digitaalinen kuva kun alkuperäinen on vain analoginen kuva)...
:shand:
 
DLSS 2.0 näyttää joidenkin mielestä paremmalta kun natiivi sen takia koska se lisää "sharpening" filtteriä kuvaan, tiedän ihmisiä ketkä tunkee tuota joka paikkaan, näyttää aivan kauhealta tietyn rajan jälkeen. Siitä ei nyt mihinkään päästä että se on upscale tekniikka ja upscale ei voi koskaan näyttää "paremmalta" kuin natiivi, hieno tekniikka tosin, normaali käyttäjä ei mitään eroa huomaa, AMD tuo varmasti oman ratkaisun tähän.
 
Mutta ominaisuutena ja käytännöntasolla tämä on taas yksi asia, missä nvidia paljon edellä, koska tulee amd:lle kovat paikat pyöritellä rt valaistusta natiivina vs sitten nvidia, kun laitetaan dlss päälle. Jos molemmat näytönohjaimet ovat yhtä tehokkaita, mutta toisella rt ei voi ajaa ellei halua 30fps pelailla, niin onhan se iso ero.

Ominaisuutena jos tuijotetaan niin kyllä AMD on takamatkalla mutta niin pitkään kun pelituki on näin suppea, sillä ei ole juurikaan merkitystä. Suurella todennäköisyydellä jokin vastaava tekniikka tulee lähitulevaisuudessa joka ei ole näytönohjain valmistaja riippuvainen. Varsinkin nyt kun intel on tulossa kolmanneksi pyöräksi tähän soppaan niin jos jokainen alkaa virkkaamaan omaa "DLSS" tekniikkaansa niin onhan se pelien tekijöille ja lopulta myös kuluttajille ihan täysi helvetti.
 
Senpä vuoksi sillä ei ole mitään asiaa mihinkään suorituskykyvertailuihin. Suorituskykyvertailujen kuuluu olla objektiivisia, ei subjektiivisia.

Ei kukaan ole nyt puhunut mistää suorituskykyvertailuista. Anaalipakottaja puhui ihan hintavertailuista ja siinä tuo DLSS on ihan validi juttu. Siitä on monessa pelissä paljon hyötyä isoilla resoilla pelaaville.
 
Onko asian laita nyt oikeesti niin, että mitään "oikeita" vuotoja ei ole vieläkään? Onko amd saanu aina pidettyä asiat näin hyvin salassa, vai onko maailma muuttunu jo niin paljon, että ei enää markkinointitarkotuksessa "vuodeta" mitään?
 
Onko asian laita nyt oikeesti niin, että mitään "oikeita" vuotoja ei ole vieläkään? Onko amd saanu aina pidettyä asiat näin hyvin salassa, vai onko maailma muuttunu jo niin paljon, että ei enää markkinointitarkotuksessa "vuodeta" mitään?
Eivät varmaan vaan näe tarpeelliseksi, kun nvidia ei saa rautaa markkinoille niin siitä olisi vain potentiaalista haittaa.
 
Ei ollut täällä vielä AV1:n rautakiihdytyksestä, RDNA2 tulee tukemaan tätä.

Tarkoittaa samalla että pleikka ja xbox tukee... eli sisällöntoimittajille alkaa olla kohta ihan varteenotettava formaatti. :tup:
 

Uusimmat viestit

Statistiikka

Viestiketjuista
258 293
Viestejä
4 489 707
Jäsenet
74 190
Uusin jäsen
puririri

Hinta.fi

Back
Ylös Bottom