AMD-spekulaatioketju (RDNA:n ja CDNA:n tulevat sukupolvet)

7nm on myös kapasiteettia ns. tarpeeksi, koska Apple on siirtynyt 5nm prosessille. Toki varmasti vielä tehdään vanhojakin, mutta ei samalla volyymilla kuin viimevuosina. Viime vuosien myyntidatoja kun katselee niin hatusta heittäen tuotantoa on siirretty tänä vuonna vähintään 100 miljoonaa piiriä pois 7nm prosessilta, siihen saa muutaman Zenin ja Big Navin painaa menemään. 7nm A13 Bionic on vähän vajaa 100 neliömillimetrin koolla n. 20% isompi kuin Zen 3 (joka vissii saman kokoinen kuin zen 2), eli kapasiteettiakin on. Ja tietysti RDNA1 piirien tuotanto on myös varmaan ajettu melkolailla alas, joten kapasiteettia pitäisi sekä pidemmällä tähtäimellä että just nyt olla ihan reilusti tarjolla
Missä 3300x jos kapasiteettia piisaa...
 
Eikö 3300X ja 3100 käytä mahdollisesti rikkinäisiä piirejä, joista osa ytimistä on kytketty pois päältä? Jos saannot ovat niin hyvät, ettei sopivasti rikkinäisiä oikein tule linjastolta?
Vaikka Ryzen 3 3100 ja 3300X ovat molemmat neliytimisiä prosessoreita, niiden rakenteesta löytyy merkittävä eroavaisuus. 3300X käyttää vain yhtä CPU-kompleksia eli CCX:ää, joka käsittää kaikki neljä prosessoriydintä ja koko 16 megatavun L3-välimuistin. 3100 puolestaan käyttää kahta puolitettua CCX:ää, joista molemmissa on käytössä kaksi prosessoriydintä ja kahdeksan megatavua L3-välimuistia. 3300X:n ja yhden CCX:n etuna ovat alhaisemmat prosessoriytimien ja L3-välimuistin väliset viiveet.

Kyseisellä järjestelyllä AMD saa hyötykäyttöön sellaisetkin CCD- eli Client Compute Die -piirit, joista toimii vain toinen CCX tai molemmat puolittain.
3300x-dia05.jpg
 
Viimeksi muokattu:
Eikö 3300X ja 3100 käytä mahdollisesti rikkinäisiä piirejä, joista osa ytimistä on kytketty pois päältä? Jos saannot ovat niin hyvät, ettei sopivasti rikkinäisiä oikein tule linjastolta?

3300x-dia05.jpg

Kyseenalaistan vahvasti koko 3300X:n bisnesloogikan näkökulmasta. Tuon kiven myynti on käytännössä kokonaan pois 3600:n myynnistä ja hinta on vain n. 70%. Varmaan AMD:llä tehty johtopäätökset että kuristetaan työpöytätarjontaa noissa hetkeksi ja sitten kaadetaan OEM -laariin.
 
Kyseenalaistan vahvasti koko 3300X:n bisnesloogikan näkökulmasta. Tuon kiven myynti on käytännössä kokonaan pois 3600:n myynnistä ja hinta on vain n. 70%. Varmaan AMD:llä tehty johtopäätökset että kuristetaan työpöytätarjontaa noissa hetkeksi ja sitten kaadetaan OEM -laariin.

Ynnä 5000 sarjan launchi on aika pian, joten epycien takia tuota nykyistä sarjaa tehdään yhä, mutta jos tuotantoa ajetaan pienemmäksi, niin kamaa menee enää parempikatteiseen osastoon.
 
Missä 3300x jos kapasiteettia piisaa...

Sen piru tietää. 3100 saa kuitenkin hyllystä kokoajan, eli voi olla ihan tietoinen valinta AMD:ltä olla tekemättä niitä, ettei 6-ytimisten myyntiä kannibalisoida. Ja uusien mallien eka aalto ei asiaa muuta, koska 3600 ja sen X variantti täyttää yhä selkeää roolia mallistossa. Myös klassinen "Kiinan nettikahvilat" on ihan oikea vaihtoehto sille minne nuo nyt menevät.

Ja toki loputtomasti kapasiteettia ei ole, nyt pitää myös tehdä esim zen2 apuja joita ei 2019 tarvinnut tehdä, mutta ei tilanne ole myöskään se, että tuotteita tarttis tehdä mutta kapasiteetti on täysin varattu jo ennestään
 
Ajoin läpi Borderlands 3 benchmarkin 10900k (unlimited eli tehorajoitukset poistettu) + 3080 Founders Edition 4k, DX 12, Badass-asetukset:

IMG_20201013_113929_copy_2000x1500.jpg


60 FPS eli sama tulos kuin Ryzen 9 5900X(?) + RX 6000. AMD halusi siis näyttää että heidän uutuuksillaan saavutetaan sama suorituskyky kuin i9-10900k + 3080.
 
Ajoin läpi Borderlands 3 benchmarkin 10900k (unlimited eli tehorajoitukset poistettu) + 3080 Founders Edition 4k, DX 12, Badass-asetukset:

IMG_20201013_113929_copy_2000x1500.jpg


60 FPS eli sama tulos kuin Ryzen 9 5900X(?) + RX 6000. AMD halusi siis näyttää että heidän uutuuksillaan saavutetaan sama suorituskyky kuin i9-10900k + 3080.
Kokeileppa DX11 moodissa. Tuosta pelistä on ollut valitusta, että DX12-moodi rampauttaa suorituskykyä NVIDIA:n korteilla, en sitten tiedä pitääkö enää paikkansa uudemmilla ajureilla ja uudella arkkitehtuurilla.
 
Jos kortti ei lyö 3080 rasteroinnissa niin hinnassa pitää ottaa huomioon myös RTX ja DLSS kyky. Samalla tai heikommalla rasterointiteholla ei voi oikeen myydä korttia samaan hintaan vaan se tippuu alempaan "lokeroon".

Menisi varmaan kaupaksi heikommalla RTX kyvyllä ja ilman DLSS:ää jos hinta on ~600$ :hmm:
Miksi ihmeessä kuvanhuononnussuorituskyky pitäisi ottaa mukaan yhtään mihinkään?
Ja mistä ihmeen "RTX-suorituskyvystä" puhut? RTX on NVIDIAn brändi omille näytönohjaimilleen ja joukolle erilaisia muita tekniikoita mukaanlukien säteenseuranta, mutta ei missään nimessä mikään yleisnimi säteenseurannalle.
 
Viimeksi muokattu:
Borderlands Dx11 ~10% paremmat tulokset kuin Dx12 eli melkein sama kuin jukaisussa edelleen.
Amd en tiedä ei pysty testaan nyt, mutta jullaisussa ainakin oli Dx12 heikompi suorituskyky kuin Dx11
 
Miksi ihmeessä kuvanhuononnussuorituskyky pitäisi ottaa mukaan yhtään mihinkään?
Hankalaksi tekee se, että kyseessä on täysin subjektiivinen asia. Täälläkin on taidettu mainita siihen suuntaan, että DLSS näyttää paremmalta kuin natiivi... eihän se ole objektiivisesti mahdollista, koska natiivi on se paras mahdollinen mihin verrataan, mutta subjektiivisesti voi mennä kummin päin tahansa. Joka tapauksessa yksityiskohtia voi valikoidusti karsia eikä kukaan huomaa mitään paitsi suurennetuista kuvankaappauksista, onhan tuota harrastettu ennenkin, mutta nyt nvidialla on aiempaa tehokkaampi systeemi kehitteillä.
 
Hankalaksi tekee se, että kyseessä on täysin subjektiivinen asia. Täälläkin on taidettu mainita siihen suuntaan, että DLSS näyttää paremmalta kuin natiivi... eihän se ole objektiivisesti mahdollista, koska natiivi on se paras mahdollinen mihin verrataan, mutta subjektiivisesti voi mennä kummin päin tahansa. Joka tapauksessa yksityiskohtia voi valikoidusti karsia eikä kukaan huomaa mitään paitsi suurennetuista kuvankaappauksista, onhan tuota harrastettu ennenkin, mutta nyt nvidialla on aiempaa tehokkaampi systeemi kehitteillä.
Senpä vuoksi sillä ei ole mitään asiaa mihinkään suorituskykyvertailuihin. Suorituskykyvertailujen kuuluu olla objektiivisia, ei subjektiivisia.
 
Senpä vuoksi sillä ei ole mitään asiaa mihinkään suorituskykyvertailuihin. Suorituskykyvertailujen kuuluu olla objektiivisia, ei subjektiivisia.
Kuten jos toinen on nopeampi niin todetaan "Ei sitä huomaa" koska kyseessä ei ole ollut ilmeisesti toivottu tulos ja sitä vähätellään joko näin tai muilla keksityillä subjektiivisilla jutuilla..
Tämä on ollut ihan yleistä täällä foorumillakin joten missä menee se raja milloin pitää olla objektiivinen ja millloin subjektiivinen vai meneekö vain sen mukaan mikä on sen hetkisen kirjoittajan agenda.
 
Senpä vuoksi sillä ei ole mitään asiaa mihinkään suorituskykyvertailuihin. Suorituskykyvertailujen kuuluu olla objektiivisia, ei subjektiivisia.
Tästä samaa mieltä, että suorituskyky testit jollain dlss:llä on pelleilyä, kuten rtx 3090 8k markkinoinnit.

Mutta ominaisuutena ja käytännöntasolla tämä on taas yksi asia, missä nvidia paljon edellä, koska tulee amd:lle kovat paikat pyöritellä rt valaistusta natiivina vs sitten nvidia, kun laitetaan dlss päälle. Jos molemmat näytönohjaimet ovat yhtä tehokkaita, mutta toisella rt ei voi ajaa ellei halua 30fps pelailla, niin onhan se iso ero.
 
Senpä vuoksi sillä ei ole mitään asiaa mihinkään suorituskykyvertailuihin. Suorituskykyvertailujen kuuluu olla objektiivisia, ei subjektiivisia.
Kuvanlaatua voi myös verrata objektiivisesti. Kontrastia, mikrokontrastia, haloja, moirea sun muita voi tutkia ilman subjektiivista elementtiä kunhan on natiivikuva johon verrata. Subjektiivisuus tulee esille vasta kun eri vaihtoehtoja yrittää kokonaisuutena laittaa järjestykseen, eri osa-alueet taas voi pisteyttää ihan puhtaan objektiivisesti. Natiiville annetaan pisteiksi sata ja kaikki muut sitten saavat prosentuaalisen eron mukaan vähemmän pisteitä mitä kauemmas poikkeavat tavoitellusta natiivikuvasta. Se mikä valitaan sitten natiivikuvaksi on ihan hyvä kysymys. Ehkä 16x SSAA kuva, tai sitten se miten peli käyttäytyy vakioasetuksilla, joiden voidaan kuvitella olevan lähimpänä taiteellisen johtajan visiota?

esimerkiksi dpreview tekee suht korkealaatuista pääosin objektiivista kuva-analyysiä kamera- ja linssiarvosteluidensa yhteydessä.
 
Fakta taitaa kuitenkin aika pitkälle olla se, että kaikki saitit jotka tuota dlss2:ta ovat testanneet suosittelevat sen käyttämistä, valitusta kuuluu lähinnä niiltä jotka eivät sitä koskaan ole edes käyttäneet.
 
Fakta taitaa kuitenkin aika pitkälle olla se, että kaikki saitit jotka tuota dlss2:ta ovat testanneet suosittelevat sen käyttämistä, valitusta kuuluu lähinnä niiltä jotka eivät sitä koskaan ole edes käyttäneet.
Ikään kuin kuvanlaadun vertailu pitäisi olla varattu vain kokemusasiantuntijoille. Samalla tapaa voidaan sanoa että radeon image sharpeningista valittavat lähinnä ihmiset jotka eivät ole sitä kokeneet.
 
Fakta taitaa kuitenkin aika pitkälle olla se, että kaikki saitit jotka tuota dlss2:ta ovat testanneet suosittelevat sen käyttämistä, valitusta kuuluu lähinnä niiltä jotka eivät sitä koskaan ole edes käyttäneet.

Jos peli on pelattava 4k:llä RTX ON dlss päällä mutta ilman ei, niin onhan se todennäköisesti paremman näköinen kokonaisuutena.

Pitäisin outona jos AMD ei tuo mitään vastaavaa tekniikkaa jolla 4k pelaaminen olisi mahdollista.
 
Jos peli on pelattava 4k:llä RTX ON dlss päällä mutta ilman ei, niin onhan se todennäköisesti paremman näköinen kokonaisuutena.

Pitäisin outona jos AMD ei tuo mitään vastaavaa tekniikkaa jolla 4k pelaaminen olisi mahdollista.
Integer scaling? :P
Tuolla telkkariketjussa suurin osa istuu niin kaukana laitteistaan että ei tuota varmaan suurin osa edes huomaisi. 4k pelaaminen monitorilla taas on vähän hassu, tai vähintään kovin kallis idea. 4k 120Hz adaptive sync näytöt järkevällä väriavaruudella ja kontrastilla on aika kalliita.
 
Ajoin läpi Borderlands 3 benchmarkin 10900k (unlimited eli tehorajoitukset poistettu) + 3080 Founders Edition 4k, DX 12, Badass-asetukset:

60 FPS eli sama tulos kuin Ryzen 9 5900X(?) + RX 6000. AMD halusi siis näyttää että heidän uutuuksillaan saavutetaan sama suorituskyky kuin i9-10900k + 3080.
Kyllähän se on aikamoinen jytky jos tosiaan 3080:n kanssa pääsee tasoihin. Ei ole muutamiin vuosiin ollut puhettakaan vastaavasta tilanteesta.
 
Kuten jos toinen on nopeampi niin todetaan "Ei sitä huomaa" koska kyseessä ei ole ollut ilmeisesti toivottu tulos ja sitä vähätellään joko näin tai muilla keksityillä subjektiivisilla jutuilla..
Tämä on ollut ihan yleistä täällä foorumillakin joten missä menee se raja milloin pitää olla objektiivinen ja millloin subjektiivinen vai meneekö vain sen mukaan mikä on sen hetkisen kirjoittajan agenda.
Keskustelufoorumit ovat asia erikseen, jossa jokaisella on oma subjektiivinen mielipiteensä. Sillä ei ole mitään tekemistä testien kanssa, joiden pitää olla objektiiivisia.

Kuvanlaatua voi myös verrata objektiivisesti. Kontrastia, mikrokontrastia, haloja, moirea sun muita voi tutkia ilman subjektiivista elementtiä kunhan on natiivikuva johon verrata. Subjektiivisuus tulee esille vasta kun eri vaihtoehtoja yrittää kokonaisuutena laittaa järjestykseen, eri osa-alueet taas voi pisteyttää ihan puhtaan objektiivisesti. Natiiville annetaan pisteiksi sata ja kaikki muut sitten saavat prosentuaalisen eron mukaan vähemmän pisteitä mitä kauemmas poikkeavat tavoitellusta natiivikuvasta. Se mikä valitaan sitten natiivikuvaksi on ihan hyvä kysymys. Ehkä 16x SSAA kuva, tai sitten se miten peli käyttäytyy vakioasetuksilla, joiden voidaan kuvitella olevan lähimpänä taiteellisen johtajan visiota?

esimerkiksi dpreview tekee suht korkealaatuista pääosin objektiivista kuva-analyysiä kamera- ja linssiarvosteluidensa yhteydessä.
Kyllä, objektiiviset mittarit ovat teoriassa mahdollisia myös kuvanlaadulle, mutta vaikeita ellei mahdottomia toteuttaa kun puhutaan pelien liikkuvasta kuvasta.

Jos peli on pelattava 4k:llä RTX ON dlss päällä mutta ilman ei, niin onhan se todennäköisesti paremman näköinen kokonaisuutena.

Pitäisin outona jos AMD ei tuo mitään vastaavaa tekniikkaa jolla 4k pelaaminen olisi mahdollista.
Entä jos ei tarvita mitään kikkakolmosia siihen 4K-pelaamiseen? :hmm:

Joka tapauksessa keskustelu DLSS:stä ei kuulu Navi-spekulaatioketjuun, sille on ihan omakin ketjunsa tuolla.
 
Kuten jos toinen on nopeampi niin todetaan "Ei sitä huomaa" koska kyseessä ei ole ollut ilmeisesti toivottu tulos ja sitä vähätellään joko näin tai muilla keksityillä subjektiivisilla jutuilla..
Tämä on ollut ihan yleistä täällä foorumillakin joten missä menee se raja milloin pitää olla objektiivinen ja millloin subjektiivinen vai meneekö vain sen mukaan mikä on sen hetkisen kirjoittajan agenda.

Mielestäni silloin jos kyseessä on arvostelu pitäisi olla objektiivinen. Mikäli kirjoitetaan vain mielipide voi olla subjektiivinen. Eli arvostelussa täytyy todeta esim: kortti X saa 3FPS enemmän yltäen 396FPS:n lukemaan kuin kortti Y. Mutta kun laitetaan se oma mielipide voidaan todeta esim: "itselläni on 1440p 144Hz monitori ja MINULLE se on ihan yksi ja hailea jos maksamalla 900€ enemmän saisin 396FPS vastaan nykyinen 393FPS testin mukaan".

Toki AINA löytyy niitä jotka ostavat sen kalleimman mitä rahalla saa, vaikka se "parannus" olisikin vain prosentin murto-osia. Puhutaan sitten prosessoreista, näytönohjaimista, muisteista tai emolevyistä.

Tähän voi toki vaikuttaa myös mielikuva. Se että itse ei ikina tule nestemäistä typpeä tunkemaan siihen prosessoria kylmentämään ei kuulu asiaan jos nyt vaan haluaa 100% saman emon kuin millä joku Mr Z on tehnyt maailmanennätyksen hän sen hankkii, vaikka "kaikki" foorumeillakin sanoisivat että siitä ei kannata maksaa 300€ enempää kuin muuten samanlaisesta emosta missä ei nyt satu olemaan 20 vastusta vaan "pelkästään" 14.
 
Kyllä, objektiiviset mittarit ovat teoriassa mahdollisia myös kuvanlaadulle, mutta vaikeita ellei mahdottomia toteuttaa kun puhutaan pelien liikkuvasta kuvasta.
Myös videolle ovat ihan täysin mahdollisia toteuttaa, kunhan pelimoottori tukee sopivia skriptausasetuksia. Kiinteän time-stepin demo-ajoilla voidaan saada kuvasarja jokaisesta halutusta kuvanlaatuasetuksesta ja näitä kuvapinoja voidaan verrata siinä missä mitä tahansa stillikuviakin. Vertailu ei ole pelkästään teoriassa mahdollista, vaan myös käytännössä mahdollista. Valitettavasti kyseinen skene on aika erillään perus tekkiarvostelijoiden skenestä (kuten noista kaiken maailman "DLSS on paras, koska fps ja parempi kuin 'natiivi'" -arvosteluista voidaan havaita) ja siksi tuohon pitäisi palkata joku kuvateknikko tai sitten opetella hyvin paljon uusia asioita.
 
Kuvanlaatua voi myös verrata objektiivisesti. Kontrastia, mikrokontrastia, haloja, moirea sun muita voi tutkia ilman subjektiivista elementtiä kunhan on natiivikuva johon verrata. Subjektiivisuus tulee esille vasta kun eri vaihtoehtoja yrittää kokonaisuutena laittaa järjestykseen, eri osa-alueet taas voi pisteyttää ihan puhtaan objektiivisesti. Natiiville annetaan pisteiksi sata ja kaikki muut sitten saavat prosentuaalisen eron mukaan vähemmän pisteitä mitä kauemmas poikkeavat tavoitellusta natiivikuvasta. Se mikä valitaan sitten natiivikuvaksi on ihan hyvä kysymys. Ehkä 16x SSAA kuva, tai sitten se miten peli käyttäytyy vakioasetuksilla, joiden voidaan kuvitella olevan lähimpänä taiteellisen johtajan visiota?

esimerkiksi dpreview tekee suht korkealaatuista pääosin objektiivista kuva-analyysiä kamera- ja linssiarvosteluidensa yhteydessä.
"Objektiivinen" kuvanlaadun mittaaminen ei kuitenkaan ole oikeastaan objektiivista, vaan siinä mitataan ns. välimuuttujia eikä päätetapahtumaa (päätetapahtumana kuvanlaadussa on katselukokemus). Samalla mitatut välimuuttujat joudutaan perustelemaan arvioijan perstuntumalla, koska ei ole olemassa mitään konsensusta siitä millainen olisi "aitoa" hyvää kuvanlaatua.
 
Fakta taitaa kuitenkin aika pitkälle olla se, että kaikki saitit jotka tuota dlss2:ta ovat testanneet suosittelevat sen käyttämistä, valitusta kuuluu lähinnä niiltä jotka eivät sitä koskaan ole edes käyttäneet.
Kyllä sen käyttäminen on suositeltavaa varsinkin korkeilla resoluutioilla ja varsinkin silloin kun ruudunpäivitysnopeus ei ole riittävän korkea ilman sitä, erot kuvalaadussa ovat omasta mielestäni olemattomat DLSS 2.0:n myötä varsinkin liikkeessä.
 
Hankalaksi tekee se, että kyseessä on täysin subjektiivinen asia. Täälläkin on taidettu mainita siihen suuntaan, että DLSS näyttää paremmalta kuin natiivi... eihän se ole objektiivisesti mahdollista, koska natiivi on se paras mahdollinen mihin verrataan, mutta subjektiivisesti voi mennä kummin päin tahansa. Joka tapauksessa yksityiskohtia voi valikoidusti karsia eikä kukaan huomaa mitään paitsi suurennetuista kuvankaappauksista, onhan tuota harrastettu ennenkin, mutta nyt nvidialla on aiempaa tehokkaampi systeemi kehitteillä.
On se mahdollista.
Minäkin otin Pariisin Louvressa valokuvan (vielä ilman salamaa) Mona Lisasta, ja kuva on parempi kuin alkuperäinen maalaus (tämä on sentään digitaalinen kuva kun alkuperäinen on vain analoginen kuva)...
:shand:
 
DLSS 2.0 näyttää joidenkin mielestä paremmalta kun natiivi sen takia koska se lisää "sharpening" filtteriä kuvaan, tiedän ihmisiä ketkä tunkee tuota joka paikkaan, näyttää aivan kauhealta tietyn rajan jälkeen. Siitä ei nyt mihinkään päästä että se on upscale tekniikka ja upscale ei voi koskaan näyttää "paremmalta" kuin natiivi, hieno tekniikka tosin, normaali käyttäjä ei mitään eroa huomaa, AMD tuo varmasti oman ratkaisun tähän.
 
Mutta ominaisuutena ja käytännöntasolla tämä on taas yksi asia, missä nvidia paljon edellä, koska tulee amd:lle kovat paikat pyöritellä rt valaistusta natiivina vs sitten nvidia, kun laitetaan dlss päälle. Jos molemmat näytönohjaimet ovat yhtä tehokkaita, mutta toisella rt ei voi ajaa ellei halua 30fps pelailla, niin onhan se iso ero.

Ominaisuutena jos tuijotetaan niin kyllä AMD on takamatkalla mutta niin pitkään kun pelituki on näin suppea, sillä ei ole juurikaan merkitystä. Suurella todennäköisyydellä jokin vastaava tekniikka tulee lähitulevaisuudessa joka ei ole näytönohjain valmistaja riippuvainen. Varsinkin nyt kun intel on tulossa kolmanneksi pyöräksi tähän soppaan niin jos jokainen alkaa virkkaamaan omaa "DLSS" tekniikkaansa niin onhan se pelien tekijöille ja lopulta myös kuluttajille ihan täysi helvetti.
 
Senpä vuoksi sillä ei ole mitään asiaa mihinkään suorituskykyvertailuihin. Suorituskykyvertailujen kuuluu olla objektiivisia, ei subjektiivisia.

Ei kukaan ole nyt puhunut mistää suorituskykyvertailuista. Anaalipakottaja puhui ihan hintavertailuista ja siinä tuo DLSS on ihan validi juttu. Siitä on monessa pelissä paljon hyötyä isoilla resoilla pelaaville.
 
Onko asian laita nyt oikeesti niin, että mitään "oikeita" vuotoja ei ole vieläkään? Onko amd saanu aina pidettyä asiat näin hyvin salassa, vai onko maailma muuttunu jo niin paljon, että ei enää markkinointitarkotuksessa "vuodeta" mitään?
 
Onko asian laita nyt oikeesti niin, että mitään "oikeita" vuotoja ei ole vieläkään? Onko amd saanu aina pidettyä asiat näin hyvin salassa, vai onko maailma muuttunu jo niin paljon, että ei enää markkinointitarkotuksessa "vuodeta" mitään?
Eivät varmaan vaan näe tarpeelliseksi, kun nvidia ei saa rautaa markkinoille niin siitä olisi vain potentiaalista haittaa.
 
Ei ollut täällä vielä AV1:n rautakiihdytyksestä, RDNA2 tulee tukemaan tätä.

Tarkoittaa samalla että pleikka ja xbox tukee... eli sisällöntoimittajille alkaa olla kohta ihan varteenotettava formaatti. :tup:
 
Olisi aika outoa jos olisivat jättäneet pois tuen, kun se kerran arkkitehtuurissa vakiona on. Mutta joo, ei se suoraan 100% sitä tarkoita.
Ei RDNA2 ole mikään yksi vakioitu kokonaisuus kaikkine osineen, vaan sen "RDNA2-ytimen" ympärillä voidaan käyttää vaikka mitä mediayksikköversioita, muistiohjaimia sun muita halutaan.
 
Tuosta voi olla montaa mieltä. Hinta on sama kuin 2080:lla julkaisun aikaan.
Täysin samanlaista jakoa ei tietenkään ole, mutta edeltävien Ti-mallien tapaan 3080 perustuu sukupolvensa suurimpaan grafiikkapiiriin, kun 1080/2080 perustuivat toiseksi suurimpaan.
Lisäksi 3080:ia mainostettiin lippulaivana ja 3090:ia selvästi "erillisenä" "Titan-luokan" tuotteena, vaikkei sillä kaikkia edeltävien Titaneiden erikoisuuksia olekaan (ne erikoisuudet ovat kyllä ennenkin vaihdelleet sukupolvien välillä)
 
Täysin samanlaista jakoa ei tietenkään ole, mutta edeltävien Ti-mallien tapaan 3080 perustuu sukupolvensa suurimpaan grafiikkapiiriin, kun 1080/2080 perustuivat toiseksi suurimpaan.
Lisäksi 3080:ia mainostettiin lippulaivana ja 3090:ia selvästi "erillisenä" "Titan-luokan" tuotteena, vaikkei sillä kaikkia edeltävien Titaneiden erikoisuuksia olekaan (ne erikoisuudet ovat kyllä ennenkin vaihdelleet sukupolvien välillä)

Ja onhan se toki juurikin tuosta syystä 3080 vs. 3090 ero huomattavasti pienempi kuin 1080 vs. 1080ti tai 2080 vs. 2080ti...

Aika paljon on nyt huhuja liikkeellä että tuo AMD:n esittelemä RX 6000 sarjan kortti olisi ollut RX6800(XT) jossa on 64-72CU väliltä ja tuon lisäksi olisi tulossa sitten se RX6900XT 80CU:lla.
Jos pitää paikkaansa niin hyvinkin voi AMD olla tällä kertaa nopeampi kuin Nvidia, ainakin perinteisessa rasteroinnissa...
 
1080 ja vega vissiin lähimmät parit muutamaan vuoteen.
Tuo ei oikein ole hyvä vertailukohta julkaisuajankohtien vuoksi. AMD toi melkein yhtä hyvän tuotteen yli vuoden myöhemmin tilanteeseen jossa Nvidialla oli jo 1080 Ti. Tuolloin AMD:n oli selvästi jäljessä ja oli vaikea innostua julkaisusta muussa mielessä kuin kilpailun lisäämisenä.

Nyt AMD ja Nvidia julkaisevat käytännössä samaan aikaan (vaikka internetin vääräleuat huutavatkin jotain muuta), jolloin edes hieman hitaampi gpu ei olisi katastrofi kunhan ollaan niin lähellä että voidaan kompensoida kisaa hinnoittelulla. Lisäksi spekulaatio siitä että AMD voisi olla oikeasti nopeampi ainakin joissain sovelluksissa on aidosti uskottavaa.
 
Tuo ei oikein ole hyvä vertailukohta julkaisuajankohtien vuoksi. AMD toi melkein yhtä hyvän tuotteen yli vuoden myöhemmin tilanteeseen jossa Nvidialla oli jo 1080 Ti. Tuolloin AMD:n oli selvästi jäljessä ja oli vaikea innostua julkaisusta muussa mielessä kuin kilpailun lisäämisenä.

Nyt AMD ja Nvidia julkaisevat käytännössä samaan aikaan (vaikka internetin vääräleuat huutavatkin jotain muuta), jolloin edes hieman hitaampi gpu ei olisi katastrofi kunhan ollaan niin lähellä että voidaan kompensoida kisaa hinnoittelulla. Lisäksi spekulaatio siitä että AMD voisi olla oikeasti nopeampi ainakin joissain sovelluksissa on aidosti uskottavaa.
Kun Amperen saatavuus on mitä on, RDNA2-tuotteet tulevat varmasti lentämään hyllystä, vaikka takkiin vähän tulisikin. Silti kilpailutilanteen kannalta olisi pitemmällä tähtäimellä hyväksi, jos AMD saavuttaisi pariteetin tärkeimmissä suorituskykymittareissa.
 
Ja onhan se toki juurikin tuosta syystä 3080 vs. 3090 ero huomattavasti pienempi kuin 1080 vs. 1080ti tai 2080 vs. 2080ti...

Aika paljon on nyt huhuja liikkeellä että tuo AMD:n esittelemä RX 6000 sarjan kortti olisi ollut RX6800(XT) jossa on 64-72CU väliltä ja tuon lisäksi olisi tulossa sitten se RX6900XT 80CU:lla.
Jos pitää paikkaansa niin hyvinkin voi AMD olla tällä kertaa nopeampi kuin Nvidia, ainakin perinteisessa rasteroinnissa...

Onhan nuo youtuben puhuvat päät tuota väittäneet, mutta niiden trackrecord ei ole nyt kovin vakuuttava. Aika usein on ollut "mun lähteiden mukaan" demossa olisi ollut 6800, joka olisi 64-72CU ja sen yläpuolella olisi täysi piiri, joka onkin aika hintava. Parempi on kyllä odottaa, että demotun yläpuolella on joku XTX tjsp kovemmilla kelloilla, eikä isompi piiri. Ellei muuten, niin kivempi se on yllättyä, kuin pettyä tuotejulkaisussa.
 
Markkinointimielessä varmasti lievä itsemurha jos 28.10 ei näytetä jotain parempaa kuin tuo teaseri RX6000 sarjasta.

Jos teasattu kortti oli 64CU malli, niin 80CU:lla lienee mahdollista saada 20-25% lisää potkua. Luulen että tuo on jossain määrin odotusten yläraja.
 
28 päivä ollaan viisaampia. Mutta mielestäni ennen teaseriä totesi Lisa että "tässä on tehokkain koskaan tekemämme gpu", ja en kyllä lähtisi odottelemaan henkeä pidätellen että sieltä tulisi jokin +20% tehokkaampi julkaisussa.

Olisihan se hienoa että sieltä tulisi todellinen jytky vielä, mutta nyt jo näyttäisi siltä että kaikki realistiset odotukset täyttävät, tai jopa ylittävät kun huomioidaan etenkin se, millaiselta takamatkalta kirivät.
 
Twitterhemmon postailuja taas (entinen katcorgi):
Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.


"I'm sure, Navi 21 has 128 ROPs."

Eikös tuo ole ristiriidassa sen osx firmware:n spekseihin nähden?
 

Statistiikka

Viestiketjuista
295 653
Viestejä
5 047 343
Jäsenet
80 969
Uusin jäsen
Helmi

Hinta.fi

Back
Ylös Bottom