• Live: io-techin Tekniikkapodcast tänään perjantaina noin klo 15:05 alkaen. Keskustellaan viikon mielenkiintoisimmista tietotekniikka- ja mobiiliaiheista. Suora lähetys YouTubessa. Tule mukaan katselemaan ja keskustelemaan! Linkki lähetykseen >>

AMD-spekulaatioketju (RDNA:n ja CDNA:n tulevat sukupolvet)

Niin eikös tuo 2080ti:n RT ollut riittämätön käyttäjien mielestä? Mutta tuleeko se rajaksi vasta 4K:ssa vai jo 1440p:llä? Itselle riittäisi, että 1440p olisi yli 60fps RT päällä. :smoke:
 
Niin eikös tuo 2080ti:n RT ollut riittämätön käyttäjien mielestä? Mutta tuleeko se rajaksi vasta 4K:ssa vai jo 1440p:llä? Itselle riittäisi, että 1440p olisi yli 60fps RT päällä. :smoke:

Taisi olla joo, itselle myös 6800xt tehot sopisivat hyvin 1440p pelaamiseen jos hinta on sopiva ja sen saa jostain. Varsinkin jos matalemmilla resoilla saa puskettua enemmän fps ruudulle kuin 3080.
 
Taisi olla joo, itselle myös 6800xt tehot sopisivat hyvin 1440p pelaamiseen jos hinta on sopiva ja sen saa jostain. Varsinkin jos matalemmilla resoilla saa puskettua enemmän fps ruudulle kuin 3080.
Näyttäisi siltä,että nvidian 3080lite tulee juuri 6800xt vastaukseksi, mutta kumpi vie 1440p?
 
Olisi kova nähdä esim 6900xtx malli joka olisi aivan 3090 kannoilla mutta alle 1k€ hintalapulla.
Siinä olisi sitten Nvidialla tekemistä, pitäisi puskea Ti malleja ulos vauhdilla ja laskea hintoja....
Kiva katsoa mitä keskiviikkona näytetään
 
Olisi kova nähdä esim 6900xtx malli joka olisi aivan 3090 kannoilla mutta alle 1k€ hintalapulla.
Siinä olisi sitten Nvidialla tekemistä, pitäisi puskea Ti malleja ulos vauhdilla ja laskea hintoja....
Kiva katsoa mitä keskiviikkona näytetään

Tekis kyllä kieltämättä ihan hyvää, et high-endiinkin saatas kisailua. 999$ hintalappu tosiaan ois aika kova (ja jopa mahdollinen), jos jää vaikkapa 5% keskimäärin 3090:stä :geek:

Jos 6800XT tarkoitettu kisailemaan 3080 vastaan, niin sille veikkaan hinnaksi 650-699$.

599$:llä jäis mielestäni 3080 jo aika huonoksi diiliksi, mikäli nää lähipäivien huhut ja käppyrät realisoituu samalla tavalla peleissä :beye::rolleyes:
 
Viimeksi muokattu:
Olisi kova nähdä esim 6900xtx malli joka olisi aivan 3090 kannoilla mutta alle 1k€ hintalapulla.
Siinä olisi sitten Nvidialla tekemistä, pitäisi puskea Ti malleja ulos vauhdilla ja laskea hintoja....
Kiva katsoa mitä keskiviikkona näytetään

Eikö 3080 ole aivan 3090 kannoilla ja alle 1k€:n hintalapulla? Eli tuo lienee joka tapauksessa tavoite. Ensitietojen mukaan uusista AMD:n korteista ei kuitenkaan ole tehty aivan niin virtsasyöppöjä kuin nVidian korteista,joten hyvin tyytyväinen voinee olla jos 3070:n pääosin selvästi lyö. GDDR6 joka tapauksessa edullisempaa kuin GDDR6x eli hinta todennäköisesti myös kohdillaan. Mutta kohtuullisen pianhan tuo selviää, mitä saadaan.
 
Erilaisia huhuja toki on ja kaipa se pian nähdään (freudilainen lipsahdus tuo virtsasyöppö :D).

Tuossa tuo TGP on käsittääkseni gpu+muistit, eli koko kortin kulutus tuolla 290W TGP:lla olisi about 355W igorin laskujen mukaan. Nyt alkaa kyllä vähän hype karkaamaan käsistä, kun noita 3dmark ja kellotaajuusvuotoja on tasaisella syötöllä. Kypärä päähän ja torstaita odottelemaan.
 
Luulisi kuitenkin että AMD vs. Intel ja Nvidia (eri segmenteissä) asettaisi AMD:n todelliseen altavastaajan asemaan jos arvioidaan kehitysresursseja?

Joo AMD:han on pitkään ollutkin altavastaajana sekä CPU että GPU -puolella. Voinee sanoa että resursseihin nähden AMD on tehnyt sekä Inteliin että Nvidiaan nähden erittäin hyvää työtä Ryzenin ja RDNA myötä. Ja GPU-puolella jo paljon ennen tuota arkkitehtuuria.

a) kilpailijoilla ei ole ollut kilpailua -> kehitys lakkaa -> jäädään housut kintuissa kiinni kun joku kaunis päivä muut saa hommat taas kasaan.

Nvidian kohdalla kehitys ei kylläkään ole lakannut, vaan Nvidiahan otti Ampereen high endissä suunnilleen isoimman hyppäyksen ikinä (vs. ed. high end julkaisu), eli kyllä tässä kohtaa jos AMD haastaa edes 3080, niin voi antaa ison peukun AMD:lle. AMD todennäköisesti pienemmillä käytetyillä resursseilla luonut arkkitehtuurin, jolla on potentiaali haastaa erinomainen Nvidia jokaisessa teho/hinta -segmentissä. Hyvä suoritus minusta.

Syytän jotain aasialaista insinööriä asiasta, eikä varmaan kauaksi heitä totuudesta:cool:

Joo tämähän on muodikasta nykyään syyttää kaikesta aasialaisia, etenkin Kiinaa, köhh köh pitääpä niistää nenä välillä. Nvidiahan ei noita käytä ja co-founderkin on 100% länsimaalaista geeniperimää.
 
Tuossa tuo TGP on käsittääkseni gpu+muistit, eli koko kortin kulutus tuolla 290W TGP:lla olisi about 355W igorin laskujen mukaan. Nyt alkaa kyllä vähän hype karkaamaan käsistä, kun noita 3dmark ja kellotaajuusvuotoja on tasaisella syötöllä. Kypärä päähän ja torstaita odottelemaan.
5700 XT:n kohdalla ero TGP vs TDP oli ulkomuistista 35 tai 45w, nyt olisi 65w? Toki raskaampi rauta ja virransyöttö voinee hukata enemmän mutta että 20 tai 30 wattia enemmän?
 
puhutaanko nyt 6900xt vai 6800xt- mallista virrankulutuksen osalta?
onhan 8gb lisää muistia tulossa vrt 5700xt.
 
Table02-1.jpg


Tossa on tuo Igorin laskelma Navi21 XT:lle.
 
Table02-1.jpg


Tossa on tuo Igorin laskelma Navi21 XT:lle.

Nvidian korteille ilmoitetaan TGP ei TBP...

Eli jos tuo STRIX oli 255W/289W niin se on todella paljon vähemmän kuin 3080:n 340W...

Ota näistä selvää kun kaikki käyttää erilaisia arvoja...
 
Nvidian korteille ilmoitetaan TGP ei TBP...

Eli jos tuo STRIX oli 255W/289W niin se on todella paljon vähemmän kuin 3080:n 340W...

Ota näistä selvää kun kaikki käyttää erilaisia arvoja...
Tähän vielä tuo hirmuiset kellot-hullutus....viruukohan sinne 2400mhz?
 
Nvidian kohdalla kehitys ei kylläkään ole lakannut, vaan Nvidiahan otti Ampereen high endissä suunnilleen isoimman hyppäyksen ikinä (vs. ed. high end julkaisu), eli kyllä tässä kohtaa jos AMD haastaa edes 3080, niin voi antaa ison peukun AMD:lle. AMD todennäköisesti pienemmillä käytetyillä resursseilla luonut arkkitehtuurin, jolla on potentiaali haastaa erinomainen Nvidia jokaisessa teho/hinta -segmentissä. Hyvä suoritus minusta.

Väittäisin, että Turing oli arkkitehtuuriltaan selvästi suurempi hyppäys kuin Ampere.

Ja arkkitehtuuri ja valmistustekniikka on toisistaan erillisiä asioita.

nVidia teki bisnespäätöksen säästää valmistuskustannuksissa ja käyttää halvempaa ja huonompaa valmistusprosessia. Ja nyt tämä tuntuisi kostautuvan.
 
5700 XT:n kohdalla ero TGP vs TDP oli ulkomuistista 35 tai 45w, nyt olisi 65w? Toki raskaampi rauta ja virransyöttö voinee hukata enemmän mutta että 20 tai 30 wattia enemmän?

Sitä itseasiassa _roggame ihmetteli myös. En nyt löydä sen twittiä, mutta sekin ihmetteli miten häviöt loikkaa 20-30w vs navi, vaikka kulutus on aika lähellä. Parempi silti huudella noita yli 300W lukemia, kuin tuota TGP arvoa, jossa on vain gpu ja muistit, mutta ei muuta rautaa.
 
Nvidian kohdalla kehitys ei kylläkään ole lakannut, vaan Nvidiahan otti Ampereen high endissä suunnilleen isoimman hyppäyksen ikinä (vs. ed. high end julkaisu), eli kyllä tässä kohtaa jos AMD haastaa edes 3080, niin voi antaa ison peukun AMD:lle. AMD todennäköisesti pienemmillä käytetyillä resursseilla luonut arkkitehtuurin, jolla on potentiaali haastaa erinomainen Nvidia jokaisessa teho/hinta -segmentissä. Hyvä suoritus minusta.
Vähän ot mutta tämän mukaan kolmanneksi huonoin hyppäys GTX280 lähtien. Ja sitä vielä verrataan huonoimman hyppäyksen tehneeseen 2080Ti:hin.
Siinä mielessä ei ihme, että parin "laiskan" sukupolven aikana kilpailijia pääsee mukaan.


Innolla ja toiveikkaana kyllä odotan AMD:n julkaisua:hungry:
Kaikissa vuodoissa/huhuissa lienee stokki RX 6xxx vs RTX 3xxx?
 
Vaikka RDNA2 kiinnostaa, niin luultavasti AMD:n ajurit on se ratkaiseva tekijä, minkä takia jää ostamatta. Avian onnetoomat videon säätömahdollisuudet voisin vielä antaa anteeksi (Navi, Renoir), muuta ilmeisesti anisotrooppinen suodatus ei toimi DX12 ohjelmissa.

Aikoinaan myös harmitti MSAA:n tehostuksen puute (eli jo pelistä löytyy vaikka vain 4xMSAA, niin NVIDIA pystyy tehostamaan sen 8xMSAA:ksi - oli kätevä muutaman pelin kohdalla; uusien pelien kanssa ei juurikaan merkitystä). Sitten vielä AMD:n aivan onneton v-sync asetus, mikä varsin harmittava jos on peli, joka sattuu lukitsemaan hertsit alas ja joka ei tarjoa kunnollista v-sync asetusta (ja adaptive sync käytössä). NVIDIAlla vain v-sync päälle, niin menee päälle vain jos sattuisi niin kivasti, että näytönohjain piirtäisi enemmän ruutuja kuin mitä VRR ikkuna mahdollistaa, kun adaptive sync käytössä.

MLAA oli myös aivan surkea viritys vs. NVIDIA:n ajuri FXAA:han (mikä on selvästi parempi, kuin minkään pelin oma FXAA). Myös Intelin CMAA on parempi. Tuokin on ihan kätevä, jos haluaa korvata pelin oman rupu FXAA:n paremmalla.
 
Olen kyllä tietoinen noista, mutta se ei selitä miten nuo "ylimääräiset" kulutukset olisivat kasvaneet yli 40% vrt 5700XT
Siis eikö tossa ole grafiikkapiirin ja muistien yhteinen kulutus noussut noin 40% verrattuna 5700XT:n grafiikkapiiri + muistit niin olisi loogista että virransyötön kulutus olisi noussut myös sen 40%.
 
Siis eikö tossa ole grafiikkapiirin ja muistien yhteinen kulutus noussut noin 40% verrattuna 5700XT:n grafiikkapiiri + muistit niin olisi loogista että virransyötön kulutus olisi noussut myös sen 40%.

Jep, jos virransyötön hyötysuhde pysyy samana niin häviöt kasvavat samassa suhteessa tehonkulutuksen kanssa.
 
Vähän ot mutta tämän mukaan kolmanneksi huonoin hyppäys GTX280 lähtien. Ja sitä vielä verrataan huonoimman hyppäyksen tehneeseen 2080Ti:hin.

Kiitos korjauksesta! Ei se tosiaan niin iso hyppy ollutkaan.

Siinä mielessä ei ihme, että parin "laiskan" sukupolven aikana kilpailijia pääsee mukaan.

Joo kilpailu tekee aina hyvää, mutta kyllä itse pidän Nvidiaa erinomaisena GPU-valmistajana teknisessä osaamisessa, ja noiden entistä nopeampien GPU:den valmistus taitaa olla haasteellisempaa vuosi vuodelta. Ei tässä pelkästään laiskuudesta ole kyse. Nvidia on myös tuonut RT:tä, DLSS:ää yms. vaikka kilpailua ei ole ollut. Mutta varmaan AMD:n tuoma kilpailu high-endiin tekee myös hyvää Nvidialle. Jos toiminta ei ole ollut tuossa segmentissä 100% tapissa, niin nyt on aika laittaa.
 
Aikoinaan myös harmitti MSAA:n tehostuksen puute (eli jo pelistä löytyy vaikka vain 4xMSAA, niin NVIDIA pystyy tehostamaan sen 8xMSAA:ksi - oli kätevä muutaman pelin kohdalla; uusien pelien kanssa ei juurikaan merkitystä).

AMD:lta löytyy nykyisin Adaptive MSAA joka kai on jonkin verran parempi kuin pelkkä MSAA, ja sitten löytyy vielä tarkempi Supersampling (SSAA). Viimeksi mainittu taitaa jo jonkin verran hörpätä FPS:iä, en ole testannut.

Löytyyhän sieltä Nvidian Control Panelista kaikenlaista joo. Molempien kortteja olen käytellyt, ja pidän noita säätöjä kyllä marginaalisina suuntaan ja toiseen, mutta onko sinne Nvidialle sitten 2000/3000-sarjan korteille tullut jotain oikeasti merkittäviä? Ne erot pitäisi havaita silmällä myös, pelkkä ''tämä on parempi asetus'' -teksti ei paranna vielä mitään..

Onhan siellä AMD:llakin nykyisin Image Sharpeningia, pintakuvoinnin suodatuslaadun säädintä jne, mutta itse en ole jaksanut noita vertailla kuva vs kuva.

Sitten vielä AMD:n aivan onneton v-sync asetus, mikä varsin harmittava jos on peli, joka sattuu lukitsemaan hertsit alas ja joka ei tarjoa kunnollista v-sync asetusta (ja adaptive sync käytössä).

Mikä vika Freesync + AMD Enhanced sync -kombossa on? Tuo viimeksi mainittu käsittääkseni ''paranneltu V-sync''. Oli mikä oli, niin itse joudun nimenomaan alle 60fps jossain peleissä vetämään kun GPU käynyt vanhaksi, mutta hyvin nuo Freesync + Enhanced sync on ylimääräisen stutteroinnin ja repeilyn kyllä poistanut. Freesyncin range alhaalla taitaa olla 44 vai 48 asti, ja se riittää hyvin. Edit: Siinä vaiheessa kun mennään alle tuon, niin pelikokemus alkaa olla jo enemmän tai vähemmän kuraa eli -> Uutta GPU:ta. Freesync toimii kuin junan vessa.
 
Viimeksi muokattu:
Vähän ot mutta tämän mukaan kolmanneksi huonoin hyppäys GTX280 lähtien. Ja sitä vielä verrataan huonoimman hyppäyksen tehneeseen 2080Ti:hin.
Siinä mielessä ei ihme, että parin "laiskan" sukupolven aikana kilpailijia pääsee mukaan.


Innolla ja toiveikkaana kyllä odotan AMD:n julkaisua:hungry:
Kaikissa vuodoissa/huhuissa lienee stokki RX 6xxx vs RTX 3xxx?

Äläs ny. Jokainen tekniikkavlogisti rummuttaa yhteen ääneen, kuinka hyvä hintalaatu on eioolla!

Katoin noita pylväsdiagrammeja, joissa vertailtiin esim 3070 tehoja, ja vertailussa luonnollisesti 2070, eikä suinkaan 2070 super. Saadaan generational leap näyttämään huikealta!
 
AMD:lta löytyy nykyisin Adaptive MSAA joka kai on jonkin verran parempi kuin pelkkä MSAA, ja sitten löytyy vielä tarkempi Supersampling (SSAA). Viimeksi mainittu taitaa jo jonkin verran hörpätä FPS:iä, en ole testannut.

Ei tällä ole "tarkkuuden" kanssa mitään tekemistä.

Vaan sen kanssa, että MSAA toimii ainoastaan kolmioiden reunoille, mutta ei toimi esim. alpha-tekstuureille ollenkaan. Tuo adaptive ilmeisesti vaihtaa SSAA:han alpha-tekstuureita sisältävielle kolmioille (tosin en ole varma tästä).

Ja MSAA ei myöskään toimi monien nykypelien käyttämän deferred renderingin kanssa ollenkaan, eli siis ei toimi ollenkaan monilla nykypeleillä.

SSAA tarkoittaa käytännössä koko kuvan renderöimistä moninkertaisemmalla resoluutiolla sen jälkeen skaalaamista pienemmälle resoluutiolle. 1920x1080 4xSSAA tarkoittaa samaa määrää työtä kuin renderöiminen 3840x2160-resoluutiolla ilman SSAA:ta.

Ei se hörppää vain "jonkin verran" FPSää vaan vaatii todella paljon lisää työtä kortilta
 
Vaikka RDNA2 kiinnostaa, niin luultavasti AMD:n ajurit on se ratkaiseva tekijä, minkä takia jää ostamatta. Avian onnetoomat videon säätömahdollisuudet voisin vielä antaa anteeksi (Navi, Renoir), muuta ilmeisesti anisotrooppinen suodatus ei toimi DX12 ohjelmissa.

Jotain lähdettä tälle väitteelle?
 
Jotain lähdettä tälle väitteelle?
Ainut mitä keksin tuollaisen väärinkäsityksen lähteeksi on Radeon Software missä Anisotropic Filtering -asetuksessa lukee että koskee vain DirectX 9 -rajapintaa, mutta se ei selitä väitettä että vain DX12-ohjelmissa ei toimi kun se koskee myös 10 ja 11. Ja kyseisessä asetuksessahan on siis kyse anisotrooppisen filtteröinnin pakottamisesta päälle, ei siitä toimiiko anisotrooppinen filtteröinti.
Lyhyt googlettelu myös tukisi tätä väitettä, kun tuloksena on ketjuja missä purnataan kun ei vieläkään voi pakottaa muissa kuin DX9:ssä sitä AF:ää ajureista.
 
Ainut mitä keksin tuollaisen väärinkäsityksen lähteeksi on Radeon Software missä Anisotropic Filtering -asetuksessa lukee että koskee vain DirectX 9 -rajapintaa, mutta se ei selitä väitettä että vain DX12-ohjelmissa ei toimi kun se koskee myös 10 ja 11. Ja kyseisessä asetuksessahan on siis kyse anisotrooppisen filtteröinnin pakottamisesta päälle, ei siitä toimiiko anisotrooppinen filtteröinti.
Lyhyt googlettelu myös tukisi tätä väitettä, kun tuloksena on ketjuja missä purnataan kun ei vieläkään voi pakottaa muissa kuin DX9:ssä sitä AF:ää ajureista.
radeon290.llä toimii af 16 asetus hyvin täällä?
edit.se on maksimi.
ajuri on kyllä puukotettu, koska uudet ei ole vuoteen toiminut.
 
radeon290.llä toimii af 16 asetus hyvin täällä?
edit.se on maksimi.
ajuri on kyllä puukotettu, koska uudet ei ole vuoteen toiminut.
Niin siis voi sen ajureista pistää päälle, mutta se asetus koskee vain DirectX 9 -sovelluksia. DX10, 11 ja 12 -rajapinnoilla AF on asetettavissa vain sovelluksesta itsestään. (tai ainakin niin sen pitäisi olla)
 
nVidia teki bisnespäätöksen säästää valmistuskustannuksissa ja käyttää halvempaa ja huonompaa valmistusprosessia. Ja nyt tämä tuntuisi kostautuvan.
Suurempi tekijä lienee arkkitehtuurivalinta: nVidia lähti käyttämään täysin uusia GDDR6X-piirejä ja leveämpää muistiväylää; saatavuus heikkoa, vain yksi valmistaja ja hinnat korkeita. Heikko muistipiirien saatavuus tarkoittaa myös sitä, että myytyjen korttien määrän maksimoimiseksi täytyy muistin määrää kortilla rajoittaa.

AMD näyttää lähteneen linjalle, jossa piiriin viedään sisälle suuri välimuisti ja tämä mahdollistaa kapeamman muistiväylän sekä halvempien GDDR6-muistipiirien käytön: Parempi saatavuus ja mahdollisuus kilpailuttaa muistipiirien valmistajia.

Jos AMD:n valinnalla päästään samaan suorituskykyyn kuin nVidian, on se selkeästi ollut oikea valinta. nVidia ei mitenkään pysty vastaamaan AMD:n asettamaan hintatasoon siedettävällä katteella.
 
Suurempi tekijä lienee arkkitehtuurivalinta: nVidia lähti käyttämään täysin uusia GDDR6X-piirejä ja leveämpää muistiväylää; saatavuus heikkoa, vain yksi valmistaja ja hinnat korkeita. Heikko muistipiirien saatavuus tarkoittaa myös sitä, että myytyjen korttien määrän maksimoimiseksi täytyy muistin määrää kortilla rajoittaa.

AMD näyttää lähteneen linjalle, jossa piiriin viedään sisälle suuri välimuisti ja tämä mahdollistaa kapeamman muistiväylän sekä halvempien GDDR6-muistipiirien käytön: Parempi saatavuus ja mahdollisuus kilpailuttaa muistipiirien valmistajia.

Jos AMD:n valinnalla päästään samaan suorituskykyyn kuin nVidian, on se selkeästi ollut oikea valinta. nVidia ei mitenkään pysty vastaamaan AMD:n asettamaan hintatasoon siedettävällä katteella.
NVIDIA käyttää myös GDDR6-muisteja mm 3070:ssä, jota jouduttiin jo lykkäämäänkin, eli tuskin se muistien saatavuudesta on kiinni.

AMD:n "suuri välimuisti" on tässä vaiheessa pelkkää spekulaatiota, ainakaan Xboxin RDNA2-grafiikkaohjaimessa ei ole mitään "ylimääräisiä" tai merkittävän isoja välimuisteja.
 
NVIDIA käyttää myös GDDR6-muisteja mm 3070:ssä, jota jouduttiin jo lykkäämäänkin, eli tuskin se muistien saatavuudesta on kiinni.

AMD:n "suuri välimuisti" on tässä vaiheessa pelkkää spekulaatiota, ainakaan Xboxin RDNA2-grafiikkaohjaimessa ei ole mitään "ylimääräisiä" tai merkittävän isoja välimuisteja.
Konsoleiden siruissa ei kustannusten vuoksi voi kovin suuria välimuisteja edes harkita - eikä sellaisella ole tarvettakaan. Konsolin suorituskykytarve hoituu kyllä ilmankin.

Mutta jos Radeon 6000-sarja todella tarjoaa parhaimmillaan 3080:n suorituskykytasoa, niin huhujen mukaisella muistiväylällä (256 bit / GDDR6) ei tarvittavaa suorituskykyä saavuteta ilman jotain luovaa teknologista ratkaisua, jolla riippuvuutta muistiväylän suorituskyvystä saadaan vähennettyä. Huhuttu "Infinity Cache" voisi olla tällainen. Huhujen mukaan tämä olisi 128 MB (1) high-end-malleissa:


(1) Tosin kun miettii miten paljon 128 MB veisi tilaa piipalalta nykyisellä 7nm prosessilla, niin tuskin kuitenkaan ihan näin suuri.
 
Viimeksi muokattu:
Konsoleiden siruissa ei kustannusten vuoksi voi kovin suuria välimuisteja edes harkita - eikä sellaisella ole tarvettakaan. Konsolin suorituskykytarve hoituu kyllä ilmankin.

Mutta jos Radeon 6000-sarja todella tarjoaa parhaimmillaan 3080:n suorituskykytasoa, niin huhujen mukaisella muistiväylällä (256 bit / GDDR6) ei tarvittavaa suorituskykyä saavuteta ilman jotain luovaa teknologista ratkaisua, jolla riippuvuutta muistiväylän suorituskyvystä saadaan vähennettyä. Huhuttu "Infinity Cache" voisi olla tällainen. Huhujen mukaan tämä olisi 128 MB high-end-malleissa:

AMDn uusimmat prossut on tosi isolla cachella, ja taajuuksia nostettu. Samat temput gpu-puolella?

Asiakkaiden goodwill Nvidian suuntaan koki kolauksen. Varsinkin HC-pelaajat ovat trendsettereitä, vaikka firmat luulevat että homma hoituu YouTuben "staroilla". Kuluttajien suuntaan nostetun keskisormen tunnistan ja selitykset tuotantovaikeuksista eivät mene läpi. 3080 on huonon katteen tuote, ja mieluummin myyvät 3090 ja 3070-kortteja, joissa on parempi kate. 3080 on "myynnissä" , mutta lähinnä teoreettisena vaihtoehtona.
 
Mikäs malli se nyt näistä tulee ylihuomenna myyntiin ja mihin aikaan? Itellä mennyt vähän ohi ko asia...
Mutta huhuja on siis että 6800, 6800 XT ja 6900 XT olisi tulossa. Ehkäpä tavoitteena sama 5.11. kuin prosessoreilla, tosin tulisi testaajille aika hoppu jos ei vielä ole jo testattavana noita.
 
Nii nii että ei voikkaa vielä ostella tai edes yrittää mitään. Olikos tuosta ajankohdasta tarkempaa tietoa?
No ei kun huomenna se kerrotaan vasta. Mutta heitän AMD:n siihen skalpeerauksenestosokumenttiin ja johonkin muuhun randomluettuun juttuun perustuvan arvauksen että AMD yllättää positiivisesti ja 5.11. ryzen 5000 myyntipäivä on myös näiden myyntipäivä.
 
Veikkaan että välissä on sama kolme viikkoa kuin julkaisupäivissä. 26.11 tulevat myyntiin.

Myös: Ryzen 5 -sarja → 5.11, RDNA2 6 -sarja → 26.11 :cool:
 
Veikkaan että välissä on sama kolme viikkoa kuin julkaisupäivissä. 26.11 tulevat myyntiin.

Myös: Ryzen 5 -sarja → 5.11, RDNA2 6 -sarja → 26.11 :cool:
Päivää ennen Black Fridayta? Aika epätodennäköiseltä kuulostaa, että käytännössä ekoina myyntipäivinä kaikkea muuta myytäisiin polkuhinnoin mikä veisi kaiken huomion
 
AMD:lta löytyy nykyisin Adaptive MSAA joka kai on jonkin verran parempi kuin pelkkä MSAA, ja sitten löytyy vielä tarkempi Supersampling (SSAA). Viimeksi mainittu taitaa jo jonkin verran hörpätä FPS:iä, en ole testannut.

Löytyyhän sieltä Nvidian Control Panelista kaikenlaista joo. Molempien kortteja olen käytellyt, ja pidän noita säätöjä kyllä marginaalisina suuntaan ja toiseen, mutta onko sinne Nvidialle sitten 2000/3000-sarjan korteille tullut jotain oikeasti merkittäviä? Ne erot pitäisi havaita silmällä myös, pelkkä ''tämä on parempi asetus'' -teksti ei paranna vielä mitään..

Onhan siellä AMD:llakin nykyisin Image Sharpeningia, pintakuvoinnin suodatuslaadun säädintä jne, mutta itse en ole jaksanut noita vertailla kuva vs kuva.



Mikä vika Freesync + AMD Enhanced sync -kombossa on? Tuo viimeksi mainittu käsittääkseni ''paranneltu V-sync''. Oli mikä oli, niin itse joudun nimenomaan alle 60fps jossain peleissä vetämään kun GPU käynyt vanhaksi, mutta hyvin nuo Freesync + Enhanced sync on ylimääräisen stutteroinnin ja repeilyn kyllä poistanut. Freesyncin range alhaalla taitaa olla 44 vai 48 asti, ja se riittää hyvin. Edit: Siinä vaiheessa kun mennään alle tuon, niin pelikokemus alkaa olla jo enemmän tai vähemmän kuraa eli -> Uutta GPU:ta. Freesync toimii kuin junan vessa.
Ei välttämättä toimi SSAA oikein peleissä pakotettuna. Eikös Adaptive MSAA on aivan eri asia ja käytännössä sama juttu kuin NVIDIAn transparency AA.

Enahcned syncissä on sama vika kuin NVIDIAn fast syncissä - nykiminen.

Täytyy myös tunnustaa, että en saanut Freesynciä toimimaan omalla Renoir läppärillä vaikka täppä päällä.

Jotain lähdettä tälle väitteelle?
Tuli sattumalta silmään toisaalla. Ilmeisesti se kyllä toimii DX10 & DX11 peleissä (tai sitten ei - DX12 oli vain puhe). Jos toimii vain DX9 peleissä, niin sitten on kyllä vielä heikompi homma...
 
Tuli sattumalta silmään toisaalla. Ilmeisesti se kyllä toimii DX10 & DX11 peleissä (tai sitten ei - DX12 oli vain puhe). Jos toimii vain DX9 peleissä, niin sitten on kyllä vielä heikompi homma...
Siis kyse on mahdollisuudesta pakottaa AF ajureista päälle, mikä on tuettu vain DX9-peleissä. Kyllä se Anisotropic Filtering toimii myös DX10, 11 ja 12, mutta se pitää pistää päälle pelistä.
 
Siis kyse on mahdollisuudesta pakottaa AF ajureista päälle, mikä on tuettu vain DX9-peleissä. Kyllä se Anisotropic Filtering toimii myös DX10, 11 ja 12, mutta se pitää pistää päälle pelistä.
Niin, siis puhe on nyt siitä, että toimiiko ajureista pakotus vai ei. Siitä nyt ei ole epäilystäkään, etteikö peleissä toimisi jos vain devaajat ovat sen laittaneet päälle (noh, joissain se implementointi on todella kuraa, mutta...).
 
Niin, siis puhe on nyt siitä, että toimiiko ajureista pakotus vai ei. Siitä nyt ei ole epäilystäkään, etteikö peleissä toimisi jos vain devaajat ovat sen laittaneet päälle (noh, joissain se implementointi on todella kuraa, mutta...).
Alkuperäinen väite oli ettei Anisotropic Filtering toimisi lainkaan DirectX 12 -rajapinnalla, vasta Googletuksen perusteella selvisi että kyse olikin todellisuudessa tuosta pakotuksesta mikä ei toimi myöskään 10 ja 11.
 

Statistiikka

Viestiketjuista
258 232
Viestejä
4 486 787
Jäsenet
74 185
Uusin jäsen
Atte_

Hinta.fi

Back
Ylös Bottom