Kokeiltua: MSI Radeon RX 580 + 480 CrossFire

  • Keskustelun aloittaja Keskustelun aloittaja Sampsa
  • Aloitettu Aloitettu

Sampsa

Sysop
Ylläpidon jäsen
Liittynyt
13.10.2016
Viestejä
12 949
rx500-cf-1-1024x593.jpg



Lukijoiden pyynnöstä testasimme Polaris-arkkitehtuurin MSI:n Radeon RX 580 Gaming X- ja Radeon RX 480 Gaming X -näytönohjaimien toimivuutta rinnakkain käytännössä.

Artikkelissa on mukaiset suorituskykytestit, ruutujen renderöintiaikojen analyysi sekä tehonkulutus-, lämpötila- ja melumittaukset.

Ajoimme mukaan tulokset myös GeForce GTX 1070-, 1080- ja 1080 Ti -näytönohjaimilla, jotta CrossFire-konfiguraation suorituskykyä olisi helpompi suhteuttaa suorituskykyisempiin yhden grafiikkapiirin näytönohjainmalleihin.

Lue artikkeli: MSI Radeon RX 580 + 480 CrossFire

Huom! Foorumiviestistä saattaa puuttua kuvagalleria tai upotettu video.

Linkki alkuperäiseen uutiseen (io-tech.fi)
 
Viimeksi muokattu:
Edellisestä suomenkielisestä SLI/Crossfire testistä taitaa olla jo aika pitkä aika. Mahtavaa. :tup:
 
Crossfire (&SLI) cpu testiä odotellen. Kiinnostaa varsinkin ero skaalautumisessa ytimien suhteen peleissä.
 
Eikös tämä ollut surkea tulos? Omat muistikuvat Crossfirestä oli lähes kaksinkertainen teho, hattuvakiona vaikka +80 %.
 
Juu ei mitään pointtia pistää crossfireen, vaan kannattaa ostaa se GTX 1070 halvemmalla. Sillä voi tehdä muutakin kuin pelata, se toimii rendauksessa ja tukee CUDAa, mikä on niissä hommissa lähes standardi. Tykkään kyllä AMD:sta ja ostaisin sellaisen, jos niillä jotain hyvää olisi.
 
Eikös tämä ollut surkea tulos? Omat muistikuvat Crossfirestä oli lähes kaksinkertainen teho, hattuvakiona vaikka +80 %.
Aika kultaa muistot?

Riippuen pelistä sanoisin että kaikki väliltä -30% --> 110% on mahdollista. Riippuu niin paljon pelin tuesta ja ajureista ja myös tuurista. Yleensä hyöty on varmaan sitä luokkaa mitä tämä artikkelikin antaa ymmärtää. Hyvin harvoin päästään 80% tai yli hyötyyn vs. yksi kortti.

Edit:
Niin ja tilanne voisi muuttua radikaalisti jos tulisi konsoleita joissa kaksi pienempää GPU:ta.
 
Aika kultaa muistot?

Riippuen pelistä sanoisin että kaikki väliltä -30% --> 110% on mahdollista. Riippuu niin paljon pelin tuesta ja ajureista ja myös tuurista. Yleensä hyöty on varmaan sitä luokkaa mitä tämä artikkelikin antaa ymmärtää. Hyvin harvoin päästään 80% tai yli hyötyyn vs. yksi kortti.

Ei se näytä kultaavan. Allaoleva setti oli itsellä, ja tuon mukaisiin tuloksiin olen tottunut. FPS käytännössä kaksinkertaistui. Joitain pelejä tosiaan on, joissa CF ei toimi ollenkaan, mutta en muista sattuko semmosia omalle kohdalle.
avp_1920_1200.gif

bfbc2_1920_1200.gif

battleforge_1920_1200.gif

crysis_1920_1200.gif

metro_2033_1920_1200.gif
 
Voiskos tuon Furyn (Nano, X tai -) saada joskus mukaan. Vaikka se on jo kolmisen vuotta vanha, on se kuitenkin nopein AMD.
 
Voiskos tuon Furyn (Nano, X tai -) saada joskus mukaan. Vaikka se on jo kolmisen vuotta vanha, on se kuitenkin nopein AMD.

Mieluummin Vega mukaan. Tai nämä testit Vega-artikkeliin. Eikai kukaan enää kaupasta uutena ostele Furya..
 
Vega-artikkelissa sitten taas Furyä ja miksei 580 CF mukana..
Kaikkia vaan mukaan saadaan tarkkaa tietoa, taitaa vaan viedä liikaa aikaa. Haluaisin tietää miten CPU vaikuttaa pelinopeuteen esim i7 2700K vs I7 7700K, mutta kaikkea ei voi saada :)
 
Ihan mielenkiinnosta... Tuo Engineererin linkkaama käppyrä on suht vanha, mutta tässä testissä resoluutio oli vielä pienempi.

Olisi hauska tietää jääkö CF teholisä uusien efektien yms. kikkailun takia noin pieneksi. Jos CF on +40% 1080p@Ultra niin onko se myös yhä vain +40% 4K@Medium?
 
Ihan mielenkiinnosta... Tuo Engineererin linkkaama käppyrä on suht vanha, mutta tässä testissä resoluutio oli vielä pienempi.

Olisi hauska tietää jääkö CF teholisä uusien efektien yms. kikkailun takia noin pieneksi. Jos CF on +40% 1080p@Ultra niin onko se myös yhä vain +40% 4K@Medium?
Huomionarvoista lienee myös se, että testiasetelma on yritetty saada mahdollisimman paikkansapitäväksi ja siksi tuloksissa näkyykin se keskimääräinen +50% 480x:n tehosta, jota CF-combolla voitaisiin odottaa.

Se on sitten eriasia, jos asetukset viilattaisiin nappiin, esimerkiksi tesselaatiota normaalille ja vastineeksi antialiasinkia suuremmalle ja tätä rataa, niin saataisiin tuo ratukka näyttämään hyvältä. Toiseen suuntaan mennään, niin hairwörksi päälle, niin saadaan ratukat näyttämään aivan etanalta. Pointina tässä se, että asetukset on valittu artikkelia nähden hyvin balanssiin ja saatu vertailukelpoisia tuloksia, etenkin kun testeinä on yksi amd:n lempilapsi ja yksi gamewörks titteli. Toisin sanoen, juuri sitä mitä tältä sivustalta sopii odottaakkin. :kahvi:
 
Tuota,eikös noi olisi kannattanut testata dx12 peleillä myös?.Käsittääkseni x80 kortit on nopeampia dx12:llä kuin dx11:llä.

GTA V:llä amd:n kortit näyttää loistavan
AMD Radeon RX 480 CrossFire Review
 
Viimeksi muokattu:
Tuota,eikös noi olisi kannattanut testata dx12 peleillä myös?.Käsittääkseni x80 kortit on nopeampia dx12:llä kuin dx11:llä.

Kyllä, artikkeliin päivitetty mukaan DirectX 12 -testi Deus Ex: Mankind Divided:




Deus Ex:ssä ruudunpäivitysnopeus parani DirectX 12 -rajapinnalla CrossFire-konfiguraatiossa 50 % verrattuna pelkkään RX 580:een verrattuna ja suorituskyky oli noin 14 % parempi kuin Gigabyten GeForce GTX 1070:llä. 99. persentiili oli CrossFirellä 8 % heikompi.

:tup:
 
Tuota,eikös noi olisi kannattanut testata dx12 peleillä myös?.Käsittääkseni x80 kortit on nopeampia dx12:llä kuin dx11:llä.

GTA V:llä amd:n kortit näyttää loistavan
AMD Radeon RX 480 CrossFire Review
Yksi peli jossa molemmat sekä Amd, että nVidia otettiin avosylin vastaan tekemään kaikki mahdolliset optimoinnit ja vieläpä ennen julkaisua. Oikein näkee, että Rockstarilla ottivat opikseen GTA 4 PC:n katastrofiluokan optimointiongelmista. Onko montaa muuta peliä nähtykään, jossa samasta asetusvalikosta löytyy sekä nVidian PCSS että Amd:n CHS vierekkäin. :tup:
 
Vega-artikkelissa sitten taas Furyä ja miksei 580 CF mukana..
Kaikkia vaan mukaan saadaan tarkkaa tietoa, taitaa vaan viedä liikaa aikaa. Haluaisin tietää miten CPU vaikuttaa pelinopeuteen esim i7 2700K vs I7 7700K, mutta kaikkea ei voi saada :)
Ko. vertailu jo löytyy: https://www.io-tech.fi/artikkelit/intel-core-i7-7700k-core-i5-7600k-kaby-lake/#3

Sandystä kaby lakeen asti kaikki mukana.
 
Olikos noissa muuten samat muistit ja coren/muistien taajuus sama?.Käsittääkseni mennään aina sen hitaamman mukaan?.Entä käytettiinkö tossa sitä cf bridgeä?.Joku voisi tehdä jutun että miten cf bridgen kanssa eroaa siitä dx12 multigpu jutusta ja paljon niillä on nopeuseroa.Tosta multigpu jutusta voisi tehdä myös jutun jossa testataan nvidia+amd comboa että porukka näkisi onko kannattavaa ostaa emo jossa on 2kpl x16 pcie jotta tulevaisuudessa voisi jättää sen vanhan kortin kiinni kun ostaa sen uudemman kortin.
 
Viimeksi muokattu:
Eipä noissa taida olla edes paikkoja noille( :D ).Nvidialla taitaa tarvita?.

Krhhm, tuossa varsin lyhyessä artikkelissa mainitaan näin eli ensin luetaan ja sitten kommentoidaan ;)

AMD:n näytönohjaimilla ei enää nykypäivänä tarvitse käyttää erillistä ulkoista siltaa yhdistämään näytönohjaimia, vaan kommunikaatio tapahtuu PCI Express -väylän kautta.
 
Ostin joskus toisen 290 kortin kun piti CF laittaa ja paketista puutti CF silta ja olin aivan hiilenä kun en saakkaan CF heti käyttöön kunnes muistin ettei näissä ole edes paikkaa :rofl:
 
hienoja nämä testit :) saa ostiviittaa tätä kautta ja hyviä pointtejakin mainittu tuli mieleen eikös esim 290x ja 390x kortit saattaisi toimia myös rinnakkain ? en ole tutkinut aihetta mutta kiinnostaisi
 
Huomionarvoista lienee myös se, että testiasetelma on yritetty saada mahdollisimman paikkansapitäväksi ja siksi tuloksissa näkyykin se keskimääräinen +50% 480x:n tehosta, jota CF-combolla voitaisiin odottaa.

Se on sitten eriasia, jos asetukset viilattaisiin nappiin, esimerkiksi tesselaatiota normaalille ja vastineeksi antialiasinkia suuremmalle ja tätä rataa, niin saataisiin tuo ratukka näyttämään hyvältä. Toiseen suuntaan mennään, niin hairwörksi päälle, niin saadaan ratukat näyttämään aivan etanalta. Pointina tässä se, että asetukset on valittu artikkelia nähden hyvin balanssiin ja saatu vertailukelpoisia tuloksia, etenkin kun testeinä on yksi amd:n lempilapsi ja yksi gamewörks titteli. Toisin sanoen, juuri sitä mitä tältä sivustalta sopii odottaakkin. :kahvi:
Ei ollut tarkoitus vertailla nVidia vs AMD vaan ihan vain FPS vs resoluutio vs 1 tai 2 GPUta.

Muotoillaan hieman toisin:

Miten pelit ovat muuttuneet vuodesta 2010 tms milloin tuo TPUn käppyrä on tehty vrt. peleihin vuonna 2017 mikä heikentää CF/SLI tuomaa teholisää toisesta näytönohjaimesta?

Pelikohtaiset optimoinnit? Jokin uusi laskentakikka/ominaisuus mikä otettu käyttöön mutta mikä ei skaalaudukaan enää yhtä hyvin useammalle kortille? Kehno skaalaus kovempien laatuasetusten kanssa vs raaka resoluution kasvatus?

Uudehko TPUn revikka 1080 SLIstä näkyy selvästi miten resoluution kasvaessa SLIn hyöty kasvaa reilusti.
 
Itellähän viimeisimmät kokemukset HD5870 CF:stä vuodelta 2014 ja ainaki sillon Crossfire toimi, noissa alkoi lähinnä 1GB VRAM ahistamaan.
joops,nyt on sitten noita 11GB kortteja myynnissä.Mitäköhän hittoa tollaisella määrällä oikein tekee?.Mikään peli ei taida edes tukea tai ole käyttämässä noin paljoa näytönohjaimen muistia? :D
 
Ei ollut tarkoitus vertailla nVidia vs AMD vaan ihan vain FPS vs resoluutio vs 1 tai 2 GPUta.

Muotoillaan hieman toisin:

Miten pelit ovat muuttuneet vuodesta 2010 tms milloin tuo TPUn käppyrä on tehty vrt. peleihin vuonna 2017 mikä heikentää CF/SLI tuomaa teholisää toisesta näytönohjaimesta?

Pelikohtaiset optimoinnit? Jokin uusi laskentakikka/ominaisuus mikä otettu käyttöön mutta mikä ei skaalaudukaan enää yhtä hyvin useammalle kortille? Kehno skaalaus kovempien laatuasetusten kanssa vs raaka resoluution kasvatus?

Uudehko TPUn revikka 1080 SLIstä näkyy selvästi miten resoluution kasvaessa SLIn hyöty kasvaa reilusti.
Jos otetaan toinen ehkä hieman vanhempi revikka samalta sivulta: AMD Radeon RX 480 CrossFire Review Niin nähdään, että myös Ratukan RX480 CF:ssä skaalausprosetti kasvaa suhteessa resoluutioon. Sen skaalatessa n. +78% 1440p ja +82% 4K resolla, sekä 1080p testissäkin näitä tuloksia kovemman +65% skaalaavissa peleissä. Etten sanoisi, että RX480/580 alkaa olla sillä tasolla näyttiksenä, että kunnon CF-skaalaukset näkyvät vasta Fullhd:ta suuremmalla resolla, aivan kuten 1080 SLI:n ja +25% 1080p skaalauksen kanssa nähdään. Jos otetaan vielä vanhempi revikka: AMD Radeon HD 4890 CrossFire Review Niin herää nopeasti kysymys, että onko skaalaus sittenkään huonontunut mihinkään, vai onko aika kullannut vain muistot? ;)

Yksi asia tosin, mikä varmasti on vaikuttanut skaalaukseen, ovat frame pacing asioihin keskittyminen ja tuo yleensä tehdään täysin nopeuden kustannuksella. Ellen pahasti väärin muista, 2010 luvulla nörtit itkivät CF:n ja SLI:n surkeasta kyydistä ja 99-presentiili oli usein jopa heikompi kahdella kortilla kuin yhdellä. Nykyisellä CF:llä se jopa kasvaa 15%, jolloin käytännössä mitään sellaista tilannetta ei pitäisi enää tulla, että peli pyörisi huonommin CF:llä/SLI:llä.
 
Ei ollut tarkoitus vertailla nVidia vs AMD vaan ihan vain FPS vs resoluutio vs 1 tai 2 GPUta.

Muotoillaan hieman toisin:

Miten pelit ovat muuttuneet vuodesta 2010 tms milloin tuo TPUn käppyrä on tehty vrt. peleihin vuonna 2017 mikä heikentää CF/SLI tuomaa teholisää toisesta näytönohjaimesta?

Pelikohtaiset optimoinnit? Jokin uusi laskentakikka/ominaisuus mikä otettu käyttöön mutta mikä ei skaalaudukaan enää yhtä hyvin useammalle kortille? Kehno skaalaus kovempien laatuasetusten kanssa vs raaka resoluution kasvatus?

Uudehko TPUn revikka 1080 SLIstä näkyy selvästi miten resoluution kasvaessa SLIn hyöty kasvaa reilusti.
Noi 1080 taisi tarvita sen nopeamman bridgen eli loppu kaista kun aletaan käyttämään 8k kuvaa.

Tuolla on juttua mitä noi tarvitsi.
http://overclocking.guide/nvidia-hb-sli-bridge-technical-review/
 
Näytönohjaimen muistin määrästä näkisin mielellään oman artikkelinkin. Ainakin vielä siihen aikaan, kun itse omistin GTX970 tuli joissain peleissä ongelmia, kun yli 3,5GB meni käyttöön. Koitin vähän etsiä aiheesta ja ainut mitä löysin oli videocardzin revikka 1080Ti:stä, jossa näkyi muistin käyttö eri peleissä.
_20170426_084553.JPG


Tämän mukaan maksimissaan yli 9 Gb ollut käytössä Rise of the tomb raiderissa.

E: Enkä kyllä tiedä onko tuo nyt GPUn muistin käyttö vai RAM muistin käyttö.
 
joops,nyt on sitten noita 11GB kortteja myynnissä.Mitäköhän hittoa tollaisella määrällä oikein tekee?.Mikään peli ei taida edes tukea tai ole käyttämässä noin paljoa näytönohjaimen muistia? :D
Aika hyvät vaatimukset graffamuistille listaa Fallout 4:n hires tekstuuripäkki:

  • MINIMUM:
    • OS: Windows 7/8/10 (64-bit OS required)
    • Processor: Intel Core i7-5820K or better
    • Memory: 8 GB RAM
    • Graphics: GTX 1080 8GB
    • Storage: 58 GB available space
eli kyllä tuo muisti saadaan käytettyä kun oikein yritetään.
 
Näytönohjaimen muistin määrästä näkisin mielellään oman artikkelinkin. Ainakin vielä siihen aikaan, kun itse omistin GTX970 tuli joissain peleissä ongelmia, kun yli 3,5GB meni käyttöön. Koitin vähän etsiä aiheesta ja ainut mitä löysin oli videocardzin revikka 1080Ti:stä, jossa näkyi muistin käyttö eri peleissä.
_20170426_084553.JPG


Tämän mukaan maksimissaan yli 9 Gb ollut käytössä Rise of the tomb raiderissa.

E: Enkä kyllä tiedä onko tuo nyt GPUn muistin käyttö vai RAM muistin käyttö.
Löytyykö linkkiä itse revikkaan, googlella kun en löytänyt. Kiinnostaisi vain että mitä asetuksia tuossa on käytetty. 4K resolla, kun esim. muutenkin puoliturhaksi jäävään antialiasinkiin laittaa vähän kertoimia, niin muistinkäyttö pomppaa komeasti vaikka siitä ei ole mitään oikeaa graafista hyötyä.
 
Löytyykö linkkiä itse revikkaan, googlella kun en löytänyt. Kiinnostaisi vain että mitä asetuksia tuossa on käytetty. 4K resolla, kun esim. muutenkin puoliturhaksi jäävään antialiasinkiin laittaa vähän kertoimia, niin muistinkäyttö pomppaa komeasti vaikka siitä ei ole mitään oikeaa graafista hyötyä.
MSI GeForce GTX 1080 Ti GAMING X Review - VideoCardz.com
Siinä olis linkki. Asetuksista kerrotaan seuraavaa: We are using the most demanding in-game presets, in most cases called “Ultra” or “Very High”. Any NVIDIA or AMD proprietary technologies (like TressFS, Hairworks, HBAO+) were disabled or changed to other settings.

Eli noilla olisi saanut muistin käyttöä vielä isommaksi. Toki kortitkin olisi kyykännyt ihan reilusti varsinkin 4K:lla.
 
Tuli vaan mieleen, kun olen ollut jäähyllä tietokoneista yli 6 vuotta..
Ja ATI pelaa ilman crossfire siltaa.. nykyään ja se pienen ajurin toiminta perustui siihen.. niin tuohon voi saada sen toimintaan. Esim rx580 ja gtx1060..
Tervetuloa takaisin tietokoneiden maailmaan.

SLI ja CrossFire ovat molemmat kuolemassa. Nvidian uusimmat ei aina enää tue sli:tä, useamman kuin kahden kortin conffit kokonaan tukemattomia. Eikä amd puolella juuri paremmin mene.

Ps. Artikkeli ja edelliset kommentit melkein 2v vanhoja. ;)
 
1060 (sekä 1660 Ti, 2060 ja 2070) eivät edes tue SLI:tä, ellei sitten jollain epämääräisellä ajurilla. AMD taas on ollut siltaa jo R9 290 sarjasta (2013) lähtien.

Mitä siltaa?
Muoks. Eli meinasit varmaan, ettei ole siltaa. Ko?
Omiin ei ainakaan mitään siltaa saa.
 
Näytönohjaimen muistin määrästä näkisin mielellään oman artikkelinkin. Ainakin vielä siihen aikaan, kun itse omistin GTX970 tuli joissain peleissä ongelmia, kun yli 3,5GB meni käyttöön. Koitin vähän etsiä aiheesta ja ainut mitä löysin oli videocardzin revikka 1080Ti:stä, jossa näkyi muistin käyttö eri peleissä.
_20170426_084553.JPG


Tämän mukaan maksimissaan yli 9 Gb ollut käytössä Rise of the tomb raiderissa.

E: Enkä kyllä tiedä onko tuo nyt GPUn muistin käyttö vai RAM muistin käyttö.

Ihmeen vähällä esim. Doomissa kuluu muistia 4K tarkkuudella, kun itsellä asetukset täysillä 1440P tarkkuudella menee siellä 5.5GB ja ohjaimena GTX 1070
 

Statistiikka

Viestiketjuista
257 653
Viestejä
4 480 435
Jäsenet
73 964
Uusin jäsen
poppi75

Hinta.fi

Back
Ylös Bottom