Virallinen: NVIDIA vs AMD (vs Intel) keskustelu- ja väittelyketju

  • Keskustelun aloittaja Keskustelun aloittaja Sampsa
  • Aloitettu Aloitettu
Nyt kun ei noita RTX-kortteja oikein saa, niin miten nykypäivänä NVidia ja AMD -kortit eroaa toisistaan (peli)käyttäjän näkökulmasta?

Edellisen kerran AMD:n näyttiksen omistin joskus n.20 vuotta sitten. Siihen aikaan Radeoneissa oli hieman parempi kuvanlaatu. Sen jälkeen menty NVidialla, koska tehoa alkoi löytymään enemmän ja kuvanlaadulliset erotkin tasoittuivat.

Onko jotain oleellisia featureita mitä toiselta puuttuu mitä toisella on jne.? Toki tuo 144Hz G-sync näyttö hieman jarruttaa AMD:hen siirtymistä, mutta toisaalta 4K-näyttöön siirtyminen uusien korttien myötä vois olla ihan realistista (etenkin kun myös HDR puuttuu joten siihen tarvii käyttää telkkaria). :hmm:

Edit: Joo, tein samanlaisen kyselyn joku aika sitten tuolla prossu-alueella :lol:
 
Nyt kun ei noita RTX-kortteja oikein saa, niin miten nykypäivänä NVidia ja AMD -kortit eroaa toisistaan (peli)käyttäjän näkökulmasta?

Edellisen kerran AMD:n näyttiksen omistin joskus n.20 vuotta sitten. Siihen aikaan Radeoneissa oli hieman parempi kuvanlaatu. Sen jälkeen menty NVidialla, koska tehoa alkoi löytymään enemmän ja kuvanlaadulliset erotkin tasoittuivat.

Onko jotain oleellisia featureita mitä toiselta puuttuu mitä toisella on jne.? Toki tuo 144Hz G-sync näyttö hieman jarruttaa AMD:hen siirtymistä, mutta toisaalta 4K-näyttöön siirtyminen uusien korttien myötä vois olla ihan realistista (etenkin kun myös HDR puuttuu joten siihen tarvii käyttää telkkaria). :hmm:

Edit: Joo, tein samanlaisen kyselyn joku aika sitten tuolla prossu-alueella :lol:
Tällä hetkellä eroa on säteenseurannan kiihdytyksen suhteen yms, mutta tämä korjaantuu tässä kuussa esiteltävän RDNA2:n ja RX 6000 -sarjan näyttisten osalta.
RTX-kortit ja AMD:n RX 6000 -sarja tukevat DirectX 12 Ultimatea, mutta RTX-korteissa tuki Sampler Feedbackille on Tier 0.9 kun oletettavasti RDNA2:ssa se on vähintään Tier 1
 
Tyypillinen/yleinen aliasoitumiefekti on moire-efekti.

Pikagoogletuksella löytyi:

Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.

Video on heinäkuulta ja tässä tullu isoja päivityksiä niin eikö vieläkään ole korjattu ?
 
Nyt kun ei noita RTX-kortteja oikein saa, niin miten nykypäivänä NVidia ja AMD -kortit eroaa toisistaan (peli)käyttäjän näkökulmasta?

Edellisen kerran AMD:n näyttiksen omistin joskus n.20 vuotta sitten. Siihen aikaan Radeoneissa oli hieman parempi kuvanlaatu. Sen jälkeen menty NVidialla, koska tehoa alkoi löytymään enemmän ja kuvanlaadulliset erotkin tasoittuivat.

Onko jotain oleellisia featureita mitä toiselta puuttuu mitä toisella on jne.? Toki tuo 144Hz G-sync näyttö hieman jarruttaa AMD:hen siirtymistä, mutta toisaalta 4K-näyttöön siirtyminen uusien korttien myötä vois olla ihan realistista (etenkin kun myös HDR puuttuu joten siihen tarvii käyttää telkkaria). :hmm:

Edit: Joo, tein samanlaisen kyselyn joku aika sitten tuolla prossu-alueella :lol:
Jos haluat pelata ja striimata niin Nvidia ainut vaihtoehto tähän kiitos NVENCin.
 
Jos haluat pelata ja striimata niin Nvidia ainut vaihtoehto tähän kiitos NVENCin.
Ei se mikään ainut vaihtoehto ole millään mittarilla, vaikka hyvä vaihtoehto onkin.
Myös AMD tarjoaa rautaenkooderin vaikka se laadussa onkin tällä haavaa heikompi, eikä se prosessorilla enkoodaaminenkaan mitenkään poissuljettu vaihtoehto ole.
 
On kyllä tuossa DLSS:ssä niin paljon muitakin ongelmia, esimerkiksi ringing artifaktit ja esim juuri tuo videolla näkyvä moire, että ei kyllä ole lähelläkään käyttökelpoista tällä hetkellä. Kuitenkin tehosäästöt ovat sen verran pieniä ja ylipäätään niin paljon ongelmia, että kaukana ollaan kyllä käyttökelpoisesta saati "hyvästä" tekniikasta.
Ei se mikään ainut vaihtoehto ole millään mittarilla, vaikka hyvä vaihtoehto onkin.
Myös AMD tarjoaa rautaenkooderin vaikka se laadussa onkin tällä haavaa heikompi, eikä se prosessorilla enkoodaaminenkaan mitenkään poissuljettu vaihtoehto ole.
Jep, helposti näyttiksessä säästetyn hinnan voi laittaa tehokkaampaan prosessoriin, ja niin saa myös näyttiksen ehkä vaihtuessa pidettyä sen suorituskyvyn. NVENC ja RTX voicet ja muut on kyllä aika gimmickejä edelleen, kun saman pystyy juuri tekemään esim prosessorilla.
 
Jos haluat pelata ja striimata niin Nvidia ainut vaihtoehto tähän kiitos NVENCin.
Kyllä AMD:n korteillakin voi pakata kuvaa. Kuvanlaatu on hieman matalempi etenkin korkeilla bitrateilla, mutta silti n. veryfast presettiin verrattavissa. "ainut vaihtoehto" on aika kärjistävä heitto.
 
Kyllä AMD:n korteillakin voi pakata kuvaa. Kuvanlaatu on hieman matalempi etenkin korkeilla bitrateilla, mutta silti n. veryfast presettiin verrattavissa. "ainut vaihtoehto" on aika kärjistävä heitto.
Jep. Vielä kun ajurit vähän kypsyy, niin voi hyvin olla, että mennään jopa ohi nvidiasta. Ja kuten mainittua, näyttiksessä säästetyllä rahalla voi ostaa sen tehokkaammaan (ja future proofin) prosessorin, jolla saa laitettua pihalle parempaa kuvaa kuin millään NVENC-gimmikeillä.
 
Nyt kun ei noita RTX-kortteja oikein saa, niin miten nykypäivänä NVidia ja AMD -kortit eroaa toisistaan (peli)käyttäjän näkökulmasta?

Edellisen kerran AMD:n näyttiksen omistin joskus n.20 vuotta sitten. Siihen aikaan Radeoneissa oli hieman parempi kuvanlaatu. Sen jälkeen menty NVidialla, koska tehoa alkoi löytymään enemmän ja kuvanlaadulliset erotkin tasoittuivat.

Onko jotain oleellisia featureita mitä toiselta puuttuu mitä toisella on jne.? Toki tuo 144Hz G-sync näyttö hieman jarruttaa AMD:hen siirtymistä, mutta toisaalta 4K-näyttöön siirtyminen uusien korttien myötä vois olla ihan realistista (etenkin kun myös HDR puuttuu joten siihen tarvii käyttää telkkaria). :hmm:

Tällä hetkellä suurin ero on se, että amd:n kortit ovat suorituskyvyltään hitaampia kuin nvidian toissa sukupolvi :hmm: Tietysti myös RT-tuki puuttuu täysin. Myös striimereille käyttökelpoiset rautakoodaukset ja muut mukavat lisät joita rtx-kortit tuo tullessaan.
 
Ei se mikään ainut vaihtoehto ole millään mittarilla, vaikka hyvä vaihtoehto onkin.
Myös AMD tarjoaa rautaenkooderin vaikka se laadussa onkin tällä haavaa heikompi, eikä se prosessorilla enkoodaaminenkaan mitenkään poissuljettu vaihtoehto ole.
Se on ainut vaihtoehto jos puhutaan näytönohjaimista. Oikei, Intel tuonut myös uutta heidän quicksynciin. Se voi jossain vaiheessa olla varteenotettava. AMD:llä kehitystyötä ei ole näkynyt ja se on harmi.
Prosessorilla enkoodaaminen ei ole poissuljettu asia, mutta nyt puhutaan näytönohjaimista joten turha tuoda tuota näkökulmaa tähän.

Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.
 
Prosessorilla enkoodaaminen ei ole poissuljettu asia, mutta nyt puhutaan näytönohjaimista joten turha tuoda tuota näkökulmaa tähän.
lähtökohtaisesti saat niin paljon parempaa perf/€ AMD:ltä, että pystyt ylijäävän rahan panostamaan halutessasi esim juuri prosessoriin, jolla enkoodaus hoituu paremmin kuin näyttiksellä. Onhan se ihan validi pointti näyttiksistä puhuttaessa.
 
Se on ainut vaihtoehto jos puhutaan näytönohjaimista. Oikei, Intel tuonut myös uutta heidän quicksynciin. Se voi jossain vaiheessa olla varteenotettava. AMD:llä kehitystyötä ei ole näkynyt ja se on harmi.
Prosessorilla enkoodaaminen ei ole poissuljettu asia, mutta nyt puhutaan näytönohjaimista joten turha tuoda tuota näkökulmaa tähän.
Edelleen, ei ole ainut. Se ettei ole paras ei tarkoita että olisi käyttökelvoton. Striimaamaan pääsee vaikka ilman mitään kolmansien osapuolten softia suoraan Radeon Softwaresta.
 
Ei se mikään ainut vaihtoehto ole millään mittarilla, vaikka hyvä vaihtoehto onkin.
Myös AMD tarjoaa rautaenkooderin vaikka se laadussa onkin tällä haavaa heikompi, eikä se prosessorilla enkoodaaminenkaan mitenkään poissuljettu vaihtoehto ole.
NVENC on ainut oikeasti hyvä vaihtoehto.
AMD:n rautaenkooderi on keskeneräinen, ihan sama miten päin sitä asiaa katsoo.

Vuosi 2016 soitteli ja halusi prosessorilla encoodaamisen takaisin. mitään tolkkua tykittää kahdeksaa ydintä tapissa prosessorilla jos parempaa laatua saa näytönohjaimella.
 
Tyypillinen/yleinen aliasoitumiefekti on moire-efekti.
Enpä osannut näitä asioita yhdistää enkä siten tuolla hakusanalla googlettaakaan.

Kokeilinpa huvikseni Unreal Engine -pelissä kun muistin Moireen törmänneeni. Efekti ei rajoitu efekti kehittyneempiin DLSS ja TAAU ratkaisuihin vaan sitä esiintyy myös ihan TAA:lla tuossa haastavassa avaruuspuvun materiaalissa (tässä kuvassa pahiten tuossa rinnan ulokkeessa). 960p -> 1440p eli ~67% skaalauksella nämä kaikki:

DLSS
cropDLSS.png


TAA
crop2.png

TAAU
crop1.png

Tämä mip homma itselleni vähän tuntematon, mutta käytännön testi herättää kyllä kysymyksen, että miksi aliasoituminen/Moire on erityisesti DLSS:ään/mip biakseen liittyvä ongelma?

PS. kuvissa vähän haastava tätä demota, liikkeessähän efekti on selvempi.
 
Tämä mip homma itselleni vähän tuntematon, mutta käytännön testi herättää kyllä kysymyksen, että miksi aliasoituminen/Moire on erityisesti DLSS:ään/mip biakseen liittyvä ongelma?
Aliasoitumista voi tulla muistakin asioista kuin väärin konfiguroidusta mip biaksesta. Moire tasaisessa teksturoidussa pinnassa kuten death stranding esimerkissä taas on hyvin suurella varmuudella juuri mip biasista kiinni.
 
Se on ainut vaihtoehto jos puhutaan näytönohjaimista. Oikei, Intel tuonut myös uutta heidän quicksynciin. Se voi jossain vaiheessa olla varteenotettava. AMD:llä kehitystyötä ei ole näkynyt ja se on harmi.
Prosessorilla enkoodaaminen ei ole poissuljettu asia, mutta nyt puhutaan näytönohjaimista joten turha tuoda tuota näkökulmaa tähän.

Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.

"Those who want to use their graphics cards, I pretty much cannot recommend anyone in the world to buy an AMD graphics card for live streaming in 2020."

tl;dw jos ei joku jaksa katsoa koko 25 minuutin videota.
 
Aliasoitumista voi tulla muistakin asioista kuin väärin konfiguroidusta mip biaksesta. Moire tasaisessa teksturoidussa pinnassa kuten death stranding esimerkissä taas on hyvin suurella varmuudella juuri mip biasista kiinni.
Juu voi olla itseasiassa ihan paljonkin tekemistä asian kanssa sillä että tuossa tuijotellaan heijastusta. Samassa materiaalissa ei juuri Moireja näy kun katsotaan ihan sitä itseään.
 
Enpä osannut näitä asioita yhdistää enkä siten tuolla hakusanalla googlettaakaan.

Kokeilinpa huvikseni Unreal Engine -pelissä kun muistin Moireen törmänneeni. Efekti ei rajoitu efekti kehittyneempiin DLSS ja TAAU ratkaisuihin vaan sitä esiintyy myös ihan TAA:lla tuossa haastavassa avaruuspuvun materiaalissa (tässä kuvassa pahiten tuossa rinnan ulokkeessa). 960p -> 1440p eli ~67% skaalauksella nämä kaikki:

DLSS
cropDLSS.png


TAA
crop2.png

TAAU
crop1.png

Tämä mip homma itselleni vähän tuntematon, mutta käytännön testi herättää kyllä kysymyksen, että miksi aliasoituminen/Moire on erityisesti DLSS:ään/mip biakseen liittyvä ongelma?

Yksinkertaistettu selitys:

Siten että pielessä olevalla mip biasilla otetaan korkean resoluution tekstuurista pisteitä harvakseltaan, ja näiden välissä olevia tekstuurin pikseleitä ei ehkä käytetä ollenkaan. Tällöin siis pahimmassa tapauksessa neljäsosa tekstuurin pikseleistä (käytännössä arpomalla sillä, mitkä osuvat parhaiten kuvan pikselin kohdalle) päättää, miltä kuva loppujen 3/4 kodalla pitäisi näyttää.

Kun tekstuurin bias on kohdallaan, siitä korkean resoluution tekstuurista on ensin hyvällä skaalausalgoritmilla luotu matalamman resoluution versio, jonka muodostamiseen on käytetty kaikkia alkuperäisen tekstuurin pikseleitä, ja sitten lopullista tekstuurifiltteröintiä tehdessä tästä matalamman resoluution versiosta käytetään kaikkia pikseleitä (joihin on siis vaikuttaneet kaikki alkuperäisen teksturin pikselit).

Käytännössä tilanne on hiukan monimutkaisempi, koska tekstuurit joka tapauksessa filtteröidään, mikä vähentää aliasoitumista, mutta sen lähdetekstuurin ja kohdekuvan resoluution suhteen pitää olla oikea, että filtteröinti toimii kunnolla, väärin säädetyllä MIP-BIASilla tekstuuriin jää silti väliin pikseleitä joiden väriarvo ei vaikuta lopulliseen kuvan ollenkaan tai vain hyvin, hyvin pienellä kertoimella.


Mutta, vinot pinnat on joka tapauksessa "ongelmallisia" sen suhteen, että niissä tekstuurin resoluution ja kuvan resoluution suhde ei ole vakio vaan muuttuu eri suuntiin, jolloin yksinkertaisella bi-tai trilineaarisella suodatuksella ei ole "oikeaa" MIP-BIASia koska se MIP-BIAS millä aliasointi vältetään toiseen suuntaan johtaa siihen, että toiseen suuntaan käyetään liian pienen resoluution tekstuuria joka johtaa sumeuteen. Anisotrooppinen suodatus on sitten ratkaisu tähän, se ottaa enemmän tekstuurinäytteitä toiseen suuntaan jolloin voidaan käyttää suuremman version tekstuuria ilman aliasoitumista, ja tällä saadaan sumeutta pois toisesta suunnasta.
 
Viimeksi muokattu:
edit: Ja entäs Unreal Engine 5 Nanite teknologia? Toihan käyttää softarasterisointia, joten tuleeko siinä hyötyä noista FP32 ytimistä? Mietin vaan, että onhan se mahdollista, että NVIDIA on kysellyt pelimoottorien kehittäjiltä, mitä he haluaisivat nähdä seuraavan sukupolven näytönohjaimissa ja rakentanut arkkitehtuuria hieman sitäkin silmällä pitäen.
Nanitessa on oma softarasteroija joka käyttää näytönohjaimen compute shadereitä muun muassa. Eli kaikki FP32 on kyllä takuulla käytössä. Käyttävät myös muita primitiivishadereita mitä alusta vain tukee.
 
  • Tykkää
Reactions: aop
Vuosi 2016 soitteli ja halusi prosessorilla encoodaamisen takaisin. mitään tolkkua tykittää kahdeksaa ydintä tapissa prosessorilla jos parempaa laatua saa näytönohjaimella.
Jaa? Täällä tuntuu kuitenkin olevan porukkaa joka väittää, että laatua haluava ei koske yhteenkään rautaenkooderiin vaan tekee sen kokonaan softalla.
 
Jep, helposti näyttiksessä säästetyn hinnan voi laittaa tehokkaampaan prosessoriin, ja niin saa myös näyttiksen ehkä vaihtuessa pidettyä sen suorituskyvyn. NVENC ja RTX voicet ja muut on kyllä aika gimmickejä edelleen, kun saman pystyy juuri tekemään esim prosessorilla.

Niin siis minkä säästetyn hinnan? Tuo nvenc ei juurikaan hidasta näytönohjainta joten sitä varten ei tarvitse hommata nopeampaa korttia.
 
Niin siis minkä säästetyn hinnan? Tuo nvenc ei juurikaan hidasta näytönohjainta joten sitä varten ei tarvitse hommata nopeampaa korttia.
Tähän asti saman tehoinen AMD kortti on ollu reilusti halvempi kuin vastaava Nvidia kortti.
 
Jaa? Täällä tuntuu kuitenkin olevan porukkaa joka väittää, että laatua haluava ei koske yhteenkään rautaenkooderiin vaan tekee sen kokonaan softalla.
Aikalailla mennyttä aikaa, jos katsot minkä tahansa vertailu videon tai artikkelin kuluneen vuoden ajalta niin kaikissa päädytään suosittelemaan turingin nvenciä. Itsekin striimailin softalla, kunnes sitten toi turing-nvenc saapui OBS:ään ja sen jälkeen vaihtui mullakin. Ei ollu mitään eroa x264-slowiin, muuta kun se että kaikki randomi ripuloinnit lakkasi.
 
Tällä hetkellä suurin ero on se, että amd:n kortit ovat suorituskyvyltään hitaampia kuin nvidian toissa sukupolvi :hmm: Tietysti myös RT-tuki puuttuu täysin. Myös striimereille käyttökelpoiset rautakoodaukset ja muut mukavat lisät joita rtx-kortit tuo tullessaan.
Niinhän se on, mutta toki AMD:n seuraava kohta julkistettava sukupolvi tässä olikin mielessä. 3080 tilaamiseen en niin paljoa panostanut, että jonoa varmaan on edellä reilusti...

RTX ei itelle ole mikään must have juttu loppupeleissä, ehkå enemmän "kiva juttu" kategoriassa. Eikä hintakaan ole kiveen hakattu, kunhan saa vaikka kolmeksi vuodeksi hyvän kortin. Mietin vaan menettääkö/saako siinä mitään käyttökelpoista "featuretasolla" jos AMD:hen vaihtaisikin. No pikapuoliinhan nämä selviää, raudanhimo vaan aika kova jo.
 
Ei ole mitään kiirettä. Jos se teho ei riitä natiiviresolle, niin olet ostanut liian tehottoman kortin. Enkä muutenkaan ainakaan itse ota vapaaehtoisesti käyttöön yhtään kuvanlaatua huonontavaa tekniikkaa

Nvidian RTX korttien kanssa tehon ei tarvi riittääkkään jollekkin resolle kun DLSS 2.0:lla saat hyvin pitkälti täysin samanäköistä jälkeä kuin natiivi.

AMD on tässä valovuosia takana, Nvidialla onnistuu DLSS 2.0:lla jo 8K pelaaminenkin, AMD:llä tämä on fantasiaa jos haluaa että peli näyttäisi vielä hyvällekkin
 
Nvidian RTX korttien kanssa tehon ei tarvi riittääkkään jollekkin resolle kun DLSS 2.0:lla saat hyvin pitkälti täysin samanäköistä jälkeä kuin natiivi.

AMD on tässä valovuosia takana, Nvidialla onnistuu DLSS 2.0:lla jo 8K pelaaminenkin, AMD:llä tämä on fantasiaa jos haluaa että peli näyttäisi vielä hyvällekkin
Pitkälti täysin samannäköistä? Siinä on kyllä niin ympäripyöreästi ilmaistu, että joko toimii tai sitten ei. Jos 8K vaatii sen DLSS:n, niin siinä voi sanoa, että itsepetos haisee taivaaseen saakka ja nVidian markkinointipowerpointit on nielaistu koukkua, siimaa ja puolta vapaakin myöten.
 
Huutonaurua. 8k ruudusta jos aikoo ottaa mitään iloa irti pitää FOV olla n. 110 astetta.

Ja onhan se muutenkin vitsi. Tukkajeesus veti ihan hyvin huumorilla tuon 8k osuuden arvostelusta, eikä nvidian arvosteluoppaan hypelauseiden mukaan. Eli konsolitason suoritus, itseasiassa heikompikin:

Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.
 
Loppuipa NVIDIA-fanaatikoilta argumentit lyhyeen. Kyllä se niin on, että AMD:llä on nyt jo parhaat tuotteet low- ja mid rangeen, ja todennäköisesti kohta myös high endiin. Siinä on Jenssenin pojalla tiedossa kuumat paikat.
 
Loppuipa NVIDIA-fanaatikoilta argumentit lyhyeen. Kyllä se niin on, että AMD:llä on nyt jo parhaat tuotteet low- ja mid rangeen, ja todennäköisesti kohta myös high endiin. Siinä on Jenssenin pojalla tiedossa kuumat paikat.
Minkä suhteen? Sivulla näyttää olevan puhetta enkoodereista, joissa Nvidia vie 100-0 ja AMD ei ole vielä julkaissut uusia näyttiksiään tai edes speksejä. Millä logiikalla AMD johtaa juuri nyt? Sori jos minulta on nyt mennyt jotakin ohi.
 
Loppuipa NVIDIA-fanaatikoilta argumentit lyhyeen. Kyllä se niin on, että AMD:llä on nyt jo parhaat tuotteet low- ja mid rangeen, ja todennäköisesti kohta myös high endiin. Siinä on Jenssenin pojalla tiedossa kuumat paikat.
Oon aina luullu naiseksi :jd:

Onhan tuo 3080 kyllä tappiin ja sen yli kellotettu valmiiksi tehtaalla. Ei toimi ilman alikelloja ja syö olkiluodon verran sähköä. Ei hyvä.
 
Tähän asti saman tehoinen AMD kortti on ollu reilusti halvempi kuin vastaava Nvidia kortti.
Kattelenkohan jotenkin vinoon kun 1650S näyttää minun silmääni paremmalta valuelta AMD:n samantehoisia verrokkeja vastaan? Hinta.fi:ssä halvin 1650S ~160eur toimitettuna, 5500XT 4gb puolestaan ~176eur (ja 580 vielä vähän kalliimpi), joten tämänhetkinen suhteellinen ero on Suomessa vielä suurempi Nvidian eduksi kuin tuossa kuvaajassa.

Halvin 2060 puolestaan ~3% kalliimpi hinta.fi:ssä kuin halvin 5600XT = AMD reilusti halvempi?

Cost-p.webp

 
Kattelenkohan jotenkin vinoon kun 1650S näyttää minun silmääni paremmalta valuelta AMD:n samantehoisia verrokkeja vastaan? Hinta.fi:ssä halvin 1650S ~160eur toimitettuna, 5500XT 4gb puolestaan ~176eur (ja 580 vielä vähän kalliimpi), joten tämänhetkinen suhteellinen ero on Suomessa vielä suurempi Nvidian eduksi kuin tuossa kuvaajassa.

Halvin 2060 puolestaan ~3% kalliimpi hinta.fi:ssä kuin halvin 5600XT = AMD reilusti halvempi?

Cost-p.webp

Niin, sehän on AMD:n ansiota, että noita hintoja on saatu poljettua alemmas. Ja edelleen AMD tarjoaa parasta perf/watt
 
Aiemmin kaikki oli sitä mieltä että yli 300W näyttistä ei osta kukaan. Nyt kun logo sattui olemaan vihreä ne menee kuin kuumille kiville...

Sinällään ihan fiksu ratkaisu kellottaa kortit reilusti parhaan hyötysuhteen yli niin saatiin vakiona nopeita kortteja...
Yhtälöstä uupui nyt energiatehokkuus.

Yli 300w paskalla energiatehokkuudella oleva nöytönohjain on kyllä iso miinus vihkoon, mutta 3080/3090 on parempi energiatehokkuus kuin esim 2080Ti joten eipä se kulutus silloin haittaa kun potkuakin löytyy suhteessa paremmin.

Mun puolesta saa kuluttaa vaikka 500w kunhan se energiatehokkuus on edelleen hyvä, eikä tuohon liity merkki mitenkään, vaan itse energiatehokkuus eli suorituskyky per käytetty watt.

performance-per-watt_3840-2160.png


Niin, sehän on AMD:n ansiota, että noita hintoja on saatu poljettua alemmas. Ja edelleen AMD tarjoaa parasta perf/watt
Paitsi että senkään perusteella ei yksistään voi ostaa näytönohjainta.
Vai mitenköhän Rx570 pyörittelis 4K.lla Max asetuksilla pelejä :think:
Eli hankinta menee myös tarvittavan suorituskyvyn mukaan,eli mitä se käyttäjä tarvitsee/vaatii.
Paras 4K näytönohjain on nyt Rtx3080.

performance-per-dollar_3840-2160.png
 
Viimeksi muokattu:
Halvin 2060 puolestaan ~3% kalliimpi hinta.fi:ssä kuin halvin 5600XT = AMD reilusti halvempi?

5600XT korteista ei taida olla niitä 2 markan jäähyillä olevia halppismalleja ollenkaan. Jos verrataan vastaavia niin onhan se 5600XT halvempi.
Esim. vaikkapa Asus STRIX:
ASUS Radeon RX 5600 XT ROG STRIX OC - 6GB GDDR6 RAM - Näytönohjaimet

ASUS GeForce RTX 2060 ROG STRIX EVO OC - 6GB GDDR6 RAM - Näytönohjaimet

Sama homma vaikka MSI Gaming X/Z malleilla...


Noiden hinnat nyt tällä hetkellä on muutenkin ihan mitä sattuu kun saatavuudet on heikolla tasolla. Uudet kortit tulee noiden tilalle.

1650 Super oli kyllä poikkeuksellisen hyvä hinta/teho suhteeltaan ja 5500XT poikkeuksellisen huono, mutta julkaisunsa aikaan RX580 ja RX590 oli halvempia ja nopeampia. (Siitä voi sitten olla montaa mieltä kumpi oli parempi ostos...)
 
5600XT korteista ei taida olla niitä 2 markan jäähyillä olevia halppismalleja ollenkaan. Jos verrataan vastaavia niin onhan se 5600XT halvempi.
Eli näissäkin tämä 5600 XT malli selvästi paremmalla jäähyllä?

 
Paitsi että senkään perusteella ei yksistään voi ostaa näytönohjainta.
Vai mitenköhän Rx570 pyörittelis 4K.lla Max asetuksilla pelejä :think:
Eli hankinta menee myös tarvittavan suorituskyvyn mukaan,eli mitä se käyttäjä tarvitsee/vaatii.
Paras 4K näytönohjain on nyt Rtx3080
Tällä hetkellä kyllä paras ei ole 3080, kun katselee saatavuutta. Jos haluat päästä peleille jouluna tai vähän myöhemmin, niin tokihan 3080 on varmaan aika hyvä valinta. Katsotaan ihan rauhassa mikä yllätys AMD:llä on hihassaan, turha verrata viime sukupolven kortteihin tuota 30xx-sarjaa.
 
Yhtälöstä uupui nyt energiatehokkuus.

Yli 300w paskalla energiatehokkuudella oleva nöytönohjain on kyllä iso miinus vihkoon, mutta 3080/3090 on parempi energiatehokkuus kuin esim 2080Ti joten eipä se kulutus silloin haittaa kun potkuakin löytyy suhteessa paremmin.

Mun puolesta saa kuluttaa vaikka 500w kunhan se energiatehokkuus on edelleen hyvä, eikä tuohon liity merkki mitenkään, vaan itse energiatehokkuus eli suorituskyky per käytetty watt.

performance-per-watt_3840-2160.png

Eikös se Amperen energiatehokkuus pitänyt olla 50% nopeampi puolella kulutuksella?

Aika kauas jäätiin siitä .... ;)

2080ti ja 3080 on melkein tasoissa tuonkin kaavion mukaan.

Mitähän ihmettä muuten Techpowerupin perf/watt kaavioiden kanssa on menossa, kun jokaisen eri 3090 ja 3080 kortin taulukossa korttien energiatehokkuus vaihtelee todella paljon. Tuohan pitäisi olla testattua korttia vaille samanlainen kaikissa arvosteluissa.
 
Eli näissäkin tämä 5600 XT malli selvästi paremmalla jäähyllä?

Joo, toinen on normihintainen ja toinen alennustuote. Onpa yllättävää, että hetkellisesti alennuksesta saattaa saada halvalla tuotteita.
 
Eli näissäkin tämä 5600 XT malli selvästi paremmalla jäähyllä?


Hyvä onnistuit löytämään tarjoustuotteen joka on halvempi. Katsoppas sitä norm hintaa. 389€.

Kuten sanoin tämän hetken hintoja on ihan turha vertailla kun varastoja tyhjennetään vanhoista korteista.
 
Hinnat 2060 ei ole laskenut 5600XT julkaisunjälkeen niin paljoa kuin olisi voinut olettaa eli ovat ainakin suomessa aavistuksen koholla mutta nyt hieman turha näitäkin vertailla kun EOL ja uutta tullossa.

Eli näissäkin tämä 5600 XT malli selvästi paremmalla jäähyllä?

Noissa molemmissa yhtä surkeat jäähyt..

Lähinnä Amd puolen valmistajista osa panostanut paremmin 5600XT jäähyihin kun taas Nvidia puolelta osa valmistajista pistänyt katteet kuntoon ja julkaissut sellasia paskoja malleja pari kourallista.

Toivottavasti tulevissa 3000 sarjoissa ei enään samoja säästöjä nähdä, vaikka vähän epäilen että siellä taas osa pulttaa kiinni noita pilipali jäähyjäkin.
 
Toivottavasti tulevissa 3000 sarjoissa ei enään samoja säästöjä nähdä, vaikka vähän epäilen että siellä taas osa pulttaa kiinni noita pilipali jäähyjä.

Ainakin 3080 ja 3090 jotka on testeissä nyt näkyny on ollu yllättävän hyviä. Jospa sama trendi jatkuisi noiden 3070 ja 3060 korttien kanssa.
 
Jos olisin näyttistä ostamassa niin kiinnoistaisi paljonko se köyhdyttää, ei se onko se tarjoushinta vai ei. Tällä hetkellä edelleenkin halvimmat 2060:t ja 5600 XT:t hyvin lähellä toisiaan hinnoissa.

Ja se 1650S tarjoaa parempaa valueta kuin AMD.

Mutta sovitaan että AMD tosiaan reilusti halvempi. :thumbsup:
 
Ainakin 3080 ja 3090 jotka on testeissä nyt näkyny on ollu yllättävän hyviä. Jospa sama trendi jatkuisi noiden 3070 ja 3060 korttien kanssa.
Täytyy toivoa, ongelma on vaan siinä kun valmistajat haistaa matalahkon kulutuksen niin pultataan niitä 2markan jäähyjä jotka nippanappa sitten riittävät.
Joku esim. 1660ti Asus dual hyvä osoitus siittä miten hienosti perseillään jäähyjen kanssa ja sitten joku vielä ostaa

Jos olisin näyttistä ostamassa niin kiinnoistaisi paljonko se köyhdyttää, ei se onko se tarjoushinta vai ei. Tällä hetkellä edelleenkin halvimmat 2060:t ja 5600 XT:t hyvin lähellä toisiaan hinnoissa.

Ja se 1650S tarjoaa parempaa valueta kuin AMD.

Mutta sovitaan että AMD tosiaan reilusti halvempi. :thumbsup:
Nvidia taitaa tuolla alle 300e luokassa hallita hieman ja Amd.lla sitten hyvin hinnoiteltuna nämä 5600XT/5700/5700XT

1650S/1660 pitää antaa pisteet tuosta kellottuvuudesta kun jopa 15% irtoaa extraa ja vieläpä kohtuu hintaisia ohjaimista.

Mutta kaikkineen melkoisen tasaväkisesti hinnoiteltuja,ei kovinkaan räikeitä eroja.
 
Tähän asti saman tehoinen AMD kortti on ollu reilusti halvempi kuin vastaava Nvidia kortti.

No, 5700XT on vajaan satkun halvempi kuin 2070 Super, ja Super on kuitenkin selvästi nopeampi kortti keskimäärin. Eli tuolla erotuksella pitäisi saada selvästi parempi prossu jotta softaenkoodaus onnistuu vastaavalla laadulla mikä ei ihan taida onnistua, lisäksi sinulla on sitten hitaampi näytönohjain :hmm:
 
No, 5700XT on vajaan satkun halvempi kuin 2070 Super, ja Super on kuitenkin selvästi nopeampi kortti keskimäärin. Eli tuolla erotuksella pitäisi saada selvästi parempi prossu jotta softaenkoodaus onnistuu vastaavalla laadulla mikä ei ihan taida onnistua, lisäksi sinulla on sitten hitaampi näytönohjain :hmm:
No jos reilu 5% on mielestäsi ”selvästi nopeampi”, niin selvä. Mielestäni tuo on aika pieni ero.
 

Statistiikka

Viestiketjuista
297 594
Viestejä
5 075 653
Jäsenet
81 335
Uusin jäsen
Kosminen kettu

Hinta.fi

Back
Ylös Bottom