Virallinen: NVIDIA vs AMD (vs Intel) keskustelu- ja väittelyketju

  • Keskustelun aloittaja Keskustelun aloittaja Sampsa
  • Aloitettu Aloitettu
Pääosin taiwanissa. Usassa on (tai ainakin on rakenteilla) jokunen tehdas. Olisikohan kiinassakin ollut joku tehdas jolla tuotetaan halpoja piisiruja.
Sitten voi olla oikein fiksua miettiä noita valmistusvaihtoehtoja. Jos Kiina päättää hyökätä Taiwaniin, niin sieltä ei välttämättä lähde yhtään piiriä.. Ja se on täysin mahdollista...
 
Sitten voi olla oikein fiksua miettiä noita valmistusvaihtoehtoja. Jos Kiina päättää hyökätä Taiwaniin, niin sieltä ei välttämättä lähde yhtään piiriä.. Ja se on täysin mahdollista...
Olen samaa mieltä siinä, että piirituotannon osittainenkin siirtäminen Yhdysvaltoihin tuo omaa vakuttavuuttaan yrityksen toimintakyvylle myös kriisitilanteissa.

Toisaalta, kun katsoo esim. nVidian HGX H100 laskenta/AI-moduulin (8x Hopper) komponenttimäärää (35 000 komponttia), niin kaikkien noiden saatavuus kriisitilanteissa ilman Kiinasta/Taiwanista tapahtuvaa hankintaa voi olla - en sano mahdotonta - mutta jonkin verran haastavanpaa.

'Something else that was a fun nugget is that the NVIDIA HGX H100 is $200,000, weighs 60lbs, and has over 35,000 components. '
 
Olen samaa mieltä siinä, että piirituotannon osittainenkin siirtäminen Yhdysvaltoihin tuo omaa vakuttavuuttaan yrityksen toimintakyvylle myös kriisitilanteissa.

Toisaalta, kun katsoo esim. nVidian HGX H100 laskenta/AI-moduulin (8x Hopper) komponenttimäärää (35 000 komponttia), niin kaikkien noiden saatavuus kriisitilanteissa ilman Kiinasta/Taiwanista tapahtuvaa hankintaa voi olla - en sano mahdotonta - mutta jonkin verran haastavanpaa.

'Something else that was a fun nugget is that the NVIDIA HGX H100 is $200,000, weighs 60lbs, and has over 35,000 components. '
Niin.. Jos Kiina hyökkää Taiwaniin ja länsimaat yrittävät kiukutella Kiinalle pakotteilla, niin Euroopassa voidaan sen jälkeen valmistaa vain sirppejä ja vasaroita Venäjän myyntiin..
 
Niin.. Jos Kiina hyökkää Taiwaniin ja länsimaat yrittävät kiukutella Kiinalle pakotteilla, niin Euroopassa voidaan sen jälkeen valmistaa vain sirppejä ja vasaroita Venäjän myyntiin..
Ja TSMC tehtaisiin on ostetettu ASML ja Zeissin kamaa europaasta? Eli ei enää uusia tehtaita tulisi Taiwaniin uusilla tekniikoilla. En sitten tiedä miten kävisi nykyisille tehtaille sodan aikana/jälkeen...

Ongelmissa oltaisiin kaikki elektroniikan kanssa, se on totta.
 
Mielenkiintoista nähdä mitä nvidia tekee sram:in skaalautumattomuuden kanssa. Yllätyksenä se tuskin tulee nvidian insinööreille.

Nvidia pystyisi jakamaan tuoteperheet useammalle eri prosessille. Kuitenkin aika monta piiriä kuluttajarautaa, erillinen konesali gpu ja konesali cpu ja autopuolen piirit. Autopuolen orin piiri 8nm samsung. Konesalipiirit ja pelipuolen lippulaiva joista voi pyytää isoa hintaa eri prosessilla kuin muut piirit joissa hinta on kriittinen tekijä?

2022 vuodelta esitys nvidialta missä puhuvat chipleteistä ja pinotuista muisteista. Varsinkin tuo gpu:n päälle pinottu muisti idea on vinkeä, mutta kuten heppu sanoo ei tulossa tuotteisiin tällä hetkellä, kun ongelmia riittää ratkaistavasti monella eri saralla. Ilmeisesti kuitenkin prototyyppejä ovat rakentaneet.

Linkki aikaleimalla:

Parit kuvat videolta avaamaan sisältöä

1685620094376.png


Samassa videossa on chiplettien välisestä kommunikaatiosta myös paljon asiaa.
1685620161868.png
 
Viimeksi muokattu:
3070 persauksessa vipu mistä vaihdetaan 8/16gb muistin määrää, tulee melkein vanhan ajan turbonapit mieleen :D

 
Omalla kohdalla myös edellisen kerran törmännyt ajuriongelmiin AMD:n hd 7970 ja Nvidian GTX 780 korttien kanssa. Sen jälkeen GTX 1080, RTX 3060ti ja RX 6800xt ei ole ajuriongelmia ollut millään. Joskin oma käyttöni on käytännössä pelaamista, joten mitään kovin spesiaalia nuo ei ole joutunut suorittamaan. Tästä voisi päätellä, että ajurikehitys on parantunut molemmilla valmistajilla viimevuosina. Otanta toki pieni.
 
Tästä voisi päätellä, että ajurikehitys on parantunut molemmilla valmistajilla viimevuosina. Otanta toki pieni.
On se luultavasti. Äskettäin kun vaihdoin 1070 Ti:stä 6950 XT:hen niin meni Win 10 sisään sukkana kuin mitään ei olisi tapahtunut. Vaikka vaihtui 2 sukupolvea vanhemmasta vihreästä leiristä punaiseen. Sikäli nuo BSODit on ihan toisessa ääripäässä.
Toki vetelin sitten koko windowsin uusiksi, vaikka edes AMD:n ajureita ei tarvinnut toimiakseen työpöytä/nettikäytössä.
 
Omalla kohdalla myös edellisen kerran törmännyt ajuriongelmiin AMD:n hd 7970 ja Nvidian GTX 780 korttien kanssa. Sen jälkeen GTX 1080, RTX 3060ti ja RX 6800xt ei ole ajuriongelmia ollut millään. Joskin oma käyttöni on käytännössä pelaamista, joten mitään kovin spesiaalia nuo ei ole joutunut suorittamaan. Tästä voisi päätellä, että ajurikehitys on parantunut molemmilla valmistajilla viimevuosina. Otanta toki pieni.

Tässä mielestäni aika hyvä video asiasta.



Kaverilla siis ollut nvidian kortti aina. Mielestäni varsin hyvin kertoo erot.


Ja sitten toiseen asiaan. Der8auer pääsi kuvaamaan melko vapaasti GPU tuotantoa tehtaalle.

 
Tuossa videossa ei ole kyllä oikein mitään "hyvää". No ihan hyvin esitteli AMD ajurisoftan pööllisin puolin.

Mutta muuten taas perinteinen, millään missä NVIDIA on parempi, ei ole mitään väliä, vollotus.

Miksi ei voisi suoraan ja pelkästään vaan sanoa, että nämä on huonompaa ja joudut tekemään niiden osalta kompromissin, jos haluat AMD korttia käyttää. Aina pitää kuitenkin se sama "ei sitä kukaan käytä/huomaa" itkuvirsi pistää mukaan. Se tuo mukaan semmosen vähän oudon "AMD fanboy" vivahteen, vaikka tämäkin kaveri muka on olevinaan neutraali. Sanoisi että ne asiat ei ole minulle tärkeitä, enkä minä huomaa, mutta aina pitää tunkea se täydellinen yleistys sinne mukaan.

Videon alku jo kyllä kertoi täysin, että tämmöinen täysi "muka asiallinen" ylistysvideo sieltä on tulossa. Niin juustoista kamaa oli alku, että huh hah hei.
 
Mutta muuten taas perinteinen, millään missä NVIDIA on parempi, ei ole mitään väliä, vollotus.

Miksi ei voisi suoraan ja pelkästään vaan sanoa, että nämä on huonompaa ja joudut tekemään niiden osalta kompromissin, jos haluat AMD korttia käyttää. Aina pitää kuitenkin se sama "ei sitä kukaan käytä/huomaa" itkuvirsi pistää mukaan. Se tuo mukaan semmosen vähän oudon "AMD fanboy" vivahteen, vaikka tämäkin kaveri muka on olevinaan neutraali. Sanoisi että ne asiat ei ole minulle tärkeitä, enkä minä huomaa, mutta aina pitää tunkea se täydellinen yleistys sinne mukaan.
Sulta unohtui se osuus "että nämä on huonompaa ja joudut tekemään niiden osalta kompromissin, jos haluat NVIDIAn korttia käyttää". Ja sekään ei ole ilmeisesti mahdollista, että neutraalista näkökulmasta jokin asia joka on yhdellä valmistajalla parempi tai huonompi olisi merkityksetöntä?
 
Onhan se selvä että jos nvidian poropietariominaisuuksia käyttää eikä mikään avoin vaihtoehto kelpaa niin pakkohan se on silloin nvidia valita. Jos taas kevyempi säteenseuranta, FSR/XeSS ja OpenCL riittää niin kannattaa valita kortti sen mukaan missä muut ominaisuudet vastaa paremmin omia tarpeita. Esim. monen näytön tuki on AMD:lla kehittyneempi kuluttajalaitteissa (Eyefinityyn voit laittaa 6 ruutua ja vaikka jokaiseen eri resoluutiot ja virkistystaajuudet).
 
Kun ei viesti kelpaa, niin ammutaan viestinviejä. Ja pata kattilaa soimaa. Henkilöt jotka ei itse pysty katsomaan eroja neutraalisti, kritisoi kuinka videon tekijä X ei pysty katsomaan eroja neutraalisti. Sama Redditissä, Hardware Unboxed on AMD:n sylikoira vaikka julkaisee videoita jossa korostetaan DLSS paremmuutta FSR nähden ja HWU antaa jatkuvasti kritiikkiä AMD:nkin suuntaan. Edit: En viitannut ylläoleviin käyttäjiin, vaan yleiseen ilmapiiriin.

Ja nimenomaan niitä kompromisseja Nvidiankin korteilla joutuu tehdä esim. säteenseurannan kanssa. Pienempiä toki kuin AMD kanssa. Säteenseuranta on hyvä keppihevonen Nvidian faneille.
 
Viimeksi muokattu:
Minä katson asiaa täysin neutraalisti. Olen ensimmäisenä ostamassa AMD:n kortin jos ja kun he saavat yhtä hyvän tai paremman tuotteen markkinoille vs NVIDIA, koska haluan tukea kilpailua. Tällä hetkellä AMD on omiin mieltymyksiin/tarpeisiin nähden jäljessä ja aivan selkeästi. Itse asiassa Vegan odotuksesta asti ollut itsellä se tilanne, että heti kun AMD saa vaan yhtä hyvän/paremman kortin ulos, niin ostan sen. Ei ole vaan tämä skenaario toteutunut. Valitettavasti.

Toki todelliset "periaatteen miehet" ostaisi AMD:tä sen takia, että AMD:llä olisi enemmän rahaa pistää korttien/ominaisuuksien kehitykseen, mutta itseltä ei kyllä löydy niin paljoa periaatetta, että käyttäisin rahaa tuotteeseen, joka ei täytä kunnolla omia toiveita.

Prossupuolella oli sama tilanne ja ostin heti AMD:n prossun, kun olivat rinnalla pelikäytössä Intelin kanssa. No 3700x ei ihan kyllä pärjännyt parhaille inteleille, mutta oli tarpeeksi lähellä ja prossupuolella ei ihan niin kriittistä ile ollut se teho.

Miksi pitää koittaa pakottaa omaa mielipidettä käyttämällä yleistäviä ilmaisuja, "ei ketään kiinnosta"/"ei sitä kukaan käytä". Yhtään noita latteuksia latovaa YT -pelleä ei voi ottaa vakavasti. Sama toki toimii toisen suuntaan myös. Eli jos joku ylistää DLSS:n tai RT perffin olevan kaikille tärkeintä ja parasta ilman varauksia, niin ei se kovin neutraalia kuvaa anna. Ja jos joku pitää tällaista videota hyvänä, niin se kertoo minun mielestä tämän henkilön selvistä preferensseistä.

Objektiivisesti katsoen AMD kortit on tällä hetkellä miltei joka alueella heikompia, jos hintaa ei oteta huomioon. Toki jos itse en välittäisi RT:sta, VR:stä, tai en kokisi että DLSS2/3 on tärkeitä, niin ihan hyvin voisin ostaa esim. 7900XTX:n. Toki se rahapuoli on monella tässä myös iso tekijä. Jos olisi tiukka budjetti, niin varmasti AMD:n tuotteet houkuttelisi itseäkin ihan eri lailla, kun nyt.
 
AMD:llä on se valttikortti, että VRAM:ia he laittavat kortteihin enemmän kuin Nvidia. Se on monelle tärkeää.
 
Objektiivisesti katsoen AMD kortit on tällä hetkellä miltei joka alueella heikompia, jos hintaa ei oteta huomioon. Toki jos itse en välittäisi RT:sta, VR:stä, tai en kokisi että DLSS2/3 on tärkeitä, niin ihan hyvin voisin ostaa esim. 7900XTX:n.

Hinta kannattaa ottaa huomioon. Toki on niitäkin jolle se ei merkitse mitään, vähemmistöä kenties nämä. Itse ostin AMD vs Nvidia hinnan erotuksella 2 lippua kesän festareille, ei siis ihan pikkusumma ollut eroa. Mainitsemissasi asioissa AMD on kiistatta jäljessä, mutta millä muilla osa-alueilla AMD on jäljessä kuin säteenseurannassa ja FSR vs DLSS?

Itse päätin unohtaa koko säteenseurannan toistaiseksi, ja hyvin pyörineet pelit AMD kortilla eikä ole tarvinut FSR vielä yhdessäkään pelissä. Katson säteenseurannan tilannetta sitten uudestaan, kun se oikeasti mullistaa pelikokemusta.

Noin muuten nyt kun satoja tunteja jo AMD- kortilla pelaamista takana, niin mullistavia eroja ei kummankaan näytönohjaimilla tule. Pelikokemus on lopulta muusta kiinni kuin 25% hienommista heijastuksista tms. Myös FPS kanssa itse pystyn vielä tekemään kompromisseja, ainakin hidastempoisissa singleplayer peleissä. Nykyisellä kortilla ei onneksi tarvi, paitsi jos alkaa RT kanssa vehtaamaan.
 
Itse päädyin AMD:n korttiin juuri Nvidian VRAM-pihtaamisen kanssa. Tuli fiilis, että Nvidia nuukaili tahallaan muistin määrän kanssa, jotta pelaajien on pakko päivittää korttia muutaman vuoden päästä. Tuo taisi olla ihan fakta. Jos RTX 4070 Ti:ssä olisi 16GB muistia, olisi se varmaan ollut oma valinta. Pelkäsin kuitenkin, että 12GB muistin kanssa käy sama kuin kävi oman 8GB RTX 3070 Ti:n kanssa.

RX 6950 XT oli siitä houkutteleva, että hinta oli samalla tasolla RTX 4070:n kanssa, mutta raakaa tehoa 15-20% ja muistia 33% enemmän. Lisääntynyt teho on mukavaa ja isommasta muistista on nyt jo ollut hyötyä 1440p-resoluutiolla. Lähivuosina voi tulla lisää pelejä, joille 12GB on niukasti. Tavallaan myös tykkään, kun on massiivinen jäähy ison virrankulutuksen kesyttämiseksi. Etenkin edullisemmat RTX 4070:t olivat muovisia ja pienikokoisia ja näyttäisivät Noctua NH-D15:n rinnalla rimpuloilta. RX 6950 XT Red Devil on paljon katu-uskottavamman näköinen. Ja tämän mukana tuli hyvin mieluinen peli :D

Ajuriongelmia ei käytännössä ole ollut. Kaikki toimii AMD:lla kuin junan vessa. Päänäytön satunnainen vilkkuminen ja kakkosnäytön pikselöityminen, jotka olivat tälläkin foorumilla todettuja Nvidian ajuriongelmia, katosivat heti. Paljon eri pelejä ladannut ja todennut toimivaksi ja hyvin pyöriväksi. Ainoa ongelma oli 110C Hot Spot lämmöt, jotka ovat etenkin PowerColorin kiusa. Takuuseen lähettämisen sijaan vaihdoin itse tahnat ja kortti rokkaa nyt hyvin viileänä. Sain tuon myötä Power Limittiä ylös, mikä tarkoittaa isompia kelloja peleissä.

1440p-resoluutiolla voi heittää pääasiassa kaikki grafiikat tappiin ja pelit pyörivät silti hyvin ison muistin ja raa'an tehon vuoksi. RT-suorituskykykin yllätti. Metro Exodus Enhaned Editionia tullut pelailtua paljon ilman skaalaimia ja RT High -asetuksilla ja FPS huitelee usein 100:n tuntumassa. Samoin uudessa Witcher 3:ssa sai FSR 2.1 Qualityllä 3/4 RT-efekteistä päälle ja FPS ei ikinä tipu alle 60:n. Cyberpunk on ainoa, missä oikeasti ehkä kaipaisi enemmän potkua etenkin, kun FSR on siinä nyt rikki. Intel XeSS Quality näyttää tosi hyvältä, mutta sen kanssa voi pitää vain RT GI:n, AO:n ja auringonvarjot päällä, jotta pysyy yli 60 FPS. Toki nuokin ovat tuntuva parannus kuvanlaatuun.

UE5:n toteutus säteenseurannalle vaikuttaa siitä lupaavalta, että AMD:n suorituskyky on sillä hyvä. Samoin on myös toivoa, että ajurit kehittyvät vielä. Hiljattain tuli ajuripäivitys, joka nosti ainakin raakaa RT-suorituskykyä. Esimerkiksi IO-Techin testissä RX 6950 XT sai Port Royalin DirectX Ray Tracing testissä jonkun 30 FPS, kun itse rykäisen omalla kortilla 42 FPS. Vielä kun saisi peleihin vastaavan tehonlisäyksen. Sitten taas esimerkiksi uudessta Star Warsissa on UE4 pelimoottorina, Global Illumination ja heijastukset toteutettu säteenseurannalla ja silti AMD pärjää siinä yllättävän hyvin. Toki peli taisi olla jossain määrin rikki ainakin julkaisussa.

1686203590959.png
 
Viimeksi muokattu:
Itse päädyin AMD:n korttiin juuri Nvidian VRAM-pihtaamisen kanssa. Tuli fiilis, että Nvidia nuukaili tahallaan muistin määrän kanssa, jotta pelaajien on pakko päivittää korttia muutaman vuoden päästä. Tuo taisi olla ihan fakta. Jos RTX 4070 Ti:ssä olisi 16GB muistia, olisi se varmaan ollut oma valinta. Pelkäsin kuitenkin, että 12GB muistin kanssa käy sama kuin kävi oman 8GB RTX 3070 Ti:n kanssa.

Kannattaisi ehkä yrittää ymmärtää asioita vähän enemmän sen sijaan että lähtee kehittelemään salaliittoteorioita tarkoituksellisesta cripplaamisesta.

Ei siihen AD104-piiriin olisi voinut (järkevästi, hyvällä suorituskyvyllä) kytkeä 12 gigaa muistia, kun sen muistiväylä on 192-bittinen.

Jotta 16 gigaa muistia olisi ollut mahdollinen, olisi muistiväylä pitänyt leventää 256 bittiin. Ja se olisi tarkoittanut myös itse piirille selvästi lisää kokoa, koska enemmän PHYitä.
Ja lisäksi PCB olisi ollut paljon kalliimpi. Tähän päälle niiden muistipiirien hinta.

Se 16 gigaa muistia olisi tullut paljon kalliimmaksi valmistaa.

Jos haluaa isomman ja kalliimman kortin, sitten ostaa 4080n, jossa on isompi AD103-piiri jossa se 256-bittinen muistiväylä.

RX 6950 XT oli siitä houkutteleva, että hinta oli samalla tasolla RTX 4070:n kanssa, mutta raakaa tehoa 15-20% ja muistia 33% enemmän. Lisääntynyt teho on mukavaa ja isommasta muistista on nyt jo ollut hyötyä 1440p-resoluutiolla. Lähivuosina voi tulla lisää pelejä, joille 12GB on niukasti.

Onko se 12 GiB niukasti riippuu täysin siitä, onko pakkomielle valita asetuksista "texture quality: ultra" vai onko järkeä siihen, että välillä valitseekin "texture quality: medium" jonka vaikutus kuvanlaatuun useimmissa peleissä jää melko pieneksi jos pelissä oikeasti pelaa sitä peliä eikä mene vaan tuijottelemaan seiniä metrin päästä.
 
Niin, mikäs siinä jos haluaa maksaa 700€ näytönohjaimesta ja SILTI joutua karsimaan grafiikka asetuksista.. Minusta se ei ole kohtuullista ainakaan 1440p resolla. Eikä varmaan kovin monen muunkaan mielestä.
 
Niin, täysin NVIDIAn valinnastahan se liian alhainen muistin määrä johtuukin. Tästä varmaan yleisesti ollaan hyvinkin yksimielisiä.
 
Itse päädyin AMD:n korttiin juuri Nvidian VRAM-pihtaamisen kanssa. Tuli fiilis, että Nvidia nuukaili tahallaan muistin määrän kanssa, jotta pelaajien on pakko päivittää korttia muutaman vuoden päästä. Tuo taisi olla ihan fakta. Jos RTX 4070 Ti:ssä olisi 16GB muistia, olisi se varmaan ollut oma valinta. Pelkäsin kuitenkin, että 12GB muistin kanssa käy sama kuin kävi oman 8GB RTX 3070 Ti:n kanssa.

RX 6950 XT oli siitä houkutteleva, että hinta oli samalla tasolla RTX 4070:n kanssa, mutta raakaa tehoa 15-20% ja muistia 33% enemmän. Lisääntynyt teho on mukavaa ja isommasta muistista on nyt jo ollut hyötyä 1440p-resoluutiolla. Lähivuosina voi tulla lisää pelejä, joille 12GB on niukasti. Tavallaan myös tykkään, kun on massiivinen jäähy ison virrankulutuksen kesyttämiseksi. Etenkin edullisemmat RTX 4070:t olivat muovisia ja pienikokoisia ja näyttäisivät Noctua NH-D15:n rinnalla rimpuloilta. RX 6950 XT Red Devil on paljon katu-uskottavamman näköinen. Ja tämän mukana tuli hyvin mieluinen peli :D

Ajuriongelmia ei käytännössä ole ollut. Kaikki toimii AMD:lla kuin junan vessa. Päänäytön satunnainen vilkkuminen ja kakkosnäytön pikselöityminen, jotka olivat tälläkin foorumilla todettuja Nvidian ajuriongelmia, katosivat heti. Paljon eri pelejä ladannut ja todennut toimivaksi ja hyvin pyöriväksi. Ainoa ongelma oli 110C Hot Spot lämmöt, jotka ovat etenkin PowerColorin kiusa. Takuuseen lähettämisen sijaan vaihdoin itse tahnat ja kortti rokkaa nyt hyvin viileänä. Sain tuon myötä Power Limittiä ylös, mikä tarkoittaa isompia kelloja peleissä.

1440p-resoluutiolla voi heittää pääasiassa kaikki grafiikat tappiin ja pelit pyörivät silti hyvin ison muistin ja raa'an tehon vuoksi. RT-suorituskykykin yllätti. Metro Exodus Enhaned Editionia tullut pelailtua paljon ilman skaalaimia ja RT High -asetuksilla ja FPS huitelee usein 100:n tuntumassa. Samoin uudessa Witcher 3:ssa sai FSR 2.1 Qualityllä 3/4 RT-efekteistä päälle ja FPS ei ikinä tipu alle 60:n. Cyberpunk on ainoa, missä oikeasti ehkä kaipaisi enemmän potkua etenkin, kun FSR on siinä nyt rikki. Intel XeSS Quality näyttää tosi hyvältä, mutta sen kanssa voi pitää vain RT GI:n, AO:n ja auringonvarjot päällä, jotta pysyy yli 60 FPS. Toki nuokin ovat tuntuva parannus kuvanlaatuun.

UE5:n toteutus säteenseurannalle vaikuttaa siitä lupaavalta, että AMD:n suorituskyky on sillä hyvä. Samoin on myös toivoa, että ajurit kehittyvät vielä. Hiljattain tuli ajuripäivitys, joka nosti ainakin raakaa RT-suorituskykyä. Esimerkiksi IO-Techin testissä RX 6950 XT sai Port Royalin DirectX Ray Tracing testissä jonkun 30 FPS, kun itse rykäisen omalla kortilla 42 FPS. Vielä kun saisi peleihin vastaavan tehonlisäyksen. Sitten taas esimerkiksi uudessta Star Warsissa on UE4 pelimoottorina, Global Illumination ja heijastukset toteutettu säteenseurannalla ja silti AMD pärjää siinä yllättävän hyvin. Toki peli taisi olla jossain määrin rikki ainakin julkaisussa.

1686203590959.png

Päädyin aika lailla samanlaisen ajatusketjun jälkeen Radeoniin. En halua sitoutua poropietariominaisuuksiin vaan käytän mieluummin avoimia rajapintoja. En pelaa Minecraftia enkä Quakea niin nyky-RT:lläkään ei ole liiemmälti merkitystä, ja sen verran mitä pelit sitä hyödyntää niin 6950XT pystyy toimittamaan. Tuo 16 gigan muisti ja isompi laskentateho vie todennäköisesti paremmin tulevaisuuteen UE5:n kanssa kuin 4070:n 12Gt + poropietarihilavitkuttimet.
 
Tässä olisi muuta kun vain pelejä. TLDR 4060ti on kuraa.


Tossa olisi sitten enemmän radeonijuttuja

 
Itse en koe, että pärjäisin ilman DLSS:ää 4K-näyttölaitteella. FSR:n jälki ei ole hääviä ja 4K:lla suuri osa peleistä ei pyöri riittävän hyvin alle 1000€ näytönohjaimella. Lisäksi tykkään RT:stä. Jos nämä asiat saataisiin jotenkin hanskaan AMD:llä, niin voisin harkita vaihtoa. VRAM:ista kyllä iso plussa, mutta se ei yksinään riitä.
 
Kannattaisi ehkä yrittää ymmärtää asioita vähän enemmän sen sijaan että lähtee kehittelemään salaliittoteorioita tarkoituksellisesta cripplaamisesta.

Ei siihen AD104-piiriin olisi voinut (järkevästi, hyvällä suorituskyvyllä) kytkeä 12 gigaa muistia, kun sen muistiväylä on 192-bittinen.

Jotta 16 gigaa muistia olisi ollut mahdollinen, olisi muistiväylä pitänyt leventää 256 bittiin. Ja se olisi tarkoittanut myös itse piirille selvästi lisää kokoa, koska enemmän PHYitä.
Ja lisäksi PCB olisi ollut paljon kalliimpi. Tähän päälle niiden muistipiirien hinta.

Se 16 gigaa muistia olisi tullut paljon kalliimmaksi valmistaa.

Jos haluaa isomman ja kalliimman kortin, sitten ostaa 4080n, jossa on isompi AD103-piiri jossa se 256-bittinen muistiväylä.



Onko se 12 GiB niukasti riippuu täysin siitä, onko pakkomielle valita asetuksista "texture quality: ultra" vai onko järkeä siihen, että välillä valitseekin "texture quality: medium" jonka vaikutus kuvanlaatuun useimmissa peleissä jää melko pieneksi jos pelissä oikeasti pelaa sitä peliä eikä mene vaan tuijottelemaan seiniä metrin päästä.
Eikö tuo ole aika monen toimijan kohdalla todettu, että Nvidia laski tarkkaan, kuinka paljon muistia riittää nykyisen sukupolven ajaksi ja onnistuikin siinä? Nyt esimerkiksi paskamyrskyn seurauksena on tulossa 16GB RTX 4060 Ti. Sen tiedostan, että muistiväylä rajoittaa käytettävän muistin määrää. Kuitenkin AMD ja Intel ovat saaneet hieman edullisemmankin pään kortteihin 12GB ja 16GB muistia. Ei luulisi olevan mahdoton paikka Nvidiallekaan.

12GB riittää tällä hetkellä. Kuitenkin oma pelko oli siinä, että muutaman vuoden päästä tulee taas tilanne, että kortin teho riittää, mutta muisti ei. En halua, että käy samaa kuin kävi oman 8GB RTX 3070 Ti:n kanssa. Jos tuossa kortissa olisi ollut enemmän muistia, olisin varmaan jatkanut sillä pidempään. Lisäksi esimerkiksi DLSS 3 FG nostaa VRAM:n käyttöä yli gigalla ja RT-efektit jopa useammalla. Voi hyvinkin tulla vastaan tilanne, jossa joku peli näyttäisi upealta ja pyörisi Frame Generationin kanssa hyvin, mutta muisti ei meinaa riittää. Nvidian RT:n ja DLSS 3:n markkinoinnilla ratsastaminen voi nousta ongelmaksi, jos muisti ei riitä niihin. Etenkin 8GB RTX 4060 -sarjaan tuo voi iskeä kovasti.

Aina voi toki laskea asetuksia, mutta jos ostan tonnin RTX 4070 Ti:n, oletan, että peleissä voi lyödä huoletta grafiikat tappiin 1440p-resoluutiolla, eikä pudotella asetuksia mediumille. Nvidia on valinnut, että tuo muistin määrä on nyt jo rajoilla ja lähivuosina tilanne voi pahentua. 12GB muistia siihen on niukasti ja 16GB taas olisi turvallisempi tulevaisuuden kannalta. 8GB korteilla tilanne meni niin pahaksi, että edes reilu grafiikoiden pudottelu ei meinannut auttaa. Samoin tekstuurit saattoivat olla mössöä, oli niillä mikä tahansa asetus päällä.
 
Viimeksi muokattu:
Itse en koe, että pärjäisin ilman DLSS:ää 4K-näyttölaitteella. FSR:n jälki ei ole hääviä ja 4K:lla suuri osa peleistä ei pyöri riittävän hyvin alle 1000€ näytönohjaimella. Lisäksi tykkään RT:stä. Jos nämä asiat saataisiin jotenkin hanskaan AMD:llä, niin voisin harkita vaihtoa. VRAM:ista kyllä iso plussa, mutta se ei yksinään riitä.
En ole itse vertaillut, mutta onko isokin ero 4k:lla DLSS quality vs. FSR2.1 quality? Huomaako ihan pelatessa selviä eroja?
 
Vanhaa rutinaa takarivistä, mutta Linux-puolella Radeon on aika lailla selvästi huolivapain valinta joka tilanteessa, mistä pisteet AMD:lle. Nvidia ja Intel (ARC) ajurituki laahaa pingviinipuolella vähän perässä koska (suhteessa Windowsiin) vähäisen käyttäjämäärän takia kummankin firman intressi kehittää edes suljettujakaan ajureita Linuxille on vähän niin ja näin. AMD sen sijaan valitsi suoraan avoimen lähdekoodin tien ja sen ajurituki Linuxilla on nykyisin todella kattava. Onhan AMD:llä proprietary-ajuritkin tarjolla Linuxille, mutta niitä ei keskivertokäyttäjä tarvi mihinkään.

En ole nykyisellä Fedora-distrollani koskenut millään tavalla itse OS:n asennuksen jälkeen GPU-ajureihin ja RX 6800 XT porskuttaa oikein sutjakasti peleissä avoimen koodin amdgpu-ajurilla. Jos olisin valinnut suht modernin NVidian kortin, olisi minun jo kättelyssä joko kannattanut huolella valita distro joka asentaa räätälöidyt ajurit valmiiksi (esim. POP!_OS, Nobara) tai metsästää jonkun muun valitsemani distron repoista Nvidian suljetut ajurit ja sormet ristissä toivoa että kaikki pelaa ilman ongelmia.
 
Ehkä seuraavilla laneilla pääsen näkemään rinnatusten vierekkäisistä monitoreista DLSS ja FSR -kuvaa. Itsellä nyt kun on vaan tämä yksi Radeoni jolla ei DLSS:ää voi käyttää, niin ei ole verrokkia. Mitä nyt nopeasti Last of ussissa testasin FSR Qualityä niin ei se kyllä laadullisesti haitannut. Toki mieluummin pelaan natiivilla kun siihen tehot kerta riittää.
 
XeSS Ultra qualityllä on noista kuvanpaskomis jutuista se paras mitä tulee kuvanlaatuun.
Sen ongelma on että AMD korteilla tuppaa tiputtamaan fpsiä, Nvidialla toimii kuten pitäisikin ja sitten Intelin korteilla homma romuttuu jo ajuri ongelmiin pelejen suhteen.

FSR ja XeSS eivät myöskään hukkaa ykstyiskohtia mitä DLSS vaikuttais tekevän.
Ja kannattaako noita käyttää?
No ei, koska vähän riippuen kortista ja pelistä paremmat fps boosti saat graffa asetuksia tiputtamalla pykälällä. Ja näin kuvanlaatu ei heikkene yhtään ja grafiikoissa tuskin huomaat eroa.

Asia taas erikseen jos on typeriä periaatteita että asetuksiahan ei tiputeta.
 
XeSS Ultra qualityllä on noista kuvanpaskomis jutuista se paras mitä tulee kuvanlaatuun.
Sen ongelma on että AMD korteilla tuppaa tiputtamaan fpsiä, Nvidialla toimii kuten pitäisikin ja sitten Intelin korteilla homma romuttuu jo ajuri ongelmiin pelejen suhteen.

FSR ja XeSS eivät myöskään hukkaa ykstyiskohtia mitä DLSS vaikuttais tekevän.
Ja kannattaako noita käyttää?
No ei, koska vähän riippuen kortista ja pelistä paremmat fps boosti saat graffa asetuksia tiputtamalla pykälällä. Ja näin kuvanlaatu ei heikkene yhtään ja grafiikoissa tuskin huomaat eroa.

Asia taas erikseen jos on typeriä periaatteita että asetuksiahan ei tiputeta.
Taitaa monella olla enemmänkin siitä kiinni ettei ole mielenkiintoa testailla kaikkien mahdollisten asetusyhdistelmien laatua vs. suorituskyky. Helpompi pitää asetukset maksimissa ja laittaa DLSS / FSR päälle.
 
Taitaa monella olla enemmänkin siitä kiinni ettei ole mielenkiintoa testailla kaikkien mahdollisten asetusyhdistelmien laatua vs. suorituskyky. Helpompi pitää asetukset maksimissa ja laittaa DLSS / FSR päälle.

Ööö peleissä ollut jo vuosia quality presetit eli laatu esiasetukset.
Joten vaikka Ultralta -> Very High tiputuksessa menee ihan samanverran aikaa kuin kytkeä FSR tai DLSS päälle.

Ja jos tommonen on liian haastavaa, niin kannattaa ihan oikeasti miettiä siirtymistä konsoli pelaajaksi. Sitten ei tarvitse asetuksia säädellä ei niin yhtään.

Kun PC pelaamisessa on juuri se että pystyt asetukset itse muuttamaan, eli saa vaikka motion blurnin pois.
Tai uutuus pelinkin saa pyörimään pelattavasti yllättävänkin heikolla/vanhalla raudalla.

Siksi esim. nämä muisti loppuu höpötykset ihan höpö höpöä.

Ja jos tuommoinen asia niin rassaa, niin eikö kannattais jättää kortit vaan kauppaan ? Näin menis varmasti valmistajalle/valmistajille viesti perille.

Mutta ei niin ei. Aina tuijotetaan vaan fps ja millään muulla ei tunnu olevan merkitystä. Minkä todistaa hyvin näiden DLSS, XeSS ja FSR käyttäminen.

Ensin höpötetään että pakko olla textuurit maksimilla kun pykälää matalemmilla ovat muka jo suttua.
Sitten kuitenkin lyödään se DLSS päälle ja pehmennetään niin ne tarkat textuurit kuin koko kuva.

Eli oikeasti tarkemman kuvan ja ne textuurit ois saanut tiputtamalla asetuksia pykälällä, eikä kytkemällä DLSS päälle.

Toinen ihme aihe on tämä säteenseuranta. Kyllä sillä toteutetut pelit ja pelien modit ovat hienoja kuin mitkä.
Kuten Quake 2 RTX ja Doomin sekä Quake 1 säteenseuranta modit.

Mutta nämä pelit joihin RT effektejä on liimattu vaan rasteroinnin päälle ovat kaikkea muuta kuin mitenkään vakuuttavia.
Kun rasteroinnilla kaikki nuo heijastukset, varjot ym. on voitu jo vuosia toteuttaa tarpeeksi uskottavasti.

Eli vois sanoa että koko säteenseuranta jutut ovat vielä aivan turhake jollei tykkää pelata noita vanhojen pelejen säteenseuranta versioita/modeja.
 
Itse ihmettelen joidenkin suoranaista vihaa Dlss&Fsr&Xess teknologioita kohtaan.

Jos joku kokee että 4k resoluutiolla Dlss quality näyttää paremmalta kuin tiputtaa asetuksia high niin miksi se on niin väärin?

Toki esimerkiksi itse olen ottanut Hardware Unboxed kanavan optimoidut asetukset Red dead redemption 2 pelissä kun Dlss näytti siinä huonolta jostain syystä.
 
Itse ihmettelen joidenkin suoranaista vihaa Dlss&Fsr&Xess teknologioita kohtaan.

Jos joku kokee että 4k resoluutiolla Dlss quality näyttää paremmalta kuin tiputtaa asetuksia high niin miksi se on niin väärin?

Toki esimerkiksi itse olen ottanut Hardware Unboxed kanavan optimoidut asetukset Red dead redemption 2 pelissä kun Dlss näytti siinä huonolta jostain syystä.

Paitsi RTX 4060 ti julkaisun yhteydessä alettiin hehkuttamaan DLSS3 1080p kortilla.
Nuo menevät kyllä 4k quality asetuksilla, mutta 1080p ja 1440p ne ovat No No.

Itseäni noissa ärtsyttää se kun väitetään että kuvalaatu ei mukamas muutu tai muuttuu niin vähän että eroa ei huomaa natiivi kuvaan nähden.

Sekä se että AMD FSR3:lla ja Nvidia DLSS3:lla hehkuttaa uusia korttejaan kun ilman eivät eroa tarpeeksi edeltäjistään.
Eli suomeksi yritetään kusettaa kuluttajia minkä keretään.
 
Paitsi RTX 4060 ti julkaisun yhteydessä alettiin hehkuttamaan DLSS3 1080p kortilla.
Nuo menevät kyllä 4k quality asetuksilla, mutta 1080p ja 1440p ne ovat No No.

Itseäni noissa ärtsyttää se kun väitetään että kuvalaatu ei mukamas muutu tai muuttuu niin vähän että eroa ei huomaa natiivi kuvaan nähden.

Sekä se että AMD FSR3:lla ja Nvidia DLSS3:lla hehkuttaa uusia korttejaan kun ilman eivät eroa tarpeeksi edeltäjistään.
Eli suomeksi yritetään kusettaa kuluttajia minkä keretään.
Itse en ole vielä päässyt kokeilemaan frame generationia mutta arvostelujen perusteella nykyversio siitä heikentää kuvanlaatua reilusti.
 
Sekä se että AMD FSR3:lla ja Nvidia DLSS3:lla hehkuttaa uusia korttejaan kun ilman eivät eroa tarpeeksi edeltäjistään.
Eli suomeksi yritetään kusettaa kuluttajia minkä keretään.
Missäs kohtaa on sanottu että FSR3 olisi sidottu RDNA3:een?
 
Varsinkin nuo frame generation -kikkareet ovat kyllä semmoista huttua että enpä olisi kuvitellut näkeväni. Tosiaan jos pelataan 4K-ruudulla DLSS tai FSR performance-asetuksella, eli peli rendataan sisäisesti 1080p resolla ja sitten vielä FG-päällä, niin se informaatio mitä näyttö sinulle näyttää on suurimmaksi osaksi algoritmien keksimää. Todellista pelimoottorin tuottamaa dataa on resoluutiosta 1:4 ja joka toinen frame interpoloitu, eli 1:8 on oikeasti pelimoottorin tuottamaa kuvaa.
 
Missäs kohtaa on sanottu että FSR3 olisi sidottu RDNA3:een?

Ei se olekkaan, enkä niin väittänytkään. Tarkoitin kun hehkutettiin RX 7900 julkistuksessa suorituskyky juttuja jatkuvasti FSR päällä plus sitä FSR3:sta.

Ihan huijaamista sanoa että pelaa 4k:lla jos FSR (tai DLSS tai XeSS) on käytössä.
Et silloin pelaa oikeasti 4k:lla vaan jollain 1080p ja 4k väliltä. Siksi myöskään noita ei pitäis missään tapauksessa ottaa mihinkään benchmarkki ym. vertailuihin mukaan.

Paras oli RX 7900:n julkkarissa kun AMD hehkutti 8k pelaamista ja tietenkin FSR päällä. Eli se ei ollut 8k nähnytkään.
 
Ei se olekkaan, enkä niin väittänytkään. Tarkoitin kun hehkutettiin RX 7900 julkistuksessa suorituskyky juttuja jatkuvasti FSR päällä plus sitä FSR3:sta.

Ihan huijaamista sanoa että pelaa 4k:lla jos FSR (tai DLSS tai XeSS) on käytössä.
Et silloin pelaa oikeasti 4k:lla vaan jollain 1080p ja 4k väliltä. Siksi myöskään noita ei pitäis missään tapauksessa ottaa mihinkään benchmarkki ym. vertailuihin mukaan.

Paras oli RX 7900:n julkkarissa kun AMD hehkutti 8k pelaamista ja tietenkin FSR päällä. Eli se ei ollut 8k nähnytkään.
Katsoin juuri AMD:n RX 7900 -julkaisudiat läpi:
- FSR oli 4K RT -vertailussa RX 6900 vastaan, mutta se oli päällä kummallakin
- FSR oli päällä "high refresh rate 4K" testeissä puolessa peleistä, mutta siinä ei vertailtu näytönohjainta mihinkään toiseen
- 8K-resoluutiolla pelaamista ei mainosteta (eikä ole testejä), mutta mukana on ensimmäisen(?) 8K-pelinäytön mainos, jonka lisäksi 8K esiintyy videoiden transkoodauksesta puhuttaessa
 
Siksi myöskään noita ei pitäis missään tapauksessa ottaa mihinkään benchmarkki ym. vertailuihin mukaan.
Brute forcella suorituskyvyn parantaminen sukupolvesta toiseen on jo historiaa, softatemput on se millä jatkossa kehitystä nähdään. Nvidia on tämän sanonut ja AMDkin tietää sen.
 
Niin, mikäs siinä jos haluaa maksaa 700€ näytönohjaimesta ja SILTI joutua karsimaan grafiikka asetuksista.. Minusta se ei ole kohtuullista ainakaan 1440p resolla. Eikä varmaan kovin monen muunkaan mielestä.

Ja vastaavasti AMD:llä on heikompi RT, eli asetuksia pitää sielläkin karsia. Lisäksi ei ole dlss3:ta eli asetuksia joutuu tiputtamaan vielä lisää jne. Ei tässä mitään täydellistä ratkaisua ole olemassa.
 
Aidon pikselin (tm) metsästäjille AMD tarjoaa halvemmalla rasterointitehoa ja nvidia tarjoaa softaratkaisuja joilla saadaan sujuva pelikokemus uusilla tekniikoilla (path tracing cyberpunk esim)

Kaikille jotain :)
 
Itse arvostan avoimia ratkaisuja (softa ja ajurit) sen verran paljon että edelliset kortit ovat olleet AMD tuotoksia (toki ajuritkin ovat paremmat, varsinkin Linuxin puolella kun ei tarvitse säätää kuten NVIDIAn kanssa). Toki Windowsin puolellakin on kaikkea kivaa (kuten AMD link ja näyttiksen suorituskyvyn seuraaminen kännykän näytöltä yms.), mutta kun noista en ole NVIDIAn kohdalla perillä niin hyvin niin en lähde vertailemaan.
 
Brute forcella suorituskyvyn parantaminen sukupolvesta toiseen on jo historiaa, softatemput on se millä jatkossa kehitystä nähdään. Nvidia on tämän sanonut ja AMDkin tietää sen.

Eikä ole. Se on vaan Papa J propagandaa joka on näemmä sinuunkin uponnut varsin tehokkaasti. Papa J vaan haluaa lihottaa lompakkoaan. Softa kikkailu on halvempaa kuin panostaa siihen oikeaan tehoon jolloin voidaan ottaa entistä enemmän rahaa kuluttajilta kun valmistuskustannukset ei ole niin suuret.

Mielestäni kehityksen tarttis alkaa nyt kulkea sellaiseen suuntaan että toi normi rasterointi pistettäisiin pakettiin, sitä tehoa on jo ihan riittävästi ja kaikki paukut RT tehoon jos siitä se graalin malja halutaan leipoa.
 
Brute forcella suorituskyvyn parantaminen sukupolvesta toiseen on jo historiaa, softatemput on se millä jatkossa kehitystä nähdään. Nvidia on tämän sanonut ja AMDkin tietää sen.

AMD tosin juuri tuplasti graffaytimiensä kertolaskimien määrän, ilman että tuplasi keinoja ruokkia niitä kertolaskimia tehokkaasti.

Mutta Mooren lain antama ilmainen lounas on tosiaan ohi, ei voida vaan jatkaa sitä että parin vuoden välein tuplataan kaiken määrä, koska uusilla valmistustekniikoilla transistorit eivät enää ole halvempia kuin vanhoilla, hyöty uusista valmistusprosesseista jää käytännössä siihen että virrankulutusta saa hiukan alas ja/tai kelloa hiukan ylös.
 
Itse en ole vielä päässyt kokeilemaan frame generationia mutta arvostelujen perusteella nykyversio siitä heikentää kuvanlaatua reilusti.
Ei heikennä. Sekä monessa pelissä sitä voi käyttää ihan natiiviresoluutiolla.
Helppo on valita haluaako pelata vaikka 60fps aavistuksen paremmalla kuvanlaadulla vai 100fps niin että satunnaisesti on jotiain grafiikkavirheitä joita ei huomaa kuin etsimällä etsimällä.
 
Ei heikennä. Sekä monessa pelissä sitä voi käyttää ihan natiiviresoluutiolla.
Helppo on valita haluaako pelata vaikka 60fps aavistuksen paremmalla kuvanlaadulla vai 100fps niin että satunnaisesti on jotiain grafiikkavirheitä joita ei huomaa kuin etsimällä etsimällä.

Itselle valinta on helppo: mielummin (v-sync päällä) natiivi 60 FPS (joka on suora moninkerta näytön virkistystaajuudesta) pienemmällä viiveellä eikä pelimoottori hitaamalla 50 FPSllä intepoloiduilla frameilla selvästi suuremmalla viiveellä "100 FPSllä" FPSn ollessa vielä epäsynkassa näytön frameraten kanssa.
 
Viimeksi muokattu:
Itselle valinta on helppo: mielummin (v-sync päällä) natiivi 60 FPS (joka on suora moninkerta näytön virkistystaajuudesta) pienemmällä viiveellä eikä pelimoottori hitaamalla 50 FPSllä intepoloiduilla frameilla selvästi suuremmalla viiveellä "100 FPSllä" FPSn ollessa vielä epäsynkassa näytön frameraten kanssa.
Niin no en ainakaa itse huomaa mitään viivettä fg päällä, saati sitten mitään ihmeellistä vaikka fps ei olisi suoraan jaollinen näytön virkistystaajuuden kanssa, mutta huomaan ison eron kyllä kun fps on huomattavasti korkeampi. Mutta hyvä, että on vaihtoehtoja ja jokaiselle löytyy se mieluisa.
 

Statistiikka

Viestiketjuista
259 409
Viestejä
4 511 556
Jäsenet
74 363
Uusin jäsen
wlliamwill

Hinta.fi

Back
Ylös Bottom