Virallinen: NVIDIA vs AMD (vs Intel) keskustelu- ja väittelyketju

  • Keskustelun aloittaja Keskustelun aloittaja Sampsa
  • Aloitettu Aloitettu
Tosin se on ihan kylmä fakta että myös pelikortteja menee AI-käyttöön eikä se edes rajoitu NVIDIAn ohjaimiin.
Ei merkittäviä määriä, en väittänyt määrän olevan nolla. Katsoo vaikka miten nvidian viime kvartaalin konesalipuoli kasvoi versus pelipuoli. Massiivinen ero kasvussa konesali vs. pelipuoli. Jotain kertoo myös se miten kortteja on saatavilla kaupoissa. Konesalipiireissä huhutaan odotusajan olevan lähempänä vuotta uusille tilauksille, pelikortteja saa ns. heti hyllystä.
 
Samaa täällä jonkun AI-uutisen yhteydessä pohdin että AI vaikuttaa pian pelikortteihin, joku korjasi minua että AI hommissa halutaan niitä 4090- tason kortteja. Ja siten ne eniten myyvät about 1440p kortit vielä päätyisi enemmän pelaajien käsiin. Tulevaisuutta miettien.

Mikä estäisi 4070:aaa AI-konesaleissa käyttämästä, mutta jos samaan tilaan saa 4090:n ja resursseja on niitä ostaa, kai se tehokkain ja muistimäärältään paras voiton vie. Vai tuleeko pian AI-hommiin räätälöityjä kortteja erikseen, se voi viedä toki tuotantokapasiteettia pelikorteilta. No aika näyttää.
 
Samaa täällä jonkun AI-uutisen yhteydessä pohdin että AI vaikuttaa pian pelikortteihin, joku korjasi minua että AI hommissa halutaan niitä 4090- tason kortteja. Ja siten ne eniten myyvät about 1440p kortit vielä päätyisi enemmän pelaajien käsiin. Tulevaisuutta miettien.

Mikä estäisi 4070:aaa AI-konesaleissa käyttämästä, mutta jos samaan tilaan saa 4090:n ja resursseja on niitä ostaa, kai se tehokkain ja muistimäärältään paras voiton vie. Vai tuleeko pian AI-hommiin räätälöityjä kortteja erikseen, se voi viedä toki tuotantokapasiteettia pelikorteilta. No aika näyttää.
Isoin ongelma pelikorttien osalta on kommunikaatio isojen piirimäärien välillä ja tuki. Tuki puuttuu sekä sen osalta, että lisenssi ei salli konesalikäyttöä, että mitä tapahtuu kun piirejä hajoaa. Tueksi voi toki laskea senkin löytyykö optimoitu softapino pelikorttikonesalille ja kuka niitä konesaleja myy vai pitääkö itse rakentaa?

Isot kielimallit opetetaan 10000+ gpu klusterissa ja teslan fsd:kin käyttää 10000 hopperia fsd:n opettamiseen. Nvidian konesalipiireissä saadaan 256 gpu:ta ja cpu:ta yhteen muistiavaruuteen ja nopeaan kommunikaatioon nvlink:in avulla. 256gpu härveleitä linkataan toisiinsa kiinni järeillä mellanoxin perua olevilla verkkokorteilla(yleensä ai kuormissa infiniband, mahdollisesti ethernet). Pelikorteilla skaalautuminen loppuu aikasen nopeaan kun tarvitaan tuhansia/kymmeniä tuhansia kortteja saman kuorman laskemiseen.

Se mihin uskon pelikortteja menevän ai-käyttöön on pienet firmat(muutamien kymmenien/satojen korttien farmi, ei konesali), tutkijat, devaajien työkoneet missä ajetaan pieniä kuormia lokaalisti. Toinen puoli inferenssikuormat kuten photoshop, stable diffusion yms. joissa käytetään koneoppimista.


AI juttuja kun googlettelee niin about 15000-16000 gpu:ta klusteri tuntuu olevan taikanumero mitä huhutaan monen tahon käyttävän(meta, openai(microsoft, openai käyttää microsoftin konesalia), tesla jos laskeaan a100 kortit mukaan jne).

256gpu+cpu:sta koostuva nvidian referenssi. Tämä tuntuu olevan suosittu lego mitä ladotaan yhteen n-kappaletta NVIDIA DGX GH200

edit. Lisätään nyt sen verran, että ylläoleva käsittelee neuroverkkojen opettamista. Inferenssipuolella pelikortit tai cpu:t ovat mahdollisuus tai jopa todellisuus. Yksittäinen inferenssipyyntö on paljon keveämpi operaatio kuin neuroverkon opettaminen. Inferenssipuolella toisistaan riippumattomat pyynnöt helppo jakaa eri korteille eikä tarvita korttien välistä kommunikaatiota. Inferenssi tosin ei ole vielä kuumin juttu ai maailmassa. Suurin hype tuntuu olevan mallien opettamisessa eikä niinkään ai pohjaisissa skaalassa olevissa palveluissa. Inferenssipuolella muistin määrä on oleellinen asia, koska käytetyn mallin tulee mahtua muistiin. Photoshopissa on hyviä esimerkkejä tuotannossa olevista inferenssikuormista. ChatGPT/Bard/... myös esimerkkejä inferenssistä. Pelipuolella nvidian dlss:sta löytyy inferenssikuormaa.

edit2. Mulla ei ole tarkoitus nokkia amd:ta. AMD:n tuotannossa olevista AI piireistä ja niitä käyttävistä firmoista on vain kovin vähän julkista tietoa mikä on osunut mun silmiin. Isot lööpit, podcastit yms. tuntuvat tällä hetkellä käsittelevän lähinnä nvidiaa(openai(chatgpt)/meta, tesla, monet startupit kuten coreweave jne). Odotan, että amd:sta kuullaan enemmän vuoden loppua kohti ja isossa voluumissa ja lööpeissä 2024 loppupuoliskolla.
 
Viimeksi muokattu:
Samaa täällä jonkun AI-uutisen yhteydessä pohdin että AI vaikuttaa pian pelikortteihin, joku korjasi minua että AI hommissa halutaan niitä 4090- tason kortteja. Ja siten ne eniten myyvät about 1440p kortit vielä päätyisi enemmän pelaajien käsiin. Tulevaisuutta miettien.

Mikä estäisi 4070:aaa AI-konesaleissa käyttämästä, mutta jos samaan tilaan saa 4090:n ja resursseja on niitä ostaa, kai se tehokkain ja muistimäärältään paras voiton vie. Vai tuleeko pian AI-hommiin räätälöityjä kortteja erikseen, se voi viedä toki tuotantokapasiteettia pelikorteilta. No aika näyttää.
Suurin kynnys on muistin määrä. Mutta sellaisista määristä puhutaan että AI-pajat ostaa Radeoneitakin suoraan valmistajilta nimenomaan AI-käyttöön (ei, matriisilaskimet ei ole siihen mikään edellytys)
 
Oliko AMD:n ratkaisu erottaa peli ja laskenta reilusti toisistaan virhe? Aiemmin hieman katselin ROCm tuettuja kortteja. Hieman jopa huvitti kun Fury/Vega full support ja uudet Navit sitten osittain.
 
Oliko AMD:n ratkaisu erottaa peli ja laskenta reilusti toisistaan virhe? Aiemmin hieman katselin ROCm tuettuja kortteja. Hieman jopa huvitti kun Fury/Vega full support ja uudet Navit sitten osittain.

Ei. ROPit ja säteenjäljitysyksiköt on totaalisen turhia ja teksturointiyksiköt melko turhia puhtaassa rinnakkaisen laskennan kortissa(*)

Tosin AMD taisi laskentakortteihinsa jättää kyllä pienen määrän ROPeja ja kohtalaisen määrän teksturointiyksiköitä.

Ja FP64-tuki taas on totaalisen turhaa pelikortissa.


(*) Oikeastihan ne teksturiointiyksiköt on täysin turhia kaikilla GPGPU-workiloadeilla, mutta kun niitä vaativat API-kutsut löytyy silti OpenCL-standardista, niin niitä ei voi ehkä kokonaan jättää pois.
 
Viimeksi muokattu:
7900xtx on hieman nopeampi kuin 4090 starfield pelissä. Tämä johtuu 7900 xtx:n isommista rekistereistä ja l2 välimuistista, jotka mahdollistaa suuremman rinnakkaisuuden.


@Kaotik
 
7900xtx on hieman nopeampi kuin 4090 starfield pelissä. Tämä johtuu 7900 xtx:n isommista rekistereistä ja l2 välimuistista, jotka mahdollistaa suuremman rinnakkaisuuden.


@Kaotik

Kiitos, tuo oli oikeasti kiinnostava luettava. Eli nvidian ja amd gpu profiler työkaluilla oli selvitetty mitä tuossa pelissä oikeasti tapahtuu konepellin alla.
 
7900xtx on hieman nopeampi kuin 4090 starfield pelissä. Tämä johtuu 7900 xtx:n isommista rekistereistä ja l2 välimuistista, jotka mahdollistaa suuremman rinnakkaisuuden.


@Kaotik

Mielenkiintoista dataa, mutta kannattaisi linkata suoraan siihen alkuperäisen Chips & Cheesen artikkeliin eikä tuohon hardwaretimesin uudelleenuutisointiin aiheesta.

Chips and Cheese on muuten tällä hetkellä selvästi paras site noihin laadukkaisin arkkitehtuurianalyyseihin. (tekninen perspektiivi uusista arkkitehtuureista, ei kuluttajan "mikä minun kannataa ostaa"-perspektiivi)


7900XT:ssä ei ole suurempaa L2-välimuistia kun 4090ssä vaan pienempi. Sen sijaan AMDllä
on suurehko L3-välimuisti, kun taas nVidialla ei ole L3-välimuistia ollenkaan.

Ja noissa analyyseissä chips&cheese sanoo, että Amdn L2-välimuistilla on suurempi kaistanleveys kuin nVidian L2-välimuistilla.

Koska se on pienempi, se voi olla nopeampi.
 
Viimeksi muokattu:

"Tiedetäänkö" nyt samaan tapaan varmuudella että Intel kieltää kehittäjiä pistämästä peliin DLSS:ää tai FSR:ää? :sdrunk:
 

"Tiedetäänkö" nyt samaan tapaan varmuudella että Intel kieltää kehittäjiä pistämästä peliin DLSS:ää tai FSR:ää? :sdrunk:
Yhden näytteen otannalla tuosta asiasta ei FSR:n kohdalla kai paljoa vielä spekuloitu.

Toiseksi, Ubin mukaan pelissä on XeSS, DLSS ja FSR. Alkuun tosiaan mainostivat vain XeSS:ää, mutta eivät tavalla joka ilmoittaisi sen olevan ainoa kuvanvenytin.

 

"Tiedetäänkö" nyt samaan tapaan varmuudella että Intel kieltää kehittäjiä pistämästä peliin DLSS:ää tai FSR:ää? :sdrunk:

Väittäisin että tämä on AMD:n vika. AMD blokkaa FSR:n ja DLSS:n käytön tuossa pelissä.
 
  • Tykkää
Reactions: ile
Onko DLSS muuten yhdessäkään Ubisoftin pelissä? Ubisoft näyttää blokkaavan DLSS:ää jostain syystä.

Edit: On se ainakin R6 Siegessä näköjään, ja myös tulevassa Frontiers of pandorassa.
 

"Tiedetäänkö" nyt samaan tapaan varmuudella että Intel kieltää kehittäjiä pistämästä peliin DLSS:ää tai FSR:ää? :sdrunk:


Väittäisin että tämä on AMD:n vika. AMD blokkaa FSR:n ja DLSS:n käytön tuossa pelissä.

Niin mitenkä. Nuihan on oikeasti mukana pelissä, vaikka tuossa "intelin mainoksessa" ei niistä mainita.

Että vähän nyt lässähti tämä "vitsi".
 
No ihan sitenkä että hangot ja soihdut tarvii kaivaa esiin ja lähteä mellakoimaan ilman että asiaan olisi kunnolla perehtynyt. Sehän on ollut se yleinen tapa.

No nny on taas kunnon appelsiinien ja omenien vartailua.

Kyllä minä ainakin ihan niin paljon perehyin AMD:n DLSS blokkauksiin kun vaan kykeni ja tietoa tuli lisää. Ne Aalkutiedot antoi jo enemmän kun tarpeeksi aihetta epäillä AMD:tä unfair playstä.

Edelleenkään asiasta ei ole mitään varmaa todistetta kumpaakaan suuntaan, vaikkakin omasta mielestä aihetodisteet viittaa enemmän siihen suuntaan, että AMD:llä on ollut asian kanssa enemmän tekemistä, kun se että "mitään ei ole ikinä kielletty".

Tilanne vaatisi sen, että joku devaaja avoimesti kertoisi, miksi DLSS oli pudotettu pois AMD-diilin jälkeen.

Tässä AC:n tapauksessa nyt riitti, kun pikkasen käyttää Googlea, niin selvisi totuus.
 
No nny on taas kunnon appelsiinien ja omenien vartailua.

Kyllä minä ainakin ihan niin paljon perehyin AMD:n DLSS blokkauksiin kun vaan kykeni ja tietoa tuli lisää. Ne Aalkutiedot antoi jo enemmän kun tarpeeksi aihetta epäillä AMD:tä unfair playstä.

Edelleenkään asiasta ei ole mitään varmaa todistetta kumpaakaan suuntaan, vaikkakin omasta mielestä aihetodisteet viittaa enemmän siihen suuntaan, että AMD:llä on ollut asian kanssa enemmän tekemistä, kun se että "mitään ei ole ikinä kielletty".

Tilanne vaatisi sen, että joku devaaja avoimesti kertoisi, miksi DLSS oli pudotettu pois AMD-diilin jälkeen.

Tässä AC:n tapauksessa nyt riitti, kun pikkasen käyttää Googlea, niin selvisi totuus.

Perehdyit asiaan, jota ei ole olemassa? Koska tosiasiassa AMD ei blokkaa DLSSää ja tämä käy faktoista hyvin selvästi ilmi.

Alkaa menemään näiden syytösten taso sellaiseksi, että sopisi pikemminkin tuonne:

 
Tuossa lähdin testaamaan Hardware Unboxedin väitettä Nvidia ajuri overhead ongelmasta. Eli niiden mukaan jos prosessori jarruttaa menoa niin Ratukalla saa 20-30% enemmän fps kuin Geforcella.
Testikorteiksi otin tehokkaimmat kortit mitä hyllystäni löytyy eli AMD edustaa RX 5700 XT ja Nvidiaa Titan V.

Ja kuten näemmä techpowerupin taulukoista että RX 5700 XT on about RX 2070 tehoinen ja tämä pitää paikkaansa kun olen molemmat testannut.

RX5700XT.jpgTitanV.jpg

Titan V:n sitten pitäisi olla saamaa tasoa kuin RTX 2080 Ti eli huomattavasti RX 5700 XT nopeampi.

Sitten kummatkin testasin AC Valhallassa, Far Cry 6 ja Foza Horizon 5:ssa (siksi nämä koska näissä pelin sisäinen benchmarkkaus toiminto) kolmella eri setupilla.

Nopeinta edusti Ryzen 7 5700X, keskimmäistä Ryzen 7 2700X ja hitainta AMD FX-8320.
Kaikki oli säädetty sitten että prossuista ja muisteista revitään kaikki irti mitä niillä on annettavaa.

Joten pitääkö Hardware Unboxedin väite paikkaansa ?
Eipä oikeastaan.
Kyllä Ratukalla sai enemmän FPSiä, mutta erot johtuivat enemmänkin siitä että tuon Titan V arkkitehtuuri on vanhentunut todella heikosti.
Nimittäin RX 5700 XT hakkas sen kaikissa peleissä kaikilla eri prossuilla lukuun ottamatta yhtä.

Nimittäin AMD FX:llä Forza Horizon 5:ssa Titan V sai enemmän fps kuin Ratukka.

Se tästä testistä jäikin parhaiten mieleen kuinka hyvin haukuttu AMD FX pelejä vielä pyörittää ja kuinka heikko Titan V oli.

Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.


Nuo testit ajoin siis 1080p Ultra asetuksilla ja niillä AMD FX:llä oli pientä frametime eloa AC Valhallassa ja Far Cry 6:ssa.
Joten Extra kanavalle tein toisen testin jossa huvikseen kokeilin nuo pelit 1080p low asetuksilla Titan V ja RX 5700 XT:llä.

Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.


Ja low:lla RX 5700 XT voitti Forzassa ylivoimaisesti. Ja Ratukka tarjosi kautta linjan paremmat frametimet kuin Titani.

---------------------------------------------------------------------

Ensi perjantaina tulee oma testi video Titan V:stä ja tässä juuri sain testattua Titan X:n.
Ja voi pojat se on vanhentunut heikosti.
Tuossa vertailin edellisiin testeihini niin tuohan nykyään vastaa RX 580:stä.... kun aikoinaan GTX 980 oli jo nopeampi kuin RX 580:n :hmm:

Ja siis kortti sai power limitti modin ja nestemetallitkin, eli kaikki yritin siitä repiä irti.
Tulikin huomattua siinä samalla että Nvidia ollut taas tyypillinen Nvidia.

Eli Nvidia ei tykkää että korttien vbioseja muokkaillaan ja näin saadaan niistä enemmän irti. Joten ennen riitti kun muokatulla NVflashillä (josta oli poistettu tuo aitouden tarkastus) ajo muokatun vbiosin sisään ja se oli siinä.
Nykyään ajurit tunnistaa onko vbiosia ronkittu vai ei.

Jos on, niin kone kaatuu windowsin latauksen siinä vaiheessa kun ajurit pitäisi ladata.
Sitten jos asennat ajureita ja vbios on muokattu niin taas kaatuu kone ja takaisin windowsiin ei ole mitään asiaa ennen kuin olet flashännyt orginaalin takaisin.

Tuossa testailin vielä kuinka FSR ja XeSS tuolla Titan X toimii, kun tuolla on semmoinen ongelma että grafiikka asetuksista viis kortti haluu jatkuvasti pyöri peleissä 50 - 70fps:ssä.
Ja kuten näette XeSS ei oikein toiminut silleen kuin piti:

Ilman kuvanpaskomis juttuja:
2023-09-21 17-00-18.mp4_snapshot_00.10_[2023.09.22_09.31.22].jpg

FSR:
2023-09-22 09-22-05.mp4_snapshot_00.14_[2023.09.22_09.30.29].jpg

XeSS:
2023-09-22 09-24-03.mp4_snapshot_00.16_[2023.09.22_09.30.51].jpg
 
Joten pitääkö Hardware Unboxedin väite paikkaansa ?
Eipä oikeastaan.
Kyllä Ratukalla sai enemmän FPSiä, mutta erot johtuivat enemmänkin siitä että tuon Titan V arkkitehtuuri on vanhentunut todella heikosti.
Nimittäin RX 5700 XT hakkas sen kaikissa peleissä kaikilla eri prossuilla lukuun ottamatta yhtä.
Siis sait samansuuntaisia tuloksia kuin HW unboxed ja väite ei pidä paikkaansa? HWU ei ole testannut edes kyseistä Nvidian korttia, niin ei tulokset ole vertailukelpoisia. Eli oot ottanu yhden datapisteen (Titan V) ja sillä perusteella oot sitä mieltä että HWU väitteet ei pidä paikkaansa?

Spekkien mukaan Volta on ihan oma arkkitehtuuri ja sitä on myyty pelikäyttöön varmaan aika vähän. Joten ei yllätä jos Nvidia ei ole näihin ajureihin panostanut viime aikoina hirveesti.
 
Siis sait samansuuntaisia tuloksia kuin HW unboxed ja väite ei pidä paikkaansa? HWU ei ole testannut edes kyseistä Nvidian korttia, niin ei tulokset ole vertailukelpoisia. Eli oot ottanu yhden datapisteen (Titan V) ja sillä perusteella oot sitä mieltä että HWU väitteet ei pidä paikkaansa?

Spekkien mukaan Volta on ihan oma arkkitehtuuri ja sitä on myyty pelikäyttöön varmaan aika vähän. Joten ei yllätä jos Nvidia ei ole näihin ajureihin panostanut viime aikoina hirveesti.

Koska erot eivät olleet mitään 30% nähneetkään tai edes 20%. Vaan paljon pienemmät.

Mitä tulee ajureihin niin vastahan tuossa tein AMD ja Nvidia ajuri testejä ja moneen vuoteen ei ole kummallakaan käynyt enää mitään kehitystä vanhempien korttien kohdalla.
Ja tuossa ajoin Titan V:llä (sekä Titan X) kasan muitakin pelejä niiden tulevia testi videoita ajatellen. NIin DX11 on edelleen Nvidian vahvuus ja God of Warissa joka on siis DX11 peli niin Titan V vetää ihan kunnon eron tuohon RX 5700 XT:n. (100fps vs 75fps).
Mutta jotenkin moni DX12 peli on vanhemmille Nvidian korteille (jopa RTX 2000-sarjalaisille) paha paikka. Mutta ei tunnu olevan ajuri homma kun niitä siis jo tuossa testailin. Eli viittaa suuresti että arkkitehtuurit eivät vaan vanhene kauhean hyvin.

Tässä seuraavaksi ajattelin suorittaa benchmarkkeja Intelin raudalla AMD vs Nvidia. Eli onko sillä jotain vaikutusta noihin tuloksiin.
Kun semmoista väläyteltiin discordissa tuossa. Teoriassa ei pitäisi olla väliä, mutta eihän sitä koskaan tiedä.

PS. Mitä muuten tulee data pointteihin ja tämmöseen niin HWU:n testejä ei voi testata perässä kun eivät kerro/näytä missä kohtaa peliä edes benchmarkit suorittaa... joten vaikea on toistaa perässä vaikka olisikin samaa rautaa nurkissa pyörimässä.
 
Koska erot eivät olleet mitään 30% nähneetkään tai edes 20%. Vaan paljon pienemmät.

Mitä tulee ajureihin niin vastahan tuossa tein AMD ja Nvidia ajuri testejä ja moneen vuoteen ei ole kummallakaan käynyt enää mitään kehitystä vanhempien korttien kohdalla.
Ja tuossa ajoin Titan V:llä (sekä Titan X) kasan muitakin pelejä niiden tulevia testi videoita ajatellen. NIin DX11 on edelleen Nvidian vahvuus ja God of Warissa joka on siis DX11 peli niin Titan V vetää ihan kunnon eron tuohon RX 5700 XT:n. (100fps vs 75fps).
Mutta jotenkin moni DX12 peli on vanhemmille Nvidian korteille (jopa RTX 2000-sarjalaisille) paha paikka. Mutta ei tunnu olevan ajuri homma kun niitä siis jo tuossa testailin. Eli viittaa suuresti että arkkitehtuurit eivät vaan vanhene kauhean hyvin.

Tässä seuraavaksi ajattelin suorittaa benchmarkkeja Intelin raudalla AMD vs Nvidia. Eli onko sillä jotain vaikutusta noihin tuloksiin.
Kun semmoista väläyteltiin discordissa tuossa. Teoriassa ei pitäisi olla väliä, mutta eihän sitä koskaan tiedä.

PS. Mitä muuten tulee data pointteihin ja tämmöseen niin HWU:n testejä ei voi testata perässä kun eivät kerro/näytä missä kohtaa peliä edes benchmarkit suorittaa... joten vaikea on toistaa perässä vaikka olisikin samaa rautaa nurkissa pyörimässä.
Niin siis HWU testasi Turing&Ampere ja sinä testasit Volta. Tällä perusteella sanot että HWU on väärässä Turing&Ampere suhteen myös?
 
Niin siis HWU testasi Turing&Ampere ja sinä testasit Volta. Tällä perusteella sanot että HWU on väärässä Turing&Ampere suhteen myös?

Ei ne väärässä ole, mutta erot ovat pienemmät ja näin asiaa paisuteltu.
Niin pienet että asialla ei ole juuri paskan vertaa merkitystä. Tai ainakin omasta mielestäni joku about 5fps ero on mitätön.

Toki tässä on myös se ero että ne vetää kaikki vakiona ja muistit XMP:llä, kun itse vedän kaikesta raudoista ensin aina löysät pois.
Että siksi nuo vanhat ja hitaatkin pärjäävät paljon paremmin.

PS. Olen testaillut Turing kortteja joten tiedän kyllä miten nekin käyttäytyvät. Ampereita itselläni ei ole hyllyssä vielä yhtään, joten niistä en voi kommentoida mitään.
 
Ei ne väärässä ole, mutta erot ovat pienemmät ja näin asiaa paisuteltu.
Niin pienet että asialla ei ole juuri paskan vertaa merkitystä. Tai ainakin omasta mielestäni joku about 5fps ero on mitätön.

Toki tässä on myös se ero että ne vetää kaikki vakiona ja muistit XMP:llä, kun itse vedän kaikesta raudoista ensin aina löysät pois.
Että siksi nuo vanhat ja hitaatkin pärjäävät paljon paremmin.

PS. Olen testaillut Turing kortteja joten tiedän kyllä miten nekin käyttäytyvät. Ampereita itselläni ei ole hyllyssä vielä yhtään, joten niistä en voi kommentoida mitään.
No sitten ei varmaan kannattaisi kirjottaa näin:

"Joten pitääkö Hardware Unboxedin väite paikkaansa ?
Eipä oikeastaan. "

Mun mielestä ootte testanneet eri asioita ja johtopäätökset joita esität ei ole selviä tähän ketjuun laitetun datan perusteella.

XMP/EXPO vastaa paremmin sitä mitä ihmiset oikeasti käyttää ja on yleisesti relevantimpi.

Tästä vääntäminen sinänsä riittää mulle tältä erää.
 
No sitten ei varmaan kannattaisi kirjottaa näin:

"Joten pitääkö Hardware Unboxedin väite paikkaansa ?
Eipä oikeastaan. "

Mun mielestä ootte testanneet eri asioita ja johtopäätökset joita esität ei ole selviä tähän ketjuun laitetun datan perusteella.

XMP/EXPO vastaa paremmin sitä mitä ihmiset oikeasti käyttää ja on yleisesti relevantimpi.

Tästä vääntäminen sinänsä riittää mulle tältä erää.

Tuon tekstin idea oli saada porukka katsomaan tuo videoni tai no videot.

Ja mitä tulee XMP ja noihin niin minä juuri yritän neuvoa porukkaa ylikellottamis asioissa. Oli se sitten muistit, prossu tai näytönohjain.
Kun on ihan tyhmää jättää käyttämättä se suorituskyky mitä raudalla on annettavaa.

Toki kaikkia se ei vaan kiinnosta pätkän vertaa, vaan mielummin heitetään ongelmaan rahaa (eli päivitetään konetta).

Yksi hyvä esimerkki on tämä Ryzen 7 5800X3D, jonka iso cache antaa anteeksi paskat muistit ja niiden asetukset.
Mutta oikein säädetty 5800X ja 5700X ovat oikeasti nopeammat.
Eli kun 5700X ja 5800X PBO hommat säätää kuntoon ja antaa kunnon muistit ja säätää niiden asetukset kuntoon niin 5800X3D jää jälkeen.
Koska sen power limitit ovat lukittu joten et saa sitä oikeasti kulkemaan kovempaa joten 5700X/5800X kovemmilla kelloilla kunnon muisti asetuksilla on nopeampi.

Toinen esimerkki on nämä 5000G-sarjan Ryzenit. Ne media haukku 16MB L3 cachen takia, mutta kun niille tajoaa kunnon muisteja ja säätää asetukset kuntoon niin 16MB L3 cachen heikkoudet mystisesti katoaa.
Näistä on tulossa muuten oppaat ;)
Kuten jo olen tehnyt oppaat kuinka 1000-, 2000G ja 2000-sarjan Ryzenit kuuluu säätää.
Ja on tulossa muiden prossujen oppaita jos nuo eri Ryzen oppaat menestyvät edes vähäsen.

Ai niin, näytönohjain testeissäni myös kortit AINA ylikellotetaan vaikka se ois kuinka turhaa (kuten oli GTX 1050 Ti kohdalla). Mutta asiasta aina kerron.
 
...5000G-sarjan Ryzenit. Ne media haukku 16MB L3 cachen takia...

Mutta mitenkä käytäntö? Moniko 5000G-sarjan tai 5500 prossun ostajilla on nopeeta muistia? Ite ostin tarjouksella 5600x:n korvaamaan 2600 ja muisti kans sen mukaset. Jotkun 3200MHz melko hitaalla latenssilla, oisko 16-16-18 tms. Tokkopa olis 5500 ollut mitenkään hyvä ostos, vaikka oli 50e halvempi.

Testipenkissähän nyt varmasti saa aina vaikka millasia tuloksia. Monet mediat kuitenkin yrittää antaa kuluttajan kannalta parhaat suositukset.
 
Titan V:n sitten pitäisi olla saamaa tasoa kuin RTX 2080 Ti eli huomattavasti RX 5700 XT nopeampi.

Paino lienee sanalla "pitäisi" :btooth:
Mielenkiintoinen aihe. Kiitos videosta, vaikka itseltä vähän pointti sujahtaa pipon yli tuon Titan V kortin vuoksi.

Volta on pelikorttina aivan hanurista verrattuna Turing arkkitehtuurin kortteihin.
Vaikka paperilla tehoja kortissa on enemmän kuin 2080ti, ei se ajureiden? vuoksi pääse lähellekään Turing kortin suorituskykyä peleissä.

Alta voi kurkata täyteen kellotetun vesillä olevan Titan V (500W) testin vs 2080ti

Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.


Räikein ero Doom Eternalissa.

volta.JPG


Eli jos joku löytää Titan V:n käytettynä ja miettii ostaisiko sen vai 2080ti pelikäyttöön, kannattaa pitää nuo tulokset mielessä.
 
Mutta mitenkä käytäntö? Moniko 5000G-sarjan tai 5500 prossun ostajilla on nopeeta muistia? Ite ostin tarjouksella 5600x:n korvaamaan 2600 ja muisti kans sen mukaset. Jotkun 3200MHz melko hitaalla latenssilla, oisko 16-16-18 tms. Tokkopa olis 5500 ollut mitenkään hyvä ostos, vaikka oli 50e halvempi.

Testipenkissähän nyt varmasti saa aina vaikka millasia tuloksia. Monet mediat kuitenkin yrittää antaa kuluttajan kannalta parhaat suositukset.

Saat uskoa vaikka joulupukkiin tai maahisiin, mutta se ei sitä faktaa muuta että tommosilla 3200MHz muisteilla ja paskoilla XMP asetuksilla rampautat konees.
Toki suurimmalle osalle joka ongelmaan kuten mataliin fps heitetään vaan rahaa kun silleen pääsee helpolla. Mutta kun jo koneen kasatessa samantien käyttää extra päivän asetusten viilaamiseen niin koneelle tulee kummallisesti vuosia enemmän käyttöikää.

Itse olen näin toiminut yli 20 vuotta, nytkin talouden kaikki muut koneet ovat viilattu paitsi kotiserveri. Eli oma, vaimon, lapsien omat koneet ja HTPC.
HTPC:ssä 5600G jonka IF kulki 2266 eli muistit rullaa 4533MHz:ssä ( CL 18 - 17 - 17 jne.. )
Tilauksessa on siihen 5700G jonka avulla olen tekemässä oppaan kuin nuo 5000G Ryzenit kannattaa viilata. Ja sinun 5600X:sta koskeva opas on myös työnalla ( eli koskee kaikkia 5000-sarjalaisia paitsi 5800X3D ).

Näytönohjain testeissäni aina ne ylikellotetaan ja kerron kannattaako kyseisia kortteja ylipäätään ylikellottaa ja tietenkin kuinka ne pitää ylikellottaa. Hyödyt vaihteleekin 2:sta FPS:stä sinne 20fps:n riippuen kortista.

Mitä tulee R5 5500:n, niin ei se enää ole hyvä ostos kun 5600, 5600X ja varsinkin 5700X sekä 5800X hinnat ovat tippuneet niin alas. Mutta vielä vuos sitten hinta ero oli 100€ ja ylikin niin silloin se kannatti.

Tähän loppuu oma offtopicini.
 
Saat uskoa vaikka joulupukkiin tai maahisiin, mutta se ei sitä faktaa muuta että tommosilla 3200MHz muisteilla ja paskoilla XMP asetuksilla rampautat konees.
Toki suurimmalle osalle joka ongelmaan kuten mataliin fps heitetään vaan rahaa kun silleen pääsee helpolla. Mutta kun jo koneen kasatessa samantien käyttää extra päivän asetusten viilaamiseen niin koneelle tulee kummallisesti vuosia enemmän käyttöikää.

Uusien muistien hommaaminen nostaa päivityksen hintaa aika paljon. Esim. Ryzen 5600 maksaa ~140e, ja uudet nopeat muistit varmaan lähes saman verran? Menee iso osa AM4-päivityksen järkevyydestä, jos vanhoja muisteja ei "voi" käyttää.
 
Uusien muistien hommaaminen nostaa päivityksen hintaa aika paljon. Esim. Ryzen 5600 maksaa ~140e, ja uudet nopeat muistit varmaan lähes saman verran? Menee iso osa AM4-päivityksen järkevyydestä, jos vanhoja muisteja ei "voi" käyttää.

Tietenkin aina ensin kannattaa kokeilla mihin ne vanhat kykenee.
Kun riippuu mitkä muistipiirit niissä vanhoissa on.
Voi olla että pienellä volttien nostolla päästään jo joko paljon matalemmille latensseille tai huomattavasti korkeammille kelloille.

Ja perus kiva 4000MHz setti maksaa about 50€, että hinnat ovat hyvin romahtaneet.


En tosin tiedä paljon noista saa revittyä irti. Kun tilauksessa ois kyllä yks setti, mutta eivät ole vielä saapunut.

Mutta yleisesti ikävä kyllä porukka tuijottaa vaan prossuun ja näytönohjaimeen. Ja muistit aina unohdetaan (välillä emokin) ja otetaan tyyliin sitä halvinta ja rampautetaan näin uusi setti.

Osa syy tähän ainankin on valta tekki median alisuoriutuminen muisti asioissa.
Onko se sitten laiskuutta, tietämättömyyttä vaiko tahallista onkin sitten toinen kysymys.
 
Saat uskoa vaikka joulupukkiin tai maahisiin, mutta se ei sitä faktaa muuta että tommosilla 3200MHz muisteilla ja paskoilla XMP asetuksilla rampautat konees.
Toki suurimmalle osalle joka ongelmaan kuten mataliin fps heitetään vaan rahaa kun silleen pääsee helpolla. Mutta kun jo koneen kasatessa samantien käyttää extra päivän asetusten viilaamiseen niin koneelle tulee kummallisesti vuosia enemmän käyttöikää.

Itse olen näin toiminut yli 20 vuotta, nytkin talouden kaikki muut koneet ovat viilattu paitsi kotiserveri. Eli oma, vaimon, lapsien omat koneet ja HTPC.
HTPC:ssä 5600G jonka IF kulki 2266 eli muistit rullaa 4533MHz:ssä ( CL 18 - 17 - 17 jne.. )
Tilauksessa on siihen 5700G jonka avulla olen tekemässä oppaan kuin nuo 5000G Ryzenit kannattaa viilata. Ja sinun 5600X:sta koskeva opas on myös työnalla ( eli koskee kaikkia 5000-sarjalaisia paitsi 5800X3D ).

Näytönohjain testeissäni aina ne ylikellotetaan ja kerron kannattaako kyseisia kortteja ylipäätään ylikellottaa ja tietenkin kuinka ne pitää ylikellottaa. Hyödyt vaihteleekin 2:sta FPS:stä sinne 20fps:n riippuen kortista.

Mitä tulee R5 5500:n, niin ei se enää ole hyvä ostos kun 5600, 5600X ja varsinkin 5700X sekä 5800X hinnat ovat tippuneet niin alas. Mutta vielä vuos sitten hinta ero oli 100€ ja ylikin niin silloin se kannatti.

Tähän loppuu oma offtopicini.
Uskallan kyllä väittää, että 3200cl16 ei ole paska muisti millään mittarilla. Se että kovempia muisteja on markkinoilla, ei tee noista huonoja -ovat oikein hyvät perumuistit. Toki 3600cl16 oli se sweetspot, mutta budjettiratkaisuissa kyllä noihin uusiin muisteihin sijoitetut rahat kannattaa ennemmin laittaa vaikka sinne näytönohjaimeen. Eriasia sitten jos näytönohjain on huippua ja muistit vaihtaa kuitenkin isompiin, niin silloin kannattaa sijoittaa se parikymppiä nopeampiin. Sanavalinta paska vaan osuu kovin silmään, kun sitä nuo tosiaan eivät ole
 
Viimeksi muokattu:
16 gigaa on nykyään aika minimi millä pärjää, osa peleistä hyötyy jo isommasta määrästä. Sanoisin että jos nyt konetta kasaa niin budjettilaitteeseen 32 gigaa ja jos haluaa varman päälle rakentaa että kestää pari-kolme vuotta niin 64.
 
Mistä kohtaa pelaamiseen tarvitsee 64 gigaa ? Ei ole itsellä tullut kyllä mitään ongelmia edelleenkään 16 gigalla.
 
Huomautus
Uskallan kyllä väittää, että 3200cl16 ei ole paska muisti millään mittarilla. Se että kovempia muisteja on markkinoilla, ei tee noista huonoja -ovat oikein hyvät perumuistit. Toki 3600cl16 oli se sweetspot, mutta budjettiratkaisuissa kyllä noihin uusiin muisteihin sijoitetut rahat kannattaa ennemmin laittaa vaikka sinne näytönohjaimeen. Eriasia sitten jos näytönohjain on huippua ja muistit vaihtaa kuitenkin isompiin, niin silloin kannattaa sijoittaa se parikymppiä nooeampiin. Sanavalinta paska vaan osuu kovin silmään, kun sitä nuo tosiaan eivät ole

Älä väitä asioista joista et selvästi tiedä yhtään mitään.
Että opiskeleppa hieman aihetta, niin tajuat paljon ne muistit vaikuttaa suorituskykyyn.
Ja äläkä katso mitään testejä missä käytetään XMP asetuksia. Kun silloin emolevy arpoo jotkut asetukset muisteille ja ovat aina ihan mitä sattuu = hitaat.
 

Kopite7kimi huhuilee X:ssä että Blackwell RTX 50 sarjan lippulaivasiru GB202 sisältäisi 192 Streaming Multiprocessoria eli 24 576 CUDA-ydintä, mikä tarkoittaa 33 % enemmän kuin nykysukupolven AD102 Ada Lovelace huippumallissa. Spekseistä huhutaan myös 512-bittisen muistiväylän jatkeena olevan uutukaiset GDDR7-muistit.

Spekulointi X:ssä ennustaa että suurta roolia GB202:n suorituskykyodotuksille näyttelee mahdollinen SM-yksiköiden uudelleensuunnittelu, kellotaajuusparannukset, suurempi muistikaista ja välimuistikapasiteetin korotus.
 
Aikalailla tähän aikaan odottelis noita huhuja blackwellista, jos julkaisuaikataulu on 2025 alkupuoli. Aikaisempien sukupolvien aika konkreettiset speksihuhut kopite7kimiltä alkukesästä ja tuotteet ulos seuraavan vuoden syksynä. Nyt huhua alkusyksystä ja tuotteet ulos alkuvuonna 2025? Toki suolan kera huhut tässä kohtaa, mutta vuotojen ajoitus toimii versus odotettu julkaisuajankohta.

Jotain blackwellista opittaneen keväällä 2024 kun hopper next konesali gpu julkaistaan. Ehkä jotain konesaliarkkitehtuurin parannuksista tulee pelipuolelle, ehkä eriytyvät täysin. Mielenkiinnolla odotan uusia piirejä.
 
Vaikea uskoa jos on monoliitti. Eihän tuo io skaalaudu yhtään.
Tarvii olla iso piiri, että mahtuu 512bit muistiväylä. Pelipuolelle vaikea uskoa tuota, kun ison piirin hinta 3nm pohjaisella prosessilla on karmaiseva, ts. ei liene myy tarpeeksi pelaajille, että piiri ja tuote kannattaisi tehdä. Toisaalta jos 512bit väylä tuee konesalipiirien jatkeeksi erittäin kalliisiin devaajien ai-pöhinäboxeihin niin ihan mahdollinen konfiguraatio. Jos AI markkina rommaa niin tuollainen tuote on helppo perua niin kauan kuin piirejä ei ole tehtaalla isoja määriä työn alla.

Huhuissa on ollut myös kahden hbm piirin konfiguraatiota. Arvelen, että nvidialla miettivät hbm vs. 512 bit gddr7 konfiguraatioita. Tuleeko jompi kumpi myyntiin asti on ihan toinen asia vaikka suunnitelma olisi pöydällä. Ihan viime hetkilläkin voi joku piiri lykkääntyä tai peruuntua kokonaan kuten ad103:en kohdalla opittiin.
 
Toi piiri olisi kooltaan varmaan jotain lähemmän 750mm2. Muistikaistaa olisi 2048GB/s joka olisi siis yli tuplaten RTX 4090 kaistaan nähden. En oikein näe mitään syytä tuplata muistikaistaa kun muuten kasvua on kolmannes.
Jo 384-bit väylällä saataisiin 1536GB/s kaistaa joka sekin olisi yli 50% kasvu ja kuulostaa huomattavasti realistisemmalta.

EDIT: 512-bit väylä sattuisi paremmin skenaarioon että junnattaisiin edelleen GDDR6X muisteissa jolloin tuohon 512-bit leventämällä saataisiin 33% lisää kaistaa.
 
ad107:ssa 128bit muistiväylä ja piirilla kokoa 146mm2. Puhtaasti muistiväylän kannalta riittänee 600mm2 piiri 512bittiseen toteutukseen. Hankala sanoa mikä todellinen optimikoko 512bittistä muistiväylää käyttävälle piirille olisi. Ei tiedä miten nvidian oletettavasti 3nm pohjainen valmistusteknologia skaalaantuu. Voi miettiä kellotaajuuden merkitystä muistikaistalle puhtaiden suoritusyksikköjen koon ja määrän lisäksi. Huhuttu isosti uusittu arkkitehtuuri heittää myös jakoavainta yhtälöön, jossa vain otetaan edellisen generaation piiri ja suoritetaan kertolaskua.

Nvidia voi ihan hyvin suunnitella 512bittisen piirin pöytälaatikkoon ja jättää sen tapeoutin tai massavalmistuksen välistä. Piirin suunnittelu tuskin on ongelma. Blackwell piirejä joka tapauksessa oletettavasti tulee 384bit,256bit,192bit ja 128bit muistiväylillä. Yksi piiri lisää suunnittelupöydällä tuskin on mahdottomuus.

Oletettavasti hopper next on iso piiri about samalla prosessilla kuin isoin blackwell. Nvidia oppinee jotain hopper next:sta mikä voi vaikuttaa ison blackwellin suunnitelmiin - go/nogo päätökseen tapeout ja massavalmistuksen kanssa. Ainakin ison piirin saannot, kellottuvuus yms. löytyvät hopper next:in kautta ennen kuin blackwellit tulevat tehtaalta ulos.
 
Perehdyit asiaan, jota ei ole olemassa? Koska tosiasiassa AMD ei blokkaa DLSSää ja tämä käy faktoista hyvin selvästi ilmi.

Alkaa menemään näiden syytösten taso sellaiseksi, että sopisi pikemminkin tuonne:


Jaaha. Kertoisitko mitkä nämä "faktat" on. Se että AMD:n heppu löpertelee jotain lupien kysymyksestä ja antamisesta, ei ole minkäänlainen fakta mihinkään suuntaan. Mitään muuta "faktaa" ei ole tullut mistään suunnasta.
 
Jaaha. Kertoisitko mitkä nämä "faktat" on. Se että AMD:n heppu löpertelee jotain lupien kysymyksestä ja antamisesta, ei ole minkäänlainen fakta mihinkään suuntaan. Mitään muuta "faktaa" ei ole tullut mistään suunnasta.
Yleensä tällaisissa asioissa lähdetään periaatteella: syytön, kunnes toisin todistetaan. Eli onko sulla nyt itselläsi jotain faktoja syytteidesi tueksi?
 
Ilmeisesti nvidia sabotoinut AMD:tä kun CS2 tulee vac bännii jos antilag päällä peleilee. Vai pitäiskö välillä syyttää inteliä?
 
Ilmeisesti nvidia sabotoinut AMD:tä kun CS2 tulee vac bännii jos antilag päällä peleilee. Vai pitäiskö välillä syyttää inteliä?

Vai pitäisikö koittaa tehdä vähän parempaa koodia. Vaihteeksi taas AMD nöyttisketjut täynnä viimeisten ajurien aiheuttamista ongelmista.
 
Vai pitäisikö koittaa tehdä vähän parempaa koodia. Vaihteeksi taas AMD nöyttisketjut täynnä viimeisten ajurien aiheuttamista ongelmista.

Eipä taita olla virallisia ajureita vielä julkaistu kyseisille kikottimille vaan ovat previkka ajureita. Niissä monesti on ongelmia.
 
Eipä taita olla virallisia ajureita vielä julkaistu kyseisille kikottimille vaan ovat previkka ajureita. Niissä monesti on ongelmia.
Kyllä ne 23.10.1:t ihan viralliset ajurit oli, WHQL-leimatutkin vielä kaiken päälle.
 

Statistiikka

Viestiketjuista
297 511
Viestejä
5 070 773
Jäsenet
81 338
Uusin jäsen
iog

Hinta.fi

Back
Ylös Bottom