Virallinen: NVIDIA vs AMD (vs Intel) keskustelu- ja väittelyketju

  • Keskustelun aloittaja Keskustelun aloittaja Sampsa
  • Aloitettu Aloitettu
Nvidiallahan on avaimet käteen ratkaisu missä tulee 256gpu:ta(+cpu:t) samaan muistiavaruuteen kytkettynä nvlink:lla ja noita 256gpu:n klustereita kasataan yhteen infinibandin avulla. Data liikkuu todella nopeasti ja iso yhteinen muistiavaruus helpottaa ohjelmiston kirjoittamista.

Järkevät yritykset ei itseään aja tuollaiseen vendor lock/blackbox systeemiin. Sitä on äkkiää hankintaloukussa josta on todella vaikea päästä pois. On kusiset ajat edessä kun siihen on itsensä ensin ajanut. Se valmistaja kun voi sitten laskuttaa ihan mitä huvittaa ja miten huvittaa.

Historia on osoittanut että kaikki imperiumit tuppaa kaatumaan omaan mahdottomuuteensa aina jossain vaiheessa. Ei se tartte kuin sen että Papa J saa jonkin päähän pinttymän miten jotkut asiat on tehtävä, jota muut vierastaa.
Hyvänä esimerkkinä Nokia ja "eihän nyt kukaan näyttöjä halua lääppiä"

Vendor lockit ja blackboxit, jolla tiellä nvidia siis tukevasti on, ovat erittäin huonoja asioita. Silloin kun laitevalmistaja vastaa niin raudasta kuin softasta, alkaa kunnon perseily ja asiakkaan poraaminen kakkoseen minkä kerkeää. Mallia voi katsoa vaikka applesta kun ei puhelimeen voi edes näyttöä vaihtaa kuin valtuutettu huolto koska ne pitää parittaa. Taikka John Deer joka blokkasi 3rd party GPS majakoiden toiminnan softapäivityksellä. Taikka oliko se BMW joka koitti alkaa periä vuosimaksua istuimenlämmitin fyytsöristä. Esimerkkejä on vaikka kuinka ja paljon.

miksi nvidia on vaikea lyödä tuolla markkinalla.

Vaikea on nvidiaa lyödä ainakaan markkinointi slidejen kekseliäisyydessä. Verrataan GPU vs GPU laskentatehoa singlecore CPU laskentaan. :D

F5u6LLuXgAAxQ9n
 
Hyvä pätkä nvidiasta ja konealgoritmien tilanteesta. Podcast summaa miten päädyttiin AI boomiin ja mahdolliset tulevaisuuskenaariot raudasta palveluihin. Miksi laitoin tähän ketjuun niin esittävät hyvän argumentin miksi nvidia on vaikea lyödä tuolla markkinalla. Pääasiassa konesali gpu juttua vaikka yksi ulottuvuus on integrointi missä löytyy nvidia gpu, nvidia cpu ja nvidia verkkokortti(nvlink+mellanox) samasta pömpelistä.

Yksittäiset piirit tai pömpelit eivät enää ole mittari millä tuotteita ostetaan. Softalla ja konesalitason optimoinneilla on merkittävä vaikutus siihen mikä tuote on hyvä. Ilmeisesti kehityksen kärjessä olevat kielimallit opetetaan 10000+ gpu klusterilla. Nvidiallahan on avaimet käteen ratkaisu missä tulee 256gpu:ta(+cpu:t) samaan muistiavaruuteen kytkettynä nvlink:lla ja noita 256gpu:n klustereita kasataan yhteen infinibandin avulla. Data liikkuu todella nopeasti ja iso yhteinen muistiavaruus helpottaa ohjelmiston kirjoittamista.

Käyvät podcastissa läpi myös karhuskenaariot eli tavat jotka podcastin vetäjien mielestä voisivat suistaa nvidian turmioon.



Mielenkiinnolla odotan millon amd alkaa mlperffiin julkaisemaan tuloksia. mlperf on aika relevantti, joskin piru on yksityiskohdissa. Valmistajat optimoivat viimeisen päälle mlperf:ia. Ei voi olettaa samaa suorituskykyä ei optimoiduilta kuormilta,... Toisaata mlperf kuormat ovat relevantteja AI hommissa.

Osassa kuormista saatu suorituskyky tuplattua hopperille paremmin optimoidulla softall versus edellinen nvidian mlperf ajo.


Intelin kiihdyttimet ihan ok. osalla kuormista

Grace Hopperit, Intelin GPU-laskentapiirit ym. eivät ole näytönohjaimia vaan laskentapiirejä. Niissä ei ole edes näyttöliittimiä.
Siirtäkää tällainen keskustelu CPU-puolelle tai tehkää näille oma ketju.
 
Framechacer kertoi viimeisimmällä videollaan, että AMD prosessorilla toimii sekä Nvidian ReBar että AMD:n SAM. Mutta olisiko täällä tietoa, miksi Intelin prosessorilla toimii vain ReBar, eikä AMD:n vastine?
 
Johtunee ihan siitä että AMD:n prossu + AMD:n näyttis = Smart Access Memory ja muut kutsuu samaa tekniikkaa Resizable Bariksi.
 
Johtunee ihan siitä että AMD:n prossu + AMD:n näyttis = Smart Access Memory ja muut kutsuu samaa tekniikkaa Resizable Bariksi.
Olet aivan oikeassa, mutta kyse ei ollut terminologiasta, vaan siitä ettei AMD näytönohjaimella toimi ReBar tai SAM jos käytössä on Intel prosessori :D Mietin siis onko rajoitteena Intel vai AMD
 
Eikö se muka toimi? Laitat biosista Above 4G Decodingin ja Resizable Barin päälle? Pikaisella googletuksella ainakin tulee tuloksia että "it works just the same".
 
Eikö se muka toimi? Laitat biosista Above 4G Decodingin ja Resizable Barin päälle? Pikaisella googletuksella ainakin tulee tuloksia että "it works just the same".

Tästä oman "tietoni" sain. Joku AMD näyttiksen ja Intelin prosessorin omaava voinee vahvistaa asian? Itselläni on AMD prosessori, niin ei tietoa miten homma oikeasti toimii tai toimiiko
 
Olet aivan oikeassa, mutta kyse ei ollut terminologiasta, vaan siitä ettei AMD näytönohjaimella toimi ReBar tai SAM jos käytössä on Intel prosessori :D Mietin siis onko rajoitteena Intel vai AMD
Onhan tuo siis faktuaalisesti toiminut


videossa pelkkiä amd:n kortteja rebar testissä ja yhtenä cpuna intel.
 
Onhan tuo siis faktuaalisesti toiminut


videossa pelkkiä amd:n kortteja rebar testissä ja yhtenä cpuna intel.

Todella hyvä lähde. Mikähän frame chacherilla sitten on ongelmana. Aika loppuun kuitenkin hän yleensä osaa laitteensa virittää, niin en osannut edes epäillä tuota kommenttia. Kiitos linkistä
 
Grace Hopperit, Intelin GPU-laskentapiirit ym. eivät ole näytönohjaimia vaan laskentapiirejä. Niissä ei ole edes näyttöliittimiä.
Siirtäkää tällainen keskustelu CPU-puolelle tai tehkää näille oma ketju.
Yritin keskittyä gpu aspektiin postauksessa. Nvidian ai-juttu lähempänä gpu kuin cpu. Sama cuda koodi toimii kaikissa nvidian gpu-piireissä. CPU tällä hetkellä lähinnä toimii apupiirinä, joka syöttää konesali gpu:ta/cudaa ja tarjoaa lisää nopeaa muistia(nvlinkin läpi)

Podcasti varsin mielenkiintoinen, kun siinä käytiin läpi miten cuda ja gpu:t päätyivät nykytilanteeseen missä nvidialla on melkoinen etumatka etenkin softapuolella. En olisi tuota alkanut postaamaan ellei podcast olisi ollut erityisen kiinnostava ja gpu vetoinen.
 
Viimeksi muokattu:
Virallinen DLSS-tuki tulossa Starfieldiin tulevissa päivityksissä, ajankohta ei tiedossa.

 
Tarkoitin kylläkin juuri toisin päin. Aika monesta AAA peleistä on kuitenkin tehty jälkeenpäin switch portti, niin siitä näkökulmasta DLSS olisi varmaan hyvä ottaa mukaan jo ennen Switch portin tekemistä, jos edes on etäisesti se suunnitteilla.
Switch != Switch 2 riippumatta siitä pitävätkö huhut ja vuodot paikkaansa. Eli sillä mitä Switch 2 tukee tai ei tue ei ole merkitystä tässä kohtaa portteja tehdessä, Switch ei DLSS:ää pyöritä.
Asiaa sivuten FSR2:sta käytetään Switchillä tälläkin hetkellä.
 
Näin pitkäaikaisena Nvidian ostajana olen tyytyväinen radeonin valintaan, vaihdoin 7800XT:hen. Minulla oli huonoja muistoja R9 380:sta, jonka jälkeen vaihdoin leiriä....mutta tuosta jo paljon aikaa. Adrenalin on mukavan selkeästi tehty ja kellottelut ja säätelyt sen kautta kävi ongelmitta. Selvästi suunniteltu palvelemaan loppukäyttäjää niin, ettei lisäsoftia (esim. afteburner) tarvitse asennella. Onhan tuossa varmaan bloattia joka lähtöön kun tungettu ihan kaikki mahdollinen mutta missäpä softissa ei nykyään olisi.

Vastakkainasettelua pitäisi kai tässä ketjussa tehdä, mutta oli mukava huomata miten Radeon tänä päivänä istuu omassa koneessa. Olen yksi niistä, joita skaalaustekniikat kiinnostaa, ainakin jonkin verran ja AMD:n ilmoitus FSR3:sta oikeastaan oli viimeinen niitti ostopäätökselle. Siihen toki auttoi 4070:n ja 4070 ti:n korkea hinta. Eli toisin kun moni sanoo tämän 7800 XT-julkaisusta (verraten 6800xt:hen), oli tämä hyvä taktinen peliliike AMD:lta. Juuri minunlainen ostajakunta varmaan tätä korttia nyt kovasti hommaa.

Ehkä taas jossain kohtaa hyppään Nvidiaan takaisin, mutta nyt tyytyväisenä tällä kortilla. Timespyssa sain alikellotellen rikki 20k helposti ja jäähykin on hiljainen ja tehokas (Hellhound) :tup:
Rtp2J4Fy6n.png
 
Tässä markkinatilanteessa tuo 7800xt on ihan hyvä valinta, mutta silti se on lievä pettymys. Kyseessähän on pitkälti vähävirtaisempi 6800 xt. Hintaa olisi saanut olla n. 150 € vähemmän.
 
Tässä markkinatilanteessa tuo 7800xt on ihan hyvä valinta, mutta silti se on lievä pettymys. Kyseessähän on pitkälti vähävirtaisempi 6800 xt. Hintaa olisi saanut olla n. 150 € vähemmän.
7800 XT on nimestään huolimatta "pykälää matalamman luokan" kortti ja sen suositushintahan oli sen 120€ pienempi veroineen (jenkeissä $150 pienempi)
Nykyhinta on ok verrokki kun miettii mitä itse ostaa, mutta ei silloin kun mietitään mihin firman pitäisi hinnoitella uusi sukupolvi julkaisussa.
 
Tässä markkinatilanteessa tuo 7800xt on ihan hyvä valinta, mutta silti se on lievä pettymys. Kyseessähän on pitkälti vähävirtaisempi 6800 xt. Hintaa olisi saanut olla n. 150 € vähemmän.
No sama tilanne se on 4070:n ja 4070 ti:n kanssa, 4070 ti oli tähtäimessäni mutta en millään saanut perusteltua itselleni sen hommaamista nykyhinnalla ja vieläpä 12gb muistilla. Ei siis tässä tilanteessa Amd:lla ole syytä liikoja hintoja pudottaa, vaan laskivat että minunlaiseni katsoo seuraavaa vaihtoehtoa. Ja laittoivat hinnan palvelemaan nykytasoa. On myös fiksua markkinointia nyt julkaista 7800 XT vaikka se ei eroakaan paljoa 6800 XT, koska Nvidian korttien hintavuuteen saatiin iskettyä näin "uudella" kortilla, ja samalla julkaisten FSR3:aa ynm. Eli korttimyyntiin saatiin potkua julkaisulla, oli se sitten miten hyvin perusteltua tai ei, verraten 6800 ja 6800xt:hen.

Kaikkien korttien hinnat on liian korkeat, minkäs sille mahtaa (ellei käytettyä metsästä).
 
Redditissä joku testaillu, miten tensor coret käytössä DLSS:n kanssa.

Käyttöaste keskimäärin, hitaammalla polling ratella, vaan muutaman prosentin luokkaa per Frame, mutta sitten tiheämmällä polling ratella saatiinkin esiin 90% käyttöastepiikkejä, jotka kestää vaan joitain mikrosekunteja.

"Correction, when bringing the resolution of the report way, way up it became clear that the tensor cores were averaging low numbers, but were actually just completing the upscale very quickly, then sitting idle. When looking at dlss balanced with a much higher pollling interval, it actually hits a peak usage of 90%. That said, the upscaling process takes ~100-200 microseconds, averaging around 20% usage. So the conclusion of overkill probably still stands, but at least it's using the performance"


Eli kovassa käytössä ne tensori coret on. Eihän tästä toki selviä se, kuinka nopeasti samat toimenpiteet saataisiin tehtyä ihan shader coreilla vs nuo tensorit, mutta kyllä tuolla havaittavaa hyötyä varmasti saadaan.

Nyt kun NVIDIA vaan jossain vaiheessa julkaisi DLSS:n avoimena, shadereilla ajettavana versiona, niin voisi vertailla.
 
No sama tilanne se on 4070:n ja 4070 ti:n kanssa, 4070 ti oli tähtäimessäni mutta en millään saanut perusteltua itselleni sen hommaamista nykyhinnalla ja vieläpä 12gb muistilla. Ei siis tässä tilanteessa Amd:lla ole syytä liikoja hintoja pudottaa, vaan laskivat että minunlaiseni katsoo seuraavaa vaihtoehtoa. Ja laittoivat hinnan palvelemaan nykytasoa. On myös fiksua markkinointia nyt julkaista 7800 XT vaikka se ei eroakaan paljoa 6800 XT, koska Nvidian korttien hintavuuteen saatiin iskettyä näin "uudella" kortilla, ja samalla julkaisten FSR3:aa ynm. Eli korttimyyntiin saatiin potkua julkaisulla, oli se sitten miten hyvin perusteltua tai ei, verraten 6800 ja 6800xt:hen.

Kaikkien korttien hinnat on liian korkeat, minkäs sille mahtaa (ellei käytettyä metsästä).
Mites se nyt ottaa kun ostin 3070 kortin 2021 se maksoi 1020€ ja nyt kun ostin gigantin tarjouksesta 4070 ti niin hinta oli se 820€
 
No mutta oi niitä aikoja, ne oli kyllä sitten erikoiset. Toivottavasti tämä AI juttu nyt ei oikeasti johda samanlaiseen tilanteeseen

1694805202482.png


Linkkasinkin tarjouksiinkin muuten, että proshopista saa 630e 4070 Asus Dualia. Siinä olisi ainakin itsellä vähän jo pohtimista kumman ottaa, 7800xt vai tuollainen
 
No mutta oi niitä aikoja, ne oli kyllä sitten erikoiset. Toivottavasti tämä AI juttu nyt ei oikeasti johda samanlaiseen tilanteeseen
Tuskin johtaa samankaltaiseen tilanteeseen kuin mitä kryptojen kanssa kävi. Puutetta nvidian osalta on konesalipiireistä. Konesalipiireissä pulmakohta ei ole piirien tuotantomäärä vaan CoWoS paketointi. Tuota paketointia ei käytetä nvidian pelipiireissä. Pelipiirit ja konesalipiirit niin kovin erilaisia että vaikea nähdä AI boomin vaikuttavan pelipiirien tuotantoon/myyntimääriin mitenkään merkittävästi.
 
Tuskin johtaa samankaltaiseen tilanteeseen kuin mitä kryptojen kanssa kävi. Puutetta nvidian osalta on konesalipiireistä. Konesalipiireissä pulmakohta ei ole piirien tuotantomäärä vaan CoWoS paketointi. Tuota paketointia ei käytetä nvidian pelipiireissä. Pelipiirit ja konesalipiirit niin kovin erilaisia että vaikea nähdä AI boomin vaikuttavan pelipiirien tuotantoon/myyntimääriin mitenkään merkittävästi.
Tosin se on ihan kylmä fakta että myös pelikortteja menee AI-käyttöön eikä se edes rajoitu NVIDIAn ohjaimiin.
 
Tosin se on ihan kylmä fakta että myös pelikortteja menee AI-käyttöön eikä se edes rajoitu NVIDIAn ohjaimiin.
Ei merkittäviä määriä, en väittänyt määrän olevan nolla. Katsoo vaikka miten nvidian viime kvartaalin konesalipuoli kasvoi versus pelipuoli. Massiivinen ero kasvussa konesali vs. pelipuoli. Jotain kertoo myös se miten kortteja on saatavilla kaupoissa. Konesalipiireissä huhutaan odotusajan olevan lähempänä vuotta uusille tilauksille, pelikortteja saa ns. heti hyllystä.
 
Samaa täällä jonkun AI-uutisen yhteydessä pohdin että AI vaikuttaa pian pelikortteihin, joku korjasi minua että AI hommissa halutaan niitä 4090- tason kortteja. Ja siten ne eniten myyvät about 1440p kortit vielä päätyisi enemmän pelaajien käsiin. Tulevaisuutta miettien.

Mikä estäisi 4070:aaa AI-konesaleissa käyttämästä, mutta jos samaan tilaan saa 4090:n ja resursseja on niitä ostaa, kai se tehokkain ja muistimäärältään paras voiton vie. Vai tuleeko pian AI-hommiin räätälöityjä kortteja erikseen, se voi viedä toki tuotantokapasiteettia pelikorteilta. No aika näyttää.
 
Samaa täällä jonkun AI-uutisen yhteydessä pohdin että AI vaikuttaa pian pelikortteihin, joku korjasi minua että AI hommissa halutaan niitä 4090- tason kortteja. Ja siten ne eniten myyvät about 1440p kortit vielä päätyisi enemmän pelaajien käsiin. Tulevaisuutta miettien.

Mikä estäisi 4070:aaa AI-konesaleissa käyttämästä, mutta jos samaan tilaan saa 4090:n ja resursseja on niitä ostaa, kai se tehokkain ja muistimäärältään paras voiton vie. Vai tuleeko pian AI-hommiin räätälöityjä kortteja erikseen, se voi viedä toki tuotantokapasiteettia pelikorteilta. No aika näyttää.
Isoin ongelma pelikorttien osalta on kommunikaatio isojen piirimäärien välillä ja tuki. Tuki puuttuu sekä sen osalta, että lisenssi ei salli konesalikäyttöä, että mitä tapahtuu kun piirejä hajoaa. Tueksi voi toki laskea senkin löytyykö optimoitu softapino pelikorttikonesalille ja kuka niitä konesaleja myy vai pitääkö itse rakentaa?

Isot kielimallit opetetaan 10000+ gpu klusterissa ja teslan fsd:kin käyttää 10000 hopperia fsd:n opettamiseen. Nvidian konesalipiireissä saadaan 256 gpu:ta ja cpu:ta yhteen muistiavaruuteen ja nopeaan kommunikaatioon nvlink:in avulla. 256gpu härveleitä linkataan toisiinsa kiinni järeillä mellanoxin perua olevilla verkkokorteilla(yleensä ai kuormissa infiniband, mahdollisesti ethernet). Pelikorteilla skaalautuminen loppuu aikasen nopeaan kun tarvitaan tuhansia/kymmeniä tuhansia kortteja saman kuorman laskemiseen.

Se mihin uskon pelikortteja menevän ai-käyttöön on pienet firmat(muutamien kymmenien/satojen korttien farmi, ei konesali), tutkijat, devaajien työkoneet missä ajetaan pieniä kuormia lokaalisti. Toinen puoli inferenssikuormat kuten photoshop, stable diffusion yms. joissa käytetään koneoppimista.


AI juttuja kun googlettelee niin about 15000-16000 gpu:ta klusteri tuntuu olevan taikanumero mitä huhutaan monen tahon käyttävän(meta, openai(microsoft, openai käyttää microsoftin konesalia), tesla jos laskeaan a100 kortit mukaan jne).

256gpu+cpu:sta koostuva nvidian referenssi. Tämä tuntuu olevan suosittu lego mitä ladotaan yhteen n-kappaletta NVIDIA DGX GH200

edit. Lisätään nyt sen verran, että ylläoleva käsittelee neuroverkkojen opettamista. Inferenssipuolella pelikortit tai cpu:t ovat mahdollisuus tai jopa todellisuus. Yksittäinen inferenssipyyntö on paljon keveämpi operaatio kuin neuroverkon opettaminen. Inferenssipuolella toisistaan riippumattomat pyynnöt helppo jakaa eri korteille eikä tarvita korttien välistä kommunikaatiota. Inferenssi tosin ei ole vielä kuumin juttu ai maailmassa. Suurin hype tuntuu olevan mallien opettamisessa eikä niinkään ai pohjaisissa skaalassa olevissa palveluissa. Inferenssipuolella muistin määrä on oleellinen asia, koska käytetyn mallin tulee mahtua muistiin. Photoshopissa on hyviä esimerkkejä tuotannossa olevista inferenssikuormista. ChatGPT/Bard/... myös esimerkkejä inferenssistä. Pelipuolella nvidian dlss:sta löytyy inferenssikuormaa.

edit2. Mulla ei ole tarkoitus nokkia amd:ta. AMD:n tuotannossa olevista AI piireistä ja niitä käyttävistä firmoista on vain kovin vähän julkista tietoa mikä on osunut mun silmiin. Isot lööpit, podcastit yms. tuntuvat tällä hetkellä käsittelevän lähinnä nvidiaa(openai(chatgpt)/meta, tesla, monet startupit kuten coreweave jne). Odotan, että amd:sta kuullaan enemmän vuoden loppua kohti ja isossa voluumissa ja lööpeissä 2024 loppupuoliskolla.
 
Viimeksi muokattu:
Samaa täällä jonkun AI-uutisen yhteydessä pohdin että AI vaikuttaa pian pelikortteihin, joku korjasi minua että AI hommissa halutaan niitä 4090- tason kortteja. Ja siten ne eniten myyvät about 1440p kortit vielä päätyisi enemmän pelaajien käsiin. Tulevaisuutta miettien.

Mikä estäisi 4070:aaa AI-konesaleissa käyttämästä, mutta jos samaan tilaan saa 4090:n ja resursseja on niitä ostaa, kai se tehokkain ja muistimäärältään paras voiton vie. Vai tuleeko pian AI-hommiin räätälöityjä kortteja erikseen, se voi viedä toki tuotantokapasiteettia pelikorteilta. No aika näyttää.
Suurin kynnys on muistin määrä. Mutta sellaisista määristä puhutaan että AI-pajat ostaa Radeoneitakin suoraan valmistajilta nimenomaan AI-käyttöön (ei, matriisilaskimet ei ole siihen mikään edellytys)
 
Oliko AMD:n ratkaisu erottaa peli ja laskenta reilusti toisistaan virhe? Aiemmin hieman katselin ROCm tuettuja kortteja. Hieman jopa huvitti kun Fury/Vega full support ja uudet Navit sitten osittain.
 
Oliko AMD:n ratkaisu erottaa peli ja laskenta reilusti toisistaan virhe? Aiemmin hieman katselin ROCm tuettuja kortteja. Hieman jopa huvitti kun Fury/Vega full support ja uudet Navit sitten osittain.

Ei. ROPit ja säteenjäljitysyksiköt on totaalisen turhia ja teksturointiyksiköt melko turhia puhtaassa rinnakkaisen laskennan kortissa(*)

Tosin AMD taisi laskentakortteihinsa jättää kyllä pienen määrän ROPeja ja kohtalaisen määrän teksturointiyksiköitä.

Ja FP64-tuki taas on totaalisen turhaa pelikortissa.


(*) Oikeastihan ne teksturiointiyksiköt on täysin turhia kaikilla GPGPU-workiloadeilla, mutta kun niitä vaativat API-kutsut löytyy silti OpenCL-standardista, niin niitä ei voi ehkä kokonaan jättää pois.
 
Viimeksi muokattu:
7900xtx on hieman nopeampi kuin 4090 starfield pelissä. Tämä johtuu 7900 xtx:n isommista rekistereistä ja l2 välimuistista, jotka mahdollistaa suuremman rinnakkaisuuden.


@Kaotik
 
7900xtx on hieman nopeampi kuin 4090 starfield pelissä. Tämä johtuu 7900 xtx:n isommista rekistereistä ja l2 välimuistista, jotka mahdollistaa suuremman rinnakkaisuuden.


@Kaotik

Kiitos, tuo oli oikeasti kiinnostava luettava. Eli nvidian ja amd gpu profiler työkaluilla oli selvitetty mitä tuossa pelissä oikeasti tapahtuu konepellin alla.
 
7900xtx on hieman nopeampi kuin 4090 starfield pelissä. Tämä johtuu 7900 xtx:n isommista rekistereistä ja l2 välimuistista, jotka mahdollistaa suuremman rinnakkaisuuden.


@Kaotik

Mielenkiintoista dataa, mutta kannattaisi linkata suoraan siihen alkuperäisen Chips & Cheesen artikkeliin eikä tuohon hardwaretimesin uudelleenuutisointiin aiheesta.

Chips and Cheese on muuten tällä hetkellä selvästi paras site noihin laadukkaisin arkkitehtuurianalyyseihin. (tekninen perspektiivi uusista arkkitehtuureista, ei kuluttajan "mikä minun kannataa ostaa"-perspektiivi)


7900XT:ssä ei ole suurempaa L2-välimuistia kun 4090ssä vaan pienempi. Sen sijaan AMDllä
on suurehko L3-välimuisti, kun taas nVidialla ei ole L3-välimuistia ollenkaan.

Ja noissa analyyseissä chips&cheese sanoo, että Amdn L2-välimuistilla on suurempi kaistanleveys kuin nVidian L2-välimuistilla.

Koska se on pienempi, se voi olla nopeampi.
 
Viimeksi muokattu:

"Tiedetäänkö" nyt samaan tapaan varmuudella että Intel kieltää kehittäjiä pistämästä peliin DLSS:ää tai FSR:ää? :sdrunk:
 

"Tiedetäänkö" nyt samaan tapaan varmuudella että Intel kieltää kehittäjiä pistämästä peliin DLSS:ää tai FSR:ää? :sdrunk:
Yhden näytteen otannalla tuosta asiasta ei FSR:n kohdalla kai paljoa vielä spekuloitu.

Toiseksi, Ubin mukaan pelissä on XeSS, DLSS ja FSR. Alkuun tosiaan mainostivat vain XeSS:ää, mutta eivät tavalla joka ilmoittaisi sen olevan ainoa kuvanvenytin.

 

"Tiedetäänkö" nyt samaan tapaan varmuudella että Intel kieltää kehittäjiä pistämästä peliin DLSS:ää tai FSR:ää? :sdrunk:

Väittäisin että tämä on AMD:n vika. AMD blokkaa FSR:n ja DLSS:n käytön tuossa pelissä.
 
  • Tykkää
Reactions: ile
Onko DLSS muuten yhdessäkään Ubisoftin pelissä? Ubisoft näyttää blokkaavan DLSS:ää jostain syystä.

Edit: On se ainakin R6 Siegessä näköjään, ja myös tulevassa Frontiers of pandorassa.
 

"Tiedetäänkö" nyt samaan tapaan varmuudella että Intel kieltää kehittäjiä pistämästä peliin DLSS:ää tai FSR:ää? :sdrunk:


Väittäisin että tämä on AMD:n vika. AMD blokkaa FSR:n ja DLSS:n käytön tuossa pelissä.

Niin mitenkä. Nuihan on oikeasti mukana pelissä, vaikka tuossa "intelin mainoksessa" ei niistä mainita.

Että vähän nyt lässähti tämä "vitsi".
 
No ihan sitenkä että hangot ja soihdut tarvii kaivaa esiin ja lähteä mellakoimaan ilman että asiaan olisi kunnolla perehtynyt. Sehän on ollut se yleinen tapa.

No nny on taas kunnon appelsiinien ja omenien vartailua.

Kyllä minä ainakin ihan niin paljon perehyin AMD:n DLSS blokkauksiin kun vaan kykeni ja tietoa tuli lisää. Ne Aalkutiedot antoi jo enemmän kun tarpeeksi aihetta epäillä AMD:tä unfair playstä.

Edelleenkään asiasta ei ole mitään varmaa todistetta kumpaakaan suuntaan, vaikkakin omasta mielestä aihetodisteet viittaa enemmän siihen suuntaan, että AMD:llä on ollut asian kanssa enemmän tekemistä, kun se että "mitään ei ole ikinä kielletty".

Tilanne vaatisi sen, että joku devaaja avoimesti kertoisi, miksi DLSS oli pudotettu pois AMD-diilin jälkeen.

Tässä AC:n tapauksessa nyt riitti, kun pikkasen käyttää Googlea, niin selvisi totuus.
 
No nny on taas kunnon appelsiinien ja omenien vartailua.

Kyllä minä ainakin ihan niin paljon perehyin AMD:n DLSS blokkauksiin kun vaan kykeni ja tietoa tuli lisää. Ne Aalkutiedot antoi jo enemmän kun tarpeeksi aihetta epäillä AMD:tä unfair playstä.

Edelleenkään asiasta ei ole mitään varmaa todistetta kumpaakaan suuntaan, vaikkakin omasta mielestä aihetodisteet viittaa enemmän siihen suuntaan, että AMD:llä on ollut asian kanssa enemmän tekemistä, kun se että "mitään ei ole ikinä kielletty".

Tilanne vaatisi sen, että joku devaaja avoimesti kertoisi, miksi DLSS oli pudotettu pois AMD-diilin jälkeen.

Tässä AC:n tapauksessa nyt riitti, kun pikkasen käyttää Googlea, niin selvisi totuus.

Perehdyit asiaan, jota ei ole olemassa? Koska tosiasiassa AMD ei blokkaa DLSSää ja tämä käy faktoista hyvin selvästi ilmi.

Alkaa menemään näiden syytösten taso sellaiseksi, että sopisi pikemminkin tuonne:

 
Tuossa lähdin testaamaan Hardware Unboxedin väitettä Nvidia ajuri overhead ongelmasta. Eli niiden mukaan jos prosessori jarruttaa menoa niin Ratukalla saa 20-30% enemmän fps kuin Geforcella.
Testikorteiksi otin tehokkaimmat kortit mitä hyllystäni löytyy eli AMD edustaa RX 5700 XT ja Nvidiaa Titan V.

Ja kuten näemmä techpowerupin taulukoista että RX 5700 XT on about RX 2070 tehoinen ja tämä pitää paikkaansa kun olen molemmat testannut.

RX5700XT.jpgTitanV.jpg

Titan V:n sitten pitäisi olla saamaa tasoa kuin RTX 2080 Ti eli huomattavasti RX 5700 XT nopeampi.

Sitten kummatkin testasin AC Valhallassa, Far Cry 6 ja Foza Horizon 5:ssa (siksi nämä koska näissä pelin sisäinen benchmarkkaus toiminto) kolmella eri setupilla.

Nopeinta edusti Ryzen 7 5700X, keskimmäistä Ryzen 7 2700X ja hitainta AMD FX-8320.
Kaikki oli säädetty sitten että prossuista ja muisteista revitään kaikki irti mitä niillä on annettavaa.

Joten pitääkö Hardware Unboxedin väite paikkaansa ?
Eipä oikeastaan.
Kyllä Ratukalla sai enemmän FPSiä, mutta erot johtuivat enemmänkin siitä että tuon Titan V arkkitehtuuri on vanhentunut todella heikosti.
Nimittäin RX 5700 XT hakkas sen kaikissa peleissä kaikilla eri prossuilla lukuun ottamatta yhtä.

Nimittäin AMD FX:llä Forza Horizon 5:ssa Titan V sai enemmän fps kuin Ratukka.

Se tästä testistä jäikin parhaiten mieleen kuinka hyvin haukuttu AMD FX pelejä vielä pyörittää ja kuinka heikko Titan V oli.



Nuo testit ajoin siis 1080p Ultra asetuksilla ja niillä AMD FX:llä oli pientä frametime eloa AC Valhallassa ja Far Cry 6:ssa.
Joten Extra kanavalle tein toisen testin jossa huvikseen kokeilin nuo pelit 1080p low asetuksilla Titan V ja RX 5700 XT:llä.



Ja low:lla RX 5700 XT voitti Forzassa ylivoimaisesti. Ja Ratukka tarjosi kautta linjan paremmat frametimet kuin Titani.

---------------------------------------------------------------------

Ensi perjantaina tulee oma testi video Titan V:stä ja tässä juuri sain testattua Titan X:n.
Ja voi pojat se on vanhentunut heikosti.
Tuossa vertailin edellisiin testeihini niin tuohan nykyään vastaa RX 580:stä.... kun aikoinaan GTX 980 oli jo nopeampi kuin RX 580:n :hmm:

Ja siis kortti sai power limitti modin ja nestemetallitkin, eli kaikki yritin siitä repiä irti.
Tulikin huomattua siinä samalla että Nvidia ollut taas tyypillinen Nvidia.

Eli Nvidia ei tykkää että korttien vbioseja muokkaillaan ja näin saadaan niistä enemmän irti. Joten ennen riitti kun muokatulla NVflashillä (josta oli poistettu tuo aitouden tarkastus) ajo muokatun vbiosin sisään ja se oli siinä.
Nykyään ajurit tunnistaa onko vbiosia ronkittu vai ei.

Jos on, niin kone kaatuu windowsin latauksen siinä vaiheessa kun ajurit pitäisi ladata.
Sitten jos asennat ajureita ja vbios on muokattu niin taas kaatuu kone ja takaisin windowsiin ei ole mitään asiaa ennen kuin olet flashännyt orginaalin takaisin.

Tuossa testailin vielä kuinka FSR ja XeSS tuolla Titan X toimii, kun tuolla on semmoinen ongelma että grafiikka asetuksista viis kortti haluu jatkuvasti pyöri peleissä 50 - 70fps:ssä.
Ja kuten näette XeSS ei oikein toiminut silleen kuin piti:

Ilman kuvanpaskomis juttuja:
2023-09-21 17-00-18.mp4_snapshot_00.10_[2023.09.22_09.31.22].jpg

FSR:
2023-09-22 09-22-05.mp4_snapshot_00.14_[2023.09.22_09.30.29].jpg

XeSS:
2023-09-22 09-24-03.mp4_snapshot_00.16_[2023.09.22_09.30.51].jpg
 
Joten pitääkö Hardware Unboxedin väite paikkaansa ?
Eipä oikeastaan.
Kyllä Ratukalla sai enemmän FPSiä, mutta erot johtuivat enemmänkin siitä että tuon Titan V arkkitehtuuri on vanhentunut todella heikosti.
Nimittäin RX 5700 XT hakkas sen kaikissa peleissä kaikilla eri prossuilla lukuun ottamatta yhtä.
Siis sait samansuuntaisia tuloksia kuin HW unboxed ja väite ei pidä paikkaansa? HWU ei ole testannut edes kyseistä Nvidian korttia, niin ei tulokset ole vertailukelpoisia. Eli oot ottanu yhden datapisteen (Titan V) ja sillä perusteella oot sitä mieltä että HWU väitteet ei pidä paikkaansa?

Spekkien mukaan Volta on ihan oma arkkitehtuuri ja sitä on myyty pelikäyttöön varmaan aika vähän. Joten ei yllätä jos Nvidia ei ole näihin ajureihin panostanut viime aikoina hirveesti.
 
Siis sait samansuuntaisia tuloksia kuin HW unboxed ja väite ei pidä paikkaansa? HWU ei ole testannut edes kyseistä Nvidian korttia, niin ei tulokset ole vertailukelpoisia. Eli oot ottanu yhden datapisteen (Titan V) ja sillä perusteella oot sitä mieltä että HWU väitteet ei pidä paikkaansa?

Spekkien mukaan Volta on ihan oma arkkitehtuuri ja sitä on myyty pelikäyttöön varmaan aika vähän. Joten ei yllätä jos Nvidia ei ole näihin ajureihin panostanut viime aikoina hirveesti.

Koska erot eivät olleet mitään 30% nähneetkään tai edes 20%. Vaan paljon pienemmät.

Mitä tulee ajureihin niin vastahan tuossa tein AMD ja Nvidia ajuri testejä ja moneen vuoteen ei ole kummallakaan käynyt enää mitään kehitystä vanhempien korttien kohdalla.
Ja tuossa ajoin Titan V:llä (sekä Titan X) kasan muitakin pelejä niiden tulevia testi videoita ajatellen. NIin DX11 on edelleen Nvidian vahvuus ja God of Warissa joka on siis DX11 peli niin Titan V vetää ihan kunnon eron tuohon RX 5700 XT:n. (100fps vs 75fps).
Mutta jotenkin moni DX12 peli on vanhemmille Nvidian korteille (jopa RTX 2000-sarjalaisille) paha paikka. Mutta ei tunnu olevan ajuri homma kun niitä siis jo tuossa testailin. Eli viittaa suuresti että arkkitehtuurit eivät vaan vanhene kauhean hyvin.

Tässä seuraavaksi ajattelin suorittaa benchmarkkeja Intelin raudalla AMD vs Nvidia. Eli onko sillä jotain vaikutusta noihin tuloksiin.
Kun semmoista väläyteltiin discordissa tuossa. Teoriassa ei pitäisi olla väliä, mutta eihän sitä koskaan tiedä.

PS. Mitä muuten tulee data pointteihin ja tämmöseen niin HWU:n testejä ei voi testata perässä kun eivät kerro/näytä missä kohtaa peliä edes benchmarkit suorittaa... joten vaikea on toistaa perässä vaikka olisikin samaa rautaa nurkissa pyörimässä.
 
Koska erot eivät olleet mitään 30% nähneetkään tai edes 20%. Vaan paljon pienemmät.

Mitä tulee ajureihin niin vastahan tuossa tein AMD ja Nvidia ajuri testejä ja moneen vuoteen ei ole kummallakaan käynyt enää mitään kehitystä vanhempien korttien kohdalla.
Ja tuossa ajoin Titan V:llä (sekä Titan X) kasan muitakin pelejä niiden tulevia testi videoita ajatellen. NIin DX11 on edelleen Nvidian vahvuus ja God of Warissa joka on siis DX11 peli niin Titan V vetää ihan kunnon eron tuohon RX 5700 XT:n. (100fps vs 75fps).
Mutta jotenkin moni DX12 peli on vanhemmille Nvidian korteille (jopa RTX 2000-sarjalaisille) paha paikka. Mutta ei tunnu olevan ajuri homma kun niitä siis jo tuossa testailin. Eli viittaa suuresti että arkkitehtuurit eivät vaan vanhene kauhean hyvin.

Tässä seuraavaksi ajattelin suorittaa benchmarkkeja Intelin raudalla AMD vs Nvidia. Eli onko sillä jotain vaikutusta noihin tuloksiin.
Kun semmoista väläyteltiin discordissa tuossa. Teoriassa ei pitäisi olla väliä, mutta eihän sitä koskaan tiedä.

PS. Mitä muuten tulee data pointteihin ja tämmöseen niin HWU:n testejä ei voi testata perässä kun eivät kerro/näytä missä kohtaa peliä edes benchmarkit suorittaa... joten vaikea on toistaa perässä vaikka olisikin samaa rautaa nurkissa pyörimässä.
Niin siis HWU testasi Turing&Ampere ja sinä testasit Volta. Tällä perusteella sanot että HWU on väärässä Turing&Ampere suhteen myös?
 
Niin siis HWU testasi Turing&Ampere ja sinä testasit Volta. Tällä perusteella sanot että HWU on väärässä Turing&Ampere suhteen myös?

Ei ne väärässä ole, mutta erot ovat pienemmät ja näin asiaa paisuteltu.
Niin pienet että asialla ei ole juuri paskan vertaa merkitystä. Tai ainakin omasta mielestäni joku about 5fps ero on mitätön.

Toki tässä on myös se ero että ne vetää kaikki vakiona ja muistit XMP:llä, kun itse vedän kaikesta raudoista ensin aina löysät pois.
Että siksi nuo vanhat ja hitaatkin pärjäävät paljon paremmin.

PS. Olen testaillut Turing kortteja joten tiedän kyllä miten nekin käyttäytyvät. Ampereita itselläni ei ole hyllyssä vielä yhtään, joten niistä en voi kommentoida mitään.
 
Ei ne väärässä ole, mutta erot ovat pienemmät ja näin asiaa paisuteltu.
Niin pienet että asialla ei ole juuri paskan vertaa merkitystä. Tai ainakin omasta mielestäni joku about 5fps ero on mitätön.

Toki tässä on myös se ero että ne vetää kaikki vakiona ja muistit XMP:llä, kun itse vedän kaikesta raudoista ensin aina löysät pois.
Että siksi nuo vanhat ja hitaatkin pärjäävät paljon paremmin.

PS. Olen testaillut Turing kortteja joten tiedän kyllä miten nekin käyttäytyvät. Ampereita itselläni ei ole hyllyssä vielä yhtään, joten niistä en voi kommentoida mitään.
No sitten ei varmaan kannattaisi kirjottaa näin:

"Joten pitääkö Hardware Unboxedin väite paikkaansa ?
Eipä oikeastaan. "

Mun mielestä ootte testanneet eri asioita ja johtopäätökset joita esität ei ole selviä tähän ketjuun laitetun datan perusteella.

XMP/EXPO vastaa paremmin sitä mitä ihmiset oikeasti käyttää ja on yleisesti relevantimpi.

Tästä vääntäminen sinänsä riittää mulle tältä erää.
 

Uusimmat viestit

Statistiikka

Viestiketjuista
259 289
Viestejä
4 508 072
Jäsenet
74 349
Uusin jäsen
maaniman

Hinta.fi

Back
Ylös Bottom