Virallinen: NVIDIA vs AMD (vs Intel) keskustelu- ja väittelyketju

  • Keskustelun aloittaja Keskustelun aloittaja Sampsa
  • Aloitettu Aloitettu
Öh.. Miksi niitä muisteja tarttee binnata? :D Jos valmistajalla on 24Gbps muisteja tarjolla niin eiköhän niitä silloin käytetä eikä jotain binnattuja hitaampia.

Jos olettaa, että kaikki muistipiirit toimivat 24Gbs+ niin ei niitä tarvikaan kerätä/binnata. Tein vain argumentin siitä, että 2023 voisi tulla 24Gbs nopeudella oleva tuote mahdollisimman vahvaksi. Jos on tarve niin nvidia voi jättää parhaat muistipiirit jemmaan odottamaan 2023 vuonna tulevia päivitettyjä tuotteita.

iotechin arvostelussa 4090 muistit venyivät ylikellotettuna 24Gbps nopeuteen ja 4080:en muistipiirit 24.9Gbps.

Jotenkin tuntuu ettei noista 24Gbps muistipiireistä ole pulaa, kun ylikellottuvuus on tuota tasoa eikä gpu-piireissä&korttien linjavedoissakaan taida olla ongelmia,... Lisäksi nuo uudet muistipiirit käyvät viileämpinä kuin 30x0 sarjassa olleet gddr6x muistit niin ei lämmötkään tule ongelmaksi.
 
Viimeksi muokattu:
Jos olettaa, että kaikki muistipiirit toimivat 24Gbs+ niin ei niitä tarvikaan kerätä/binnata. Tein vain argumentin siitä, että 2023 voisi tulla 24Gbs nopeudella oleva tuote mahdollisimman vahvaksi. Jos on tarve niin nvidia voi jättää parhaat muistipiirit jemmaan odottamaan 2023 vuonna tulevia päivitettyjä tuotteita.

iotechin arvostelussa 4090 muistit venyivät ylikellotettuna 24Gbps nopeuteen ja 4080:en muistipiirit 24.9Gbps.

Jotenkin tuntuu ettei noista 24Gbps muistipiireistä ole pulaa, kun ylikellottuvuus on tuota tasoa eikä gpu-piireissä&korttien linjavedoissakaan taida olla ongelmia,... Lisäksi nuo uudet muistipiirit käyvät viileämpinä kuin 30x0 sarjassa olleet gddr6x muistit niin ei lämmötkään tule ongelmaksi.

Kyllä se nVidia ostaa 24Gbps muistit niin että jokainen toimitettu piiri on speksattu sille, eikä binnaile omiaan. Joku Asus sitten saattaa binnailla johonkin hypermalliin siitä 24Gbps piireistä ostamistaan huippumalleja
 
Kyllä se nVidia ostaa 24Gbps muistit niin että jokainen toimitettu piiri on speksattu sille, eikä binnaile omiaan. Joku Asus sitten saattaa binnailla johonkin hypermalliin siitä 24Gbps piireistä ostamistaan huippumalleja
Mun pointti yksinkertaisuudessaan oli asettaa odotusarvo 2023 päivityksille perustuen siihen, että jo nykyiset kortit pääsevät 24Gbps muistinopeuksiin siitä huolimatta, että korttien speksit eivät tuollaista lupaa. Virallinen 24Gbps päivitystuote 2023 aikana ei tunnu mahdottomalta.
 
Mun pointti yksinkertaisuudessaan oli asettaa odotusarvo 2023 päivityksille perustuen siihen, että jo nykyiset kortit pääsevät 24Gbps muistinopeuksiin siitä huolimatta, että korttien speksit eivät tuollaista lupaa. Virallinen 24Gbps päivitystuote 2023 aikana ei tunnu mahdottomalta.

Sehän toki on lähes itsestäänselvyys että sellainen päivitys tulee, mutta ei minään binnattuna erikoisuutena, vaan ihan speksin mukaisilla 24Gbps (ellei jopa nopeammillaa) muisteilla
 
Mun pointti yksinkertaisuudessaan oli asettaa odotusarvo 2023 päivityksille perustuen siihen, että jo nykyiset kortit pääsevät 24Gbps muistinopeuksiin siitä huolimatta, että korttien speksit eivät tuollaista lupaa. Virallinen 24Gbps päivitystuote 2023 aikana ei tunnu mahdottomalta.
Sun pointissa ei ole vain mitään järkeä. Yhdistämälläsi kahdella asialla ei ole mitään tekemistä keskenään.
 
Jos olettaa, että kaikki muistipiirit toimivat 24Gbs+ niin ei niitä tarvikaan kerätä/binnata. Tein vain argumentin siitä, että 2023 voisi tulla 24Gbs nopeudella oleva tuote mahdollisimman vahvaksi. Jos on tarve niin nvidia voi jättää parhaat muistipiirit jemmaan odottamaan 2023 vuonna tulevia päivitettyjä tuotteita.

Ennemminkin lähtisin miettimään että onko nää lastut niitä paskoja 24Gbps lastuja jotka ei täytä niitä 24Gbps speksejä ja ne myydään sitten alemmilla spekseillä, eli valmistaja binnaa niitä. Toki ne voi kulkea kovempaa kun annetaan jännitettä yli speksien.
 
Ennemminkin lähtisin miettimään että onko nää lastut niitä paskoja 24Gbps lastuja jotka ei täytä niitä 24Gbps speksejä ja ne myydään sitten alemmilla spekseillä, eli valmistaja binnaa niitä. Toki ne voi kulkea kovempaa kun annetaan jännitettä yli speksien.
Eli jos vertaa konseptina ddr4 muisteihin, niin muistit kulkee 1.2v jänöllä 3200 mbps ja 1.35v 3600 mbps. Valmistaja myy vain 1.2v jänön muisteja mutta ne kestää oikein hyvin 1.35v.

Samalla tavalla 24 Gbps saavutetaan turvallisella "1.35v" jännitteellä.
 
Eli jos vertaa konseptina ddr4 muisteihin, niin muistit kulkee 1.2v jänöllä 3200 mbps ja 1.35v 3600 mbps. Valmistaja myy vain 1.2v jänön muisteja mutta ne kestää oikein hyvin 1.35v.

Samalla tavalla 24 Gbps saavutetaan turvallisella "1.35v" jännitteellä.

Juurikin näin.
 
Laitan tähän ketjuun, kun ei taida oikein parempaakaan "mitä piirit maksavat" ketjua olla olemassa? Ei ne pelkät piirin valmistuskustannukset nouse. Myös piirien r&d/kehityskustannukset nousevat. Alla marvelin näkymys kehityskustannuksista. Kehityskustannukset pitää toki kerätä takaisin myytyjen piirien/tuotteiden hinnassa.

Esimerkiksi tuo 400M$ 16nm vs. 5nm ero kehityskuluissa on aika iso määrä massia. Jos olettaisi myytävän 10 miljoonaa piiriä niin tulee 40$ per piiri lisähintaa pelkistä r&d-kuluista,... Siihen päälle se, että itse piirin valmistaminen on hullun paljon kalliimpaa. Ei tarvi ihmetellä miksi on painetta korottaa hintoja/miksi ei näy halpistuotteita uusimmilla prosesseilla. Toki tässä hetkessä on myös paljon muita tekijöitä hintaan vaikuttamassa(inflaatio, valuuttakurssit, komponenttipulan jälkimainingit,...)

1670422735080.png

Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.
 
Laitan tähän ketjuun, kun ei taida oikein parempaakaan "mitä piirit maksavat" ketjua olla olemassa? Ei ne pelkät piirin valmistuskustannukset nouse. Myös piirien r&d/kehityskustannukset nousevat. Alla marvelin näkymys kehityskustannuksista. Kehityskustannukset pitää toki kerätä takaisin myytyjen piirien/tuotteiden hinnassa.

Esimerkiksi tuo 400M$ 16nm vs. 5nm ero kehityskuluissa on aika iso määrä massia. Jos olettaisi myytävän 10 miljoonaa piiriä niin tulee 40$ per piiri lisähintaa pelkistä r&d-kuluista,... Siihen päälle se, että itse piirin valmistaminen on hullun paljon kalliimpaa. Ei tarvi ihmetellä miksi on painetta korottaa hintoja/miksi ei näy halpistuotteita uusimmilla prosesseilla. Toki tässä hetkessä on myös paljon muita tekijöitä hintaan vaikuttamassa(inflaatio, valuuttakurssit, komponenttipulan jälkimainingit,...)

1670422735080.png

Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.


Tuotekehityskulut ovat toki nousseet, mutta iso ongelma hintojen nostossa on se, että se laskee volyymejä. Vaikka premium+++ tuotteissa kuten 4080/4090 on kovat katteet, se ei auta jos tuotantomäärät on sadoissa tuhansissa eikä miljoonissa.

Oliko tuolla muuten mitään itse valmistuskustannuksista?
 
Tuotekehityskulut ovat toki nousseet, mutta iso ongelma hintojen nostossa on se, että se laskee volyymejä. Vaikka premium+++ tuotteissa kuten 4080/4090 on kovat katteet, se ei auta jos tuotantomäärät on sadoissa tuhansissa eikä miljoonissa.
Tosin esimerkiksi tuosta marvellin kaaviosta iso osa jakautuu kaikkien saman arkkitehtuurin piirien välille eikä niin että jokainen eri piiri maksaa ton
 
Tosin esimerkiksi tuosta marvellin kaaviosta iso osa jakautuu kaikkien saman arkkitehtuurin piirien välille eikä niin että jokainen eri piiri maksaa ton

Niin mutta tässä tulee taas se, että jostain syystä nVidia on lopettanut noin 200-300 euron näyttisten valmistamisen, mikä väkisinkin pienentää volyymejä.
 
Laitan tähän ketjuun, kun ei taida oikein parempaakaan "mitä piirit maksavat" ketjua olla olemassa? Ei ne pelkät piirin valmistuskustannukset nouse. Myös piirien r&d/kehityskustannukset nousevat. Alla marvelin näkymys kehityskustannuksista. Kehityskustannukset pitää toki kerätä takaisin myytyjen piirien/tuotteiden hinnassa.

Esimerkiksi tuo 400M$ 16nm vs. 5nm ero kehityskuluissa on aika iso määrä massia. Jos olettaisi myytävän 10 miljoonaa piiriä niin tulee 40$ per piiri lisähintaa pelkistä r&d-kuluista,... Siihen päälle se, että itse piirin valmistaminen on hullun paljon kalliimpaa. Ei tarvi ihmetellä miksi on painetta korottaa hintoja/miksi ei näy halpistuotteita uusimmilla prosesseilla. Toki tässä hetkessä on myös paljon muita tekijöitä hintaan vaikuttamassa(inflaatio, valuuttakurssit, komponenttipulan jälkimainingit,...)

1670422735080.png

Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.

Niin mikä tuossa nyt on kustannusten vertailukohta? Mitä konkreettista tuolla miljoonamäärällä saadaan, yksi AutoCAD piirustus siitä miten piiri valmistetaan? Tarvitseeko tuo maksaa vuosittain vai kertakuluna? Maksaako jokainen yritys tuon verran saadakseen uuden piirin?

Esimerkkinä TSMC, vuoden 2021 nettotulot olivat 21 350 000 miljoonaa. Tuossa on yksi $780M kärpäsen paskan verran rahaa, jos esimerkiksi tämä yritys joutuisi tuon kehityskulun maksamaan itse. Tuollaisesta käppyrästä tulee mieleen näytönohjain- ja prosessorivalmistajien julkistustilaisuudessa nähdyt kuvaajat, joissa +2% parannus saadaan tarkoituksella näyttämään +25% parannukselta.
 
Niin mikä tuossa nyt on kustannusten vertailukohta? Mitä konkreettista tuolla miljoonamäärällä saadaan, yksi AutoCAD piirustus siitä miten piiri valmistetaan? Tarvitseeko tuo maksaa vuosittain vai kertakuluna? Maksaako jokainen yritys tuon verran saadakseen uuden piirin?
Vertailukohta on samat kustannukset aiemmilla nodeilla. Kyseessä on yhden piirin valmistus- ja suunnittelukustannukset nollasta valmiiksi rahassa mitattuna, poislukien itse piirin massatuotanto. Sisältää siis projektin työntekijöiden palkat yms kulut.
 
Olisiko siis kannattavampaa valmistaa ja myydä niitä vanhemman noden tuotteita tuohon halpis kategoriaan tai vaikka muihinkin? Vähän niin kuin Intel teki vuosia pakon edessä.
 
Olisiko siis kannattavampaa valmistaa ja myydä niitä vanhemman noden tuotteita tuohon halpis kategoriaan tai vaikka muihinkin? Vähän niin kuin Intel teki vuosia pakon edessä.

nVidiahan on myynyt GTX 1600-sarjaa tähän asti lowendissä ja ampere-arkkitehtuurista (=rtx 3000-sarja) varsinaista budjettimallia ei tullut lainkaan.
Veikkaan myös että AMD myy RX 6700 sarjasta alaspäin kortteja todella pitkään tuolla alemman hintaluokan kategorioissa. Ja aiemmin samaan polaris 10 piiriin perustuneita RX 400 ja RX 500 kortteja myytiin todella pitkään budjettiluokkaan.
 
Ohhoh, vaikuttaisi ihan siltä että NVIDIA on tehnyt Portal with RTX:stä tarkoituksella mahdollisimman paskasti kilpailijoilla pyörivän eikä se edes liity RT-suorituskykyyn.

Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.
 
Ohhoh, vaikuttaisi ihan siltä että NVIDIA on tehnyt Portal with RTX:stä tarkoituksella mahdollisimman paskasti kilpailijoilla pyörivän eikä se edes liity RT-suorituskykyyn.

Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.

Tästä oli jo toisaalla kommenttina että tuossa ketjussa lähinnä luetaan histogrammeja väärin eikä ymmärretä kuinka RDNA ISA toimii

"Säteet kun iteroidaan shadereilla ja kun niitä tässä demossa on V*TUSTI niin tuossa tulos. 43% ajasta menee iterointiin pelkästään rt-opseilla, eli kertoo hyvin siitä miksi nopeus on huono"
 
Tästä oli jo toisaalla kommenttina että tuossa ketjussa lähinnä luetaan histogrammeja väärin eikä ymmärretä kuinka RDNA ISA toimii

"Säteet kun iteroidaan shadereilla ja kun niitä tässä demossa on V*TUSTI niin tuossa tulos. 43% ajasta menee iterointiin pelkästään rt-opseilla, eli kertoo hyvin siitä miksi nopeus on huono"
Meinaat että AMD:n iterointi on niin surkeaa, että se ei käytä raudasta muuta kuin rekistereitä?
1670623489616.png
 
Meinaat että AMD:n iterointi on niin surkeaa, että se ei käytä raudasta muuta kuin rekistereitä?
1670623489616.png
Ymmärtääkseni tässä on lopputulos siitä AMD:n suunnitteluvalinnasta käyttää shadereita sellaiseen mihin nvidia käyttää muusta pipelinesta erotettua fixed function rautaa. RDNA:ssa koko pipeline on tukossa siihen asti että kaikki säteet on ratkaistu.

Nämä path tracing demot sisältää säteitä ja toisiosäteitä ihan helvetin paljon vrt. hybridipelit joten vertailu AAA peleihin on turhaa.
 
Ymmärtääkseni tässä on lopputulos siitä AMD:n suunnitteluvalinnasta käyttää shadereita sellaiseen mihin nvidia käyttää muusta pipelinesta erotettua fixed function rautaa. RDNA:ssa koko pipeline on tukossa siihen asti että kaikki säteet on ratkaistu.

Nämä path tracing demot sisältää säteitä ja toisiosäteitä ihan helvetin paljon vrt. hybridipelit joten vertailu AAA peleihin on turhaa.
AMD käyttää säteiden traversal vaiheessa streamprosessoreita, mutta se ei "sido" niitä yhtään sen enempää kuin muut hommat, ts. ne eivät ole pois muusta käytöstä kuin sen aktiivisen traversal laskennan ajan. Ja tosiaan jos katot tuota 99ms kestävää "ubershaderia" niin se ei käytä raudasta käytännössä mitään muuta kuin rekistereitä
 
AMD käyttää säteiden traversal vaiheessa streamprosessoreita, mutta se ei "sido" niitä yhtään sen enempää kuin muut hommat, ts. ne eivät ole pois muusta käytöstä kuin sen aktiivisen traversal laskennan ajan. Ja tosiaan jos katot tuota 99ms kestävää "ubershaderia" niin se ei käytä raudasta käytännössä mitään muuta kuin rekistereitä
Tuosta spekuloitiin että jos tämä ubershader ei mahdu GPU:n L2 kakkuun niin se romuttaa suorituskyvyn täysin.
 
Jos Nvidia tekee itse softaa, niin miksi ne EI tekisi sitä mahdollisimman tarkasti omalle raudalleen ja mahdollisimman huonosti kilpailijalleen? Ehkä tästä ei kannata olla kauhean shokeerattu.
 
Jos Nvidia tekee itse softaa, niin miksi ne EI tekisi sitä mahdollisimman tarkasti omalle raudalleen ja mahdollisimman huonosti kilpailijalleen? Ehkä tästä ei kannata olla kauhean shokeerattu.
Onhan se nyt aika kusipäistä touhua jos tarkoituksella tehdään keinotekoisesti jostain pelistä pelikelvoton muiten valmistajien raudalla.
Todellista "anti-consumer" käyttäytymistä.

Siis jos tuo pitää paikkaansa niin ihan siitä syystä pitäisi jättää Nvidian kortit kaupan hyllylle...
 
Onhan se nyt aika kusipäistä touhua jos tarkoituksella tehdään keinotekoisesti jostain pelistä pelikelvoton muiten valmistajien raudalla.
Todellista "anti-consumer" käyttäytymistä.

Siis jos tuo pitää paikkaansa niin ihan siitä syystä pitäisi jättää Nvidian kortit kaupan hyllylle...
Ei siellä koodissa ole mitään

MakeRDNASuck = "1"


AMD:n RNDA ei nyt vain ole optimoitu path tracing kuormille joissa säteitä ja toisiosäteitä aivan helvetin paljon. Ei tämä portal RTX ole mikään ensimmäinen esimerkki samasta asiasta.

AMD ei omissa demoissaan esim käytä toisiosäteitä ollenkaan.. miksihän :) Ja AMD:n RT optimointiohje oli about että käytä vähemmän RT opseja
 
Onhan se nyt aika kusipäistä touhua jos tarkoituksella tehdään keinotekoisesti jostain pelistä pelikelvoton muiten valmistajien raudalla.
Todellista "anti-consumer" käyttäytymistä.

Siis jos tuo pitää paikkaansa niin ihan siitä syystä pitäisi jättää Nvidian kortit kaupan hyllylle...

Riippuu katsantokannasta. Ymmärrän, että asia hiertää joitakin. Toisaalta myös Nvidia-asiakkaat ovat consumereita, ja Nvidia ihan erikseen otti ja teki Portalista omin voimin RTX-version, jota jaetaan ilmaiseksi (alkuperäisen pelin omistajille).

On myös totta, että riippumatta siitä, miten homma olisi koodattu, ei tuosta AMD-raudalla olisi juurikaan mahdollista nauttia. Tulokset voisivat olla paremmat, mutta vain akateemisessa mielessä. Ihan minimissään olisi ollut pakko implementoida FSR, ja ihan käsi sydämellä: miksi ihmeessä Nvidia laittaisi omaa devausaikaansa siihen?
 
Ei siellä koodissa ole mitään

MakeRDNASuck = "1"


AMD:n RNDA ei nyt vain ole optimoitu path tracing kuormille joissa säteitä ja toisiosäteitä aivan helvetin paljon. Ei tämä portal RTX ole mikään ensimmäinen esimerkki samasta asiasta.

AMD ei omissa demoissaan esim käytä toisiosäteitä ollenkaan.. miksihän :) Ja AMD:n RT optimointiohje oli about että käytä vähemmän RT opseja
Onko tuosta nyt jossain jotain faktaa että olisi mitenkään RT liittyvää? Kun ainakin tuo "ubershader" mikä vie sen 99ms resolla x on kaikkea muuta kuin RT:tä eikä käytä raudasta kuin rekistereitä

Riippuu katsantokannasta. Ymmärrän, että asia hiertää joitakin. Toisaalta myös Nvidia-asiakkaat ovat consumereita, ja Nvidia ihan erikseen otti ja teki Portalista omin voimin RTX-version, jota jaetaan ilmaiseksi (alkuperäisen pelin omistajille).



On myös totta, että riippumatta siitä, miten homma olisi koodattu, ei tuosta AMD-raudalla olisi juurikaan mahdollista nauttia. Tulokset voisivat olla paremmat, mutta vain akateemisessa mielessä. Ihan minimissään olisi ollut pakko implementoida FSR, ja ihan käsi sydämellä: miksi ihmeessä Nvidia laittaisi omaa devausaikaansa siihen?
Ei se NVIDIAn tehtävä mitään FSR:ää ole lisäillä, mutta toistaiseksi kukaan ei ole tuonut ainakaan minun nähden ilmi mitään, mikä viittaisi RT:n olevan millään tasolla syyllinen AMDn suorituskykyyn tuossa
 
Onko tuosta nyt jossain jotain faktaa että olisi mitenkään RT liittyvää? Kun ainakin tuo "ubershader" mikä vie sen 99ms resolla x on kaikkea muuta kuin RT:tä eikä käytä raudasta kuin rekistereitä
Tuohan pathtracing demo, siinä ei ole mitään muuta kuin RT:tä Ja aivan helvetin monta sädettä ja toisiosädettä johon RDNA nyt ilmeisesti tukehtuu.
 
Riippuu katsantokannasta. Ymmärrän, että asia hiertää joitakin. Toisaalta myös Nvidia-asiakkaat ovat consumereita, ja Nvidia ihan erikseen otti ja teki Portalista omin voimin RTX-version, jota jaetaan ilmaiseksi (alkuperäisen pelin omistajille).

On myös totta, että riippumatta siitä, miten homma olisi koodattu, ei tuosta AMD-raudalla olisi juurikaan mahdollista nauttia. Tulokset voisivat olla paremmat, mutta vain akateemisessa mielessä. Ihan minimissään olisi ollut pakko implementoida FSR, ja ihan käsi sydämellä: miksi ihmeessä Nvidia laittaisi omaa devausaikaansa siihen?

Noh jospa meillä kohta on AMD pelejä ja Nvidia pelejä ja sitten pitää olla 2 näytönohjainta että voit pelata kaikkea...

Kyllähän siinä jotain hämärää on jos 3050 on 500% nopeampi kuin 6950XT.
 
Ei se NVIDIAn tehtävä mitään FSR:ää ole lisäillä, mutta toistaiseksi kukaan ei ole tuonut ainakaan minun nähden ilmi mitään, mikä viittaisi RT:n olevan millään tasolla syyllinen AMDn suorituskykyyn tuossa

Jos puhutaan ongelman merkityksestä, niin sitten päästään asiassa johonkin. Nvidia tekee itse softaa -> Nvidia päättää itse, mitä softassa tapahtuu. Tämä ei ole peli AMD-omistajille, eikä se olisi sitä, vaikka Nvidia olisi jostain logiikalle vieraasta syystä päättänyt optimoida sen vimeistä piirtoa myöten AMD:n näyttiksille.

Noh jospa meillä kohta on AMD pelejä ja Nvidia pelejä ja sitten pitää olla 2 näytönohjainta että voit pelata kaikkea...

Kyllähän siinä jotain hämärää on jos 3050 on 500% nopeampi kuin 6950XT.

Ehkä meillä on ollut sellaisia jo aika kauan? Jos haluat pelata path tracing -pelejä, niin tarvitset Nvidian näytönohjaimen.
 
Jos puhutaan ongelman merkityksestä, niin sitten päästään asiassa johonkin. Nvidia tekee itse softaa -> Nvidia päättää itse, mitä softassa tapahtuu. Tämä ei ole peli AMD-omistajille, eikä se olisi sitä, vaikka Nvidia olisi jostain logiikalle vieraasta syystä päättänyt optimoida sen vimeistä piirtoa myöten AMD:n näyttiksille.
On eri asia optimoida kilpailijan tuotteelle kuin tehdä tarkoituksella jotain joka käytännössä estää kilpailijan tuotteen käyttämisen.
Sehän tässä on vielä epäselvää onko noin tosiaan tehty.
 
Tuohan pathtracing demo, siinä ei ole mitään muuta kuin RT:tä Ja aivan helvetin monta sädettä ja toisiosädettä johon RDNA nyt ilmeisesti tukehtuu.
Joku "ubershader" vie puoli vuosisataa suorittaa ja käyttää rautaa about nollat, rekisterit vaan pusketaan täyteen. Joku laski että kolme erilaista "ubershaderia" siellä olisi, en tiedä muiden käytöksestä AMDn raudalla, mutta ei se kuulosta että ongelma olisi ainakaan vain RT-suorituskyvyssä (ja se AMDnkin rauta tarjoaa kuitenkin hyvää RT-suorituskykyä useimmissa tapauksissa, eikä mitään RTX 3050:stä hitaampaa)
 
Joku "ubershader" vie puoli vuosisataa suorittaa ja käyttää rautaa about nollat, rekisterit vaan pusketaan täyteen. Joku laski että kolme erilaista "ubershaderia" siellä olisi, en tiedä muiden käytöksestä AMDn raudalla, mutta ei se kuulosta että ongelma olisi ainakaan vain RT-suorituskyvyssä (ja se AMDnkin rauta tarjoaa kuitenkin hyvää RT-suorituskykyä useimmissa tapauksissa, eikä mitään RTX 3050:stä hitaampaa)
Ray tracing peleissä ehkä juu. Mutta path tracing on omanlaisensa purkki matoja johon nvidia on panostanut niin raudassa kuin ajurissaan. Path tracingissa heijastuksetkin heijastelee :)

Erot on hyvin kerrottu täällä:


Capture.JPG
 
Ray tracing peleissä ehkä juu. Mutta path tracing on omanlaisensa purkki matoja johon nvidia on panostanut niin raudassa kuin ajurissaan. Path tracingissa heijastuksetkin heijastelee :)

Erot on hyvin kerrottu täällä:


Capture.JPG
Tiedän kyllä että heijastuksetkin heijastelee, mutta ei sen pitäisi selittää tuota jättishaderia joka vain täyttää rekisterit. RT-rautaa ei hirvittävästi edes kuriteta.
 
Tiedän kyllä että heijastuksetkin heijastelee, mutta ei sen pitäisi selittää tuota jättishaderia joka vain täyttää rekisterit. RT-rautaa ei hirvittävästi edes kuriteta.
Jättimäinen määrä säteitä selittää sen mielestäni hyvin. Kun se työkuorma ei enää sovi sinne GPU välimuistiin niin cache missien määrä karkaa pilviin. Näkyy myös tuossa histogrammissa. Ja cache missihän sitten tarkoittaa muistihakua vramista joka on järkyttävän hidasta.
 
Jättimäinen määrä säteitä selittää sen mielestäni hyvin. Kun se työkuorma ei enää sovi sinne GPU välimuistiin niin cache missien määrä karkaa pilviin. Näkyy myös tuossa histogrammissa. Ja cache missihän sitten tarkoittaa muistihakua vramista joka on järkyttävän hidasta.
Onko 3050:ssa huomattavasti suuremmat välimuistit kuin 6950XT:ssä?
En tiedä, siksi kysyn.
 
Onko 3050:ssa huomattavasti suuremmat välimuistit kuin 6950XT:ssä?
En tiedä, siksi kysyn.
Suhteessa muun GPU:n kokoon on, absoluuttisesti mitattuna ei. Kyse on tasapainosta että RT/PT laskentaa pystytään feedaamaan niin ettei synny tämmöisiä jäätäviä pullonkauloja.
 
Jättimäinen määrä säteitä selittää sen mielestäni hyvin. Kun se työkuorma ei enää sovi sinne GPU välimuistiin niin cache missien määrä karkaa pilviin. Näkyy myös tuossa histogrammissa. Ja cache missihän sitten tarkoittaa muistihakua vramista joka on järkyttävän hidasta.
Siellä hän on tosiaan N21:ssä 128 Mt vielä L3sta ennen kuin mennään VRAMin puolelle. Toki se ei yhtä nopeaa ole kuin L2 mutta ihan eri luokassa kuin VRAMiin meno
 
Jos Nvidia tekee itse softaa, niin miksi ne EI tekisi sitä mahdollisimman tarkasti omalle raudalleen ja mahdollisimman huonosti kilpailijalleen? Ehkä tästä ei kannata olla kauhean shokeerattu.
Kun tähänastista historiaa katselee, niin homma tuntuu menevän niin, että kun AMD tekee jotain jonkun pelitalon kanssa tulos toimii suht hyvin myös nVidian korteilla. Kun nVidia tekee jotain jonkun pelitalon kanssa tulos toimii varsin heikosti AMD:n kanssa. Kyse on selvästä asennevammasta nVidian taholta, jossa se yrittää kampittaa kilpailijaa ja se joka oikeasti kärsii on kuluttaja. Eivät nVidian koodarit voi olla niin surkeita AMD:hen verrattuna, että joka kerran tulisi paskaa pihalle. Se on väkisinkin tarkoituksellista.

Ja kuluttajana minä en ainakaan katsele innolla sitä, että nVidia käytännössä näyttää minulle keskaria koko ajan ja yrittää samalla kauhoa lompakkoni koko sisällön
 
Kun tähänastista historiaa katselee, niin homma tuntuu menevän niin, että kun AMD tekee jotain jonkun pelitalon kanssa tulos toimii suht hyvin myös nVidian korteilla. Kun nVidia tekee jotain jonkun pelitalon kanssa tulos toimii varsin heikosti AMD:n kanssa. Kyse on selvästä asennevammasta nVidian taholta, jossa se yrittää kampittaa kilpailijaa ja se joka oikeasti kärsii on kuluttaja. Eivät nVidian koodarit voi olla niin surkeita AMD:hen verrattuna, että joka kerran tulisi paskaa pihalle. Se on väkisinkin tarkoituksellista.

Ja kuluttajana minä en ainakaan katsele innolla sitä, että nVidia käytännössä näyttää minulle keskaria koko ajan ja yrittää samalla kauhoa lompakkoni koko sisällön

Avainsanat tuossa on "jonkun pelitalon kanssa". Pelitalo ei voi tehdä kaupallista tuotetta, joka ei toimi Nvidian näyttiksillä. Periaatteessa joku pelitalo voi tehdä tuotteen, joka ei toimi AMD:n näyttiksillä, mutta ei sekään oikein fiksua bisnestä ole. Sen sijaan Nvidia ihan omillaan voi tehdä ja tekeekin softaa ihan vain omille tuotteilleen. Niin voi tehdä AMD:kin.

En ole muusta sisällöstä eri mieltä. Nvidia ilman pienintäkään häpeää kampittaa AMD:tä, kuten on tehnyt jo ihmissukupolven ajan.
 
?

Nimenomaan AMD-sponssattuihin peleihin ei saa lisätä DLSS:ää (luultavasti koska se saisi FSR:n näyttämään huonolta), kun taas Nvidian sponssipeleissä kehittäjä saa vapaat kädet lisätä FSR:n halutessaan. Ihmeellistä revisionismia täällä taas.
 
  • Tykkää
Reactions: aop
Muistakaapa nyt että nvidia on myös uhrannut piilastunsa pinta-alasta merkittävän osan näille spesiaalifunktioille. Rautavinkkelistä nvidian RT toteutus on huomattavasti järeämpi ja tottakai ne ottaa siitä kaiken irti jos pelidevejä tukevat.
 
?

Nimenomaan AMD-sponssattuihin peleihin ei saa lisätä DLSS:ää (luultavasti koska se saisi FSR:n näyttämään huonolta), kun taas Nvidian sponssipeleissä kehittäjä saa vapaat kädet lisätä FSR:n halutessaan. Ihmeellistä revisionismia täällä taas.
Olisit saman tien voinut pistää tähän todisteetkin väitteellesi, että tiedämme ettet ihan lämpimikseen höpise
 
Olisit saman tien voinut pistää tähän todisteetkin väitteellesi, että tiedämme ettet ihan lämpimikseen höpise
Mitä jos aloittaisit itse ja iskisit todisteet pöytään siitä että ne Nv sponssipelit pyörivät paskemmin kilpailijan raudalla kuin toisinpäin?

Se että RT-suorituskyky on AMD:n nykyarkkitektuurilla paska ja RT:tä hyödyntävät pelit eivät niillä hyvin pyöri ei ole kilpailijan tarkoituksellista kampittamista. :lol: Tässähän tulee 10 vuoden takaiset tessalaatiokeskustelut mieleen. Tessalaatiosuorituskyky kun saatiin AMD:llä kuntoon niin vipskukkuu kaikki salaliittoteoriat siitä katosivat rautakeskusteluista. Sama tulee tapahtumaan RT:n kanssa kun (tai jos) AMD saa RT-suorituskykynsä kilpailukykyiseen kuosiin.
 
Mitä jos aloittaisit itse ja iskisit todisteet pöytään siitä että ne Nv sponssipelit pyörivät paskemmin kilpailijan raudalla kuin toisinpäin?

Se että RT-suorituskyky on AMD:n nykyarkkitektuurilla paska ja RT:tä hyödyntävät pelit eivät niillä hyvin pyöri ei ole kilpailijan tarkoituksellista kampittamista. :lol: Tässähän tulee 10 vuoden takaiset tessalaatiokeskustelut mieleen. Tessalaatiosuorituskyky kun saatiin AMD:llä kuntoon niin vipskukkuu kaikki salaliittoteoriat siitä katosivat rautakeskusteluista. Sama tulee tapahtumaan RT:n kanssa kun (tai jos) AMD saa RT-suorituskykynsä kilpailukykyiseen kuosiin.
Missä kohtaa minä sanoin mitään RT:stä? Esim nVidian Hairworksistä oli kauheaa meteliä aikoinaan. nVidian Gameworksistä on ihan samanlaista meteliä. PhysX tulee myös mieleen. Efektit olisi saanut aikaan ilman GPU:takin, mutta kuluttajalle vittuilu jne. Ja tarkoittanet tuolla tesselaatiolla ihan sitä, että AMD joutui tekemään kortteihinsä ylimittaisen tesselaation, koska nVidia käytti sitä kuristaakseen AMD:n suorituskyvyn?

No niin, sinun vuorosi kertoa todisteet sille, että AMD:n sponssipeleihin ei saa lisätä DLSS:ää
 
Missä kohtaa minä sanoin mitään RT:stä? Esim nVidian Hairworksistä oli kauheaa meteliä aikoinaan. nVidian Gameworksistä on ihan samanlaista meteliä. PhysX tulee myös mieleen. Efektit olisi saanut aikaan ilman GPU:takin, mutta kuluttajalle vittuilu jne. Ja tarkoittanet tuolla tesselaatiolla ihan sitä, että AMD joutui tekemään kortteihinsä ylimittaisen tesselaation, koska nVidia käytti sitä kuristaakseen AMD:n suorituskyvyn?

No niin, sinun vuorosi kertoa todisteet sille, että AMD:n sponssipeleihin ei saa lisätä DLSS:ää
Mielipiteesi eivät ole todisteita.
 
Mitä jos aloittaisit itse ja iskisit todisteet pöytään siitä että ne Nv sponssipelit pyörivät paskemmin kilpailijan raudalla kuin toisinpäin?

Se että RT-suorituskyky on AMD:n nykyarkkitektuurilla paska ja RT:tä hyödyntävät pelit eivät niillä hyvin pyöri ei ole kilpailijan tarkoituksellista kampittamista. :lol: Tässähän tulee 10 vuoden takaiset tessalaatiokeskustelut mieleen. Tessalaatiosuorituskyky kun saatiin AMD:llä kuntoon niin vipskukkuu kaikki salaliittoteoriat siitä katosivat rautakeskusteluista. Sama tulee tapahtumaan RT:n kanssa kun (tai jos) AMD saa RT-suorituskykynsä kilpailukykyiseen kuosiin.

Tässähän kokoajan keskustellaan esimerkistä todisteiden kera :kahvi:

Tesselaatiosta tapaus Crysis 2 (vai 3, muista näitä nyt enää). AMD:n "tuhnu" tesselaatiosuorituskyky riitti täysin hyvin ultra-asetuksille, kunhan otettiin pois se koko kentän alle kokoajan piirretty meri johon tesseloitiin aaltoja tolkuttomalla tahdilla. Kyseistä vettä ei pystynyt edes näkemään siinä kentässä missä tämä "optimointi" havaittiin :D
 
Tässähän kokoajan keskustellaan esimerkistä todisteiden kera :kahvi:

Tesselaatiosta tapaus Crysis 2 (vai 3, muista näitä nyt enää). AMD:n "tuhnu" tesselaatiosuorituskyky riitti täysin hyvin ultra-asetuksille, kunhan otettiin pois se koko kentän alle kokoajan piirretty meri johon tesseloitiin aaltoja tolkuttomalla tahdilla. Kyseistä vettä ei pystynyt edes näkemään siinä kentässä missä tämä "optimointi" havaittiin :D

Koska aina samat väittelyt, niin muistutan taas kerran: Crysis 2:n merta EI rendattu koko kentän alle. Se "havaittiin" kun mentiin wireframe-moodiin, jossa kyseistä merta ei cullattu pois. Sen sijaan överi-tesselaatiota oli mm. niissä betoniporsaissa.
 
Mitä jos aloittaisit itse ja iskisit todisteet pöytään siitä että ne Nv sponssipelit pyörivät paskemmin kilpailijan raudalla kuin toisinpäin?

Se että RT-suorituskyky on AMD:n nykyarkkitektuurilla paska ja RT:tä hyödyntävät pelit eivät niillä hyvin pyöri ei ole kilpailijan tarkoituksellista kampittamista. :lol: Tässähän tulee 10 vuoden takaiset tessalaatiokeskustelut mieleen. Tessalaatiosuorituskyky kun saatiin AMD:llä kuntoon niin vipskukkuu kaikki salaliittoteoriat siitä katosivat rautakeskusteluista. Sama tulee tapahtumaan RT:n kanssa kun (tai jos) AMD saa RT-suorituskykynsä kilpailukykyiseen kuosiin.
Et taida nähdä metsää puilta. Ei tesselaatiossa ollut kyse AMD:n suorituskyvystä itsestään, vaan tavasta jolla NVIDIA sitä "pakotti" - kuuluisimpina esimerkkeinä tietenkin Crysiksen betoniporsas sekä HAWX2, jossa kehittäjä ei voinut käyttää AMD:n tarjoampaa helvetisti parempaa tesselointiratkaisua koska NVIDIA sponsoroi peliä. AMD:n ratkaisu olisi ollut visuaalisesti identtinen, mutta esimerkiksi sitä piilossa olevaa vuoren selkää ei olisi turhaan tesseloitu. NVIDIA on harrastanut vastaavaa politiikkaa myös muualla, kuten Batman-tapauksessa jossa NVIDIA pakotti kaikki tekemään tietyt MSAA:n käyttöön liittyvät askeleet vaikka MSAA oli rajattu puhtaalla vendor checkillä vain NVIDIAn näytönohjaimille. AMD oli tarjonnut kyllä ihan samaa koodia ilman vendor checkiä (koska se oli standardi tapa tunkea msaa siihen unreal enginen haaraan) mutta koska NVIDIA sponsoroi se ei käynyt. NVIDIA valehteli vielä ummet lammet asiasta, väittäen koodia kehittäjän omaisuudeksi vaikka totuus oli toinen; vasta GOTY-versio laskettiin eri peliksi ja siihen kehittäjät saivat pistää kaikilla toimivan ratkaisun, alkuperäiseen ei saanut edes päivityksillä. Ja muita vastaavia löytyy.
En väitä että AMD olisi mikään puhdas pulmunen sekään, mutta selvästi reilummin se on markkinoilla toiminut.
 

Statistiikka

Viestiketjuista
295 846
Viestejä
5 053 903
Jäsenet
80 989
Uusin jäsen
thelkku

Hinta.fi

Back
Ylös Bottom