Virallinen: NVIDIA vs AMD (vs Intel) keskustelu- ja väittelyketju

  • Keskustelun aloittaja Keskustelun aloittaja Sampsa
  • Aloitettu Aloitettu
Mitähän Steam sanoo tuosta monellako prosentilla (pelaavilla) nvidian käyttäjistä on rtx on? Oma muistikuva on, että noin paljoa ei vielä olisi. On toki hyvin mahdollista että se on jo noussut tuohon. Jotain 2060 / 3060 -kortteja varmana menny pakettikoneissa isoja määriä.
Arvailisin, että voi olla melkoinen osa RTX ON korttien ostajista koneälyä tutkivia/kehittäviä/käyttäviä devaajia/yrityksia, jotka eivät asenna steam:ia koneeseen. Tyyliin haluat tehdä startupissa jotain konealgoritmia/tutkia yliopistolla algoritmia/... niin ostetaan 4090/3090ti tms. ja kovaa ajoa. Pienemmät lafkat saattaa rakentaa "konesalia" peli gpu:n pohjalta vaikka nvidian käyttöehdot sellaisen kieltävät. Riippuen tarpeesta joku hitaampikin RTX ON kortti voi toimia, kun kehitellään neuroverkkoa. Vasta lopullinen ison verkon koulutus ajetaan konesalissa.

Pilvi tai ammattikortit ei vättämättä ole järkevin ratkaisu kaikille ja pelikortit myy muuhun kuin pelikäyttöön?
 
Viimeksi muokattu:
Statistiikkaa nvidia sijoittajapuhelusta, 47% nvidian käyttäjistä on RTX ON. Nvidia uskoo, että kasvua tulee kun ei rtx kortteja omistavat päivittävät säteenseuranta-aikaan. Toisella tapaa vois sanoa, että 53% nvidian käyttäjillä on 7v tai vanhempaa teknologiaa käytössä. Käytetään nollakohtana pascalin julkistusta mikä on uusin ei RTX ON arkkitehtuuri.

Voisi kyllä kuvitella että he, jotka eivät ole vielä päivittäneet Pascaleista ovat liikkeellä sen verran matalalla budjetilla etteivät he pääsääntöisesti osta uusia kortteja nykyhinnoilla, vaan suuntaavat käytettyjen markkinoille. :hmm:
 
Voisi kyllä kuvitella että he, jotka eivät ole vielä päivittäneet Pascaleista ovat liikkeellä sen verran matalalla budjetilla etteivät he pääsääntöisesti osta uusia kortteja nykyhinnoilla, vaan suuntaavat käytettyjen markkinoille. :hmm:
Pascalista on hieman haastavaa päivittää edes käytettyyn korttiin, joka ei RTX tukisi, joten eiköhän siinäkin se RTX osuus kasva.
 
Pascalista on hieman haastavaa päivittää edes käytettyyn korttiin, joka ei RTX tukisi, joten eiköhän siinäkin se RTX osuus kasva.

Joo mutta tarkoitin että jos noin vanhalla kortilla on pärjännyt näinkin pitkään, niin tuskin on tuomassa kasvua nVidian uusien korttien myyntiin.
 
Joo mutta tarkoitin että jos noin vanhalla kortilla on pärjännyt näinkin pitkään, niin tuskin on tuomassa kasvua nVidian uusien korttien myyntiin.
Osa päivittelee käytettyihin kortteihin. Mulla on yks kaveri jolla on edelleen joku 970 kortti millä pelailee. Se on odotellut, että joku tuttu vaihtais RTX ON korttinsa parempaan ja sais pikkurahalla päivitettyä "uuteen" käytettyyn.

Pakostihan rtx on kortit jossain vaiheessa myös tulee 199$ ja alle hintoihin kun ei 40x0 sarjassakaa enää ole rtx off mallia olemassa. Nvidian läppäreihinkään ei taida enää saada muuta kuin RTX ON kamaa? Varmaan 4050 jossain vaiheessa pullahtaa uunista ulos 199$ hintaan. Jos 4050 skippaa desktop kortit niin viimeistään 2025 blackwell aikakaudella tulee rtx on kortti 199$ tai alle hintaluokkaan.

Alkaa olemaan samanlaista gpu puolella kuin puhelimissa. Kasuaalilla ei ole isoa tarvetta päivittää ennen kuin vehje menee rikki.
 
7900XTX:ssä piitä on käytetty gpu:ssa 529mm2
4070Ti:ssä piitä on käytetty gpu:ssa 294mm2
4080:ssa piitä on käytetty gpu:ssa 379mm2
4090:ssa piitä on käytetty gpu:ssa 609mm2

Eli parantamista AMD:llä on todella reippaasti, jos meinaa kisassa pysyä mukana../ tai haluaa päästä taas kärkipään pippaloihin..
Ota huomioon että 7900xtx ei ole monoliitti. Täten tuo 7900xtx saattaa olla halvempi, kuin rtx 4080, koska paremmat saannot ja käytetty osittain vanhempaa valmistusprosessia.
 
Ota huomioon että 7900xtx ei ole monoliitti. Täten tuo 7900xtx saattaa olla halvempi, kuin rtx 4080, koska paremmat saannot ja käytetty osittain vanhempaa valmistusprosessia.
Eipä sillä ole väliä, vaan päinvastoin. Mun se ei ole monoliitti, niin sillä on hitaampia väyliä osien välillä ja palasille pitää tehdä vielä välialusta, jolle ne liimaillaan ja joka on mutkikas ja kallis.
Chipletit vain eivät nyt oikein ole osoittaneet kilpailukykyä GPU puolella. Jos oletetaan, että AMD ei ole tyrinyt muuten, niin AMD:n pitäisi tehdä jotain 1,8X piitä vievä hirviö, jotta pystyisi kilpailemaan 4090:n kanssa, eli n1095mm2 piitä sisältävä GPU.
Lisäksi taitaa virtaakin kulua melkoisesti, joten olisi melkoisen tajuton keittolevy se piiri sitten..
 
Eipä sillä ole väliä, vaan päinvastoin. Mun se ei ole monoliitti, niin sillä on hitaampia väyliä osien välillä ja palasille pitää tehdä vielä välialusta, jolle ne liimaillaan ja joka on mutkikas ja kallis.
Chipletit vain eivät nyt oikein ole osoittaneet kilpailukykyä GPU puolella. Jos oletetaan, että AMD ei ole tyrinyt muuten, niin AMD:n pitäisi tehdä jotain 1,8X piitä vievä hirviö, jotta pystyisi kilpailemaan 4090:n kanssa, eli n1095mm2 piitä sisältävä GPU.
Lisäksi taitaa virtaakin kulua melkoisesti, joten olisi melkoisen tajuton keittolevy se piiri sitten..

Miten ihmeessä tuo on laskettu?

TPU:n listauksen mukaan 4090 on 24% nopeampi kuin 7900 XTX ja siinä on myös isompi piiri.
AMD:n pitäisi kasvattaa piirin kokoa 100% että saisi 24% lisää suorituskykyä?
 
Osa päivittelee käytettyihin kortteihin. Mulla on yks kaveri jolla on edelleen joku 970 kortti millä pelailee. Se on odotellut, että joku tuttu vaihtais RTX ON korttinsa parempaan ja sais pikkurahalla päivitettyä "uuteen" käytettyyn.

Pakostihan rtx on kortit jossain vaiheessa myös tulee 199$ ja alle hintoihin kun ei 40x0 sarjassakaa enää ole rtx off mallia olemassa. Nvidian läppäreihinkään ei taida enää saada muuta kuin RTX ON kamaa? Varmaan 4050 jossain vaiheessa pullahtaa uunista ulos 199$ hintaan. Jos 4050 skippaa desktop kortit niin viimeistään 2025 blackwell aikakaudella tulee rtx on kortti 199$ tai alle hintaluokkaan.

Alkaa olemaan samanlaista gpu puolella kuin puhelimissa. Kasuaalilla ei ole isoa tarvetta päivittää ennen kuin vehje menee rikki.
Se hintaluokka voi kadota, kun nykyään pitää saada voittoa se 199$ per myyty kortti. Kilpailluilla markkinoilla toki ei myytäisi 200€ hintaluokan korttia 350-450€ kuten nyt, mutta sille ei muutosta tule jollei ala nVidiaa kuumotella firman pilkkominen ja ai-puolen kansallistaminen.
 
Se hintaluokka voi kadota, kun nykyään pitää saada voittoa se 199$ per myyty kortti. Kilpailluilla markkinoilla toki ei myytäisi 200€ hintaluokan korttia 350-450€ kuten nyt, mutta sille ei muutosta tule jollei ala nVidiaa kuumotella firman pilkkominen ja ai-puolen kansallistaminen.
En usko että katoaa 199$ dgpu ellei sitten käy niin, että APUt ovat niin hyviä ettei ole mahdollista tehdä voittoa 199$ dgpu:lla. Jos kauppaa on tehtävänä niin edellisen generaation 4050 tai 3050 jatkaa myynnissä 199$ tai vaihtoehtoisesti tulee 50x0 sarjan halvimmat piirit halvemmalla prosessilla kuin mitä kalliimmat piirit käyttävät.
 
Keskimäärinhän 7900 XTX on säteenseuranta päällä nopeampi kuin 4070 ti, taitaa Cyberpunk olla ainoita isompia poikkeuksia.
Tuossa on toki mukana paljon pelejä joissa pelkästään joissakin varjoissa hyödynnetään RT:tä, ja kun xtx nyt muuten keskimäärin on nopeampi niin se ei muutu tuosta. Sitten taas vähän raskaampi peli niin tilanne muuttuu.
 
Se hintaluokka voi kadota, kun nykyään pitää saada voittoa se 199$ per myyty kortti. Kilpailluilla markkinoilla toki ei myytäisi 200€ hintaluokan korttia 350-450€ kuten nyt, mutta sille ei muutosta tule jollei ala nVidiaa kuumotella firman pilkkominen ja ai-puolen kansallistaminen.
Kun ei ole kunnollista kilpailua, niin toki voidaan ottaa enemmän voittoa /kortti.

Mitään pilkkomis / kansallistamisongelmaa ei tällähetkellä ole näköpiirissä. Nvidia ei ole missään mielessä monopoliasemassa. Se, että tuotteet ovat kilpailijoiden tuotteita parempia ei tee firmasta vielä monopolia.
 
7900XTX:ssä piitä on käytetty gpu:ssa 529mm2
4070Ti:ssä piitä on käytetty gpu:ssa 294mm2
4080:ssa piitä on käytetty gpu:ssa 379mm2
4090:ssa piitä on käytetty gpu:ssa 609mm2

Eli parantamista AMD:llä on todella reippaasti, jos meinaa kisassa pysyä mukana../ tai haluaa päästä taas kärkipään pippaloihin..

Todella typerää laskea vaaan suoraan yhteen eri valmistustekniikalla varustettujen piilastujen pinta-aloja ja verrata näitä lukuja suoraan.

Navi 31ssä Itse N5lla/N5P:llä varustetun graffapiirin pinta-ala on 7900XTX:ssä n. 304mm^2. n. 225 mm^2 on selvästi halvempaa N6lla valmistettua piitä. Ja 4N on todennäköisesti myös hiukan kalliimpi prosessi kuin N5/N5P.

Hyvin karkea arvio:
Kun otetaan saannot mukaan kuvioon, N6 on hinnaltaan ehkä luokkaa n. 60% N5n hinnasta, ja 4N ehkä n. 110% N5n hinnasta. Kun lasketaan sen piin hintaan, normalisoituna N5-prosessille saadaan normalisoidut hinnat suurínpiirtein:

7900XTX 439
4070ti 323
4080 417
4090 670

Lisäksi 7900XTX käyttää selvästi halvempia muisteja, tuo 225 mm^2 osuus on 225mm^2 eikä jotain vähemmän sen takia että siellä on isompi välimuisti ja leveämpi muistiväylä että selvitään niillä hitaammilla (ja halvemmilla) muisteilla.

Navi 32 tulee sitten olemaan pinta-alaltaan n. 205 + 150 mm^2 , normalisoitu hinta-arvio n. 300, piilastu halvempi valmistaa kuin 4070ti
 
Eipä sillä ole väliä, vaan päinvastoin. Mun se ei ole monoliitti, niin sillä on hitaampia väyliä osien välillä ja palasille pitää tehdä vielä välialusta, jolle ne liimaillaan ja joka on mutkikas ja kallis.

höpöhöpö.

Kalliin interposerin tarvii vain jos piilastujen välille tarvitaan tai halutaan todella leveätä väylää.

AMDn RDNA3-arkkitehtuurin hajautetussa muistijärjestelmässä minkään piilastujen väliin ei tarvita niin leveitä väyliä, että tarvittaisiin kallista interposeria.

Chipletit vain eivät nyt oikein ole osoittaneet kilpailukykyä GPU puolella.

Ne eivät myöskään ole osoittautuneet epäkilpailukykyisiksi.

AMDn ratkaisu on oikein järkevä valmistuskustannusten kannalta, eikä siinä ole mitään merkittäviä suorituskykyhaittoja. Lisääntyneet viiveet muistiin eivät GPU-käytössä juurikaan haittaa.

Sillä, että AMDllä on huonompi säteenjäljityssuorituskyky ei ole mitään tekemistä minkään "chiplettien" kanssa. Sillä on eniten tekemistä sen kanssa, että
1) BVH-puun läpikäynti tehdään AMDllä softalla, nvidialla raudalla
2) AMDn ajurit säteenjäljitykseen liittyen ovat tällä hetkellä selvästi huonommin optimoidut kuin nVidian ajurit.

Jos oletetaan, että AMD ei ole tyrinyt muuten, niin AMD:n pitäisi tehdä jotain 1,8X piitä vievä hirviö, jotta pystyisi kilpailemaan 4090:n kanssa, eli n1095mm2 piitä sisältävä GPU.
Lisäksi taitaa virtaakin kulua melkoisesti, joten olisi melkoisen tajuton keittolevy se piiri sitten..

Ei pitäisi. Jotta AMD pääsisi kilpailukykyiseksi, sen pitäisi saada ajurinsa parempaan kuntoon mm.
1) säteenjäljitykseen liittyvien asioiden kuten puunrakennuksen osalta
2) shader-kääntäjän käskyskedulerin osalta että RDNA3n tuplakertojat saataisiin useammin käyttöön.

Ja sitten kun nämä olisi kunnnossa, AMD selviäisi paljon nVidiaa pienemmällä piilastulla, koska muistiohjaimet ja L3-välimuisti on eri piilastuilla.

Se olisi paljon vähemmän "hirviö" kuin mitä 4090 on.
 
Viimeksi muokattu:
Keskimäärinhän 7900 XTX on säteenseuranta päällä nopeampi kuin 4070 ti, taitaa Cyberpunk olla ainoita isompia poikkeuksia.

Puhtaassa säteenseurannassa 4070 Ti todella selkeästi nopeampi, kun 7900XTX. Toki 7900XTX on nopeampi monissa peleissä, missä RT:tä käytetty kevyesti, koska on puhtaassa rasteroinnissa kuitenkin selkeästi nopeampi.
 
höpöhöpö.

Kalliin interposerin tarvii vain jos piilastujen välille tarvitaan tai halutaan todella leveätä väylää.

AMDn RDNA3-arkkitehtuurin hajautetussa muistijärjestelmässä minkään piilastujen väliin ei tarvita niin leveitä väyliä, että tarvittaisiin kallista interposeria.



Ne eivät myöskään ole osoittautuneet epäkilpailukykyisiksi.

AMDn ratkaisu on oikein järkevä valmistuskustannusten kannalta, eikä siinä ole mitään merkittäviä suorituskykyhaittoja. Lisääntyneet viiveet muistiin eivät GPU-käytössä juurikaan haittaa.

Sillä, että AMDllä on huonompi säteenjäljityssuorituskyky ei ole mitään tekemistä minkään "chiplettien" kanssa. Sillä on eniten tekemistä sen kanssa, että
1) BVH-puun läpikäynti tehdään AMDllä softalla, nvidialla raudalla
2) AMDn ajurit säteenjäljitykseen liittyen ovat tällä hetkellä selvästi huonommin optimoidut kuin nVidian ajurit.



Ei pitäisi. Jotta AMD pääsisi kilpailukykyiseksi, sen pitäisi saada ajurinsa parempaan kuntoon mm.
1) säteenjäljitykseen liittyvien asioiden kuten puunrakennuksen osalta
2) shader-kääntäjän käskyskedulerin osalta että RDNA3n tuplakertojat saataisiin useammin käyttöön.

Ja sitten kun nämä olisi kunnnossa, AMD selviäisi paljon nVidiaa pienemmällä piilastulla, koska muistiohjaimet ja L3-välimuisti on eri piilastuilla.

Se olisi paljon vähemmän "hirviö" kuin mitä 4090 on.
AMDllä on ollut aikaa hieroa ihmeajureitaan nyt jo reilusti. Näköjään nykyversio AMD:n raudasta ei vain pysty parempaan.
Luonnollisesti piilastujen koko lasketaan yhteen, kun vertaillaan koko GPU:ta.

Onkohan AMD:ltä lähtenyt ajutiimistä osaavaa porukkaa pois ja homma jauhaa nyt pahasti paikoillaan..(Jos raudassa ei kerran ole vikaa) Joku kusee jokatapauksessa pahasti.
 
Onhan Nvidian softatiimi varmasti moninkertainen AMD:n vastaavaan nähden sisältäen siis tiimit jotka rakentaa ajureita tai skaalaimia yms näytönohjaimiin liittyvää. Odotin muutenkin että rdna3 toisi reilusti enemmän säätenseurantatehoa, mutta vaikuttaa että piirissä on aiempaan verrattuna vain pieniä parannuksia plus chiplet-rakenne. Ei oikein vakuuta, saa nähdä mitää seuraava revisio tuo tullessaan.

Ei sinänsä eipä tuo kovin hyvältä näytä nvidian 4000-sarjakaan, joten tämä sukupolvi tulee aika helposti skipattua.
 
Eipä sillä ole väliä, vaan päinvastoin. Mun se ei ole monoliitti, niin sillä on hitaampia väyliä osien välillä ja palasille pitää tehdä vielä välialusta, jolle ne liimaillaan ja joka on mutkikas ja kallis.
Chipletit vain eivät nyt oikein ole osoittaneet kilpailukykyä GPU puolella. Jos oletetaan, että AMD ei ole tyrinyt muuten, niin AMD:n pitäisi tehdä jotain 1,8X piitä vievä hirviö, jotta pystyisi kilpailemaan 4090:n kanssa, eli n1095mm2 piitä sisältävä GPU.
Lisäksi taitaa virtaakin kulua melkoisesti, joten olisi melkoisen tajuton keittolevy se piiri sitten..

No on taas sulla jutut...

katsellaampas ihan transistori määrää:
Navi 31 = Transistors 57,700 million ja Die Size 529 mm²
AD102 = Transistors 76,300 million ja Die Size 609 mm²

Tuossa on yli 32% ero transistorien määrässä, joten AMD olisi voinut tehdä Navi 31:stä 126CU:ta sisältävän sirun nykyisen 96CU:n sijaan jolloin oltaisiin oltu transistori määrässä about samalla viivalla. Ja kun 4090 ei ole 32% nopeampi, niin tuollaista hypoteettista 126CU:n sirua ei myöskään tarttisi ajaa niin korkeilla kelloilla mitä nyt ajetaan jolloin se ei veisi virtaakaan niin älyttömästi enemmän.
Navi 31 GCD Die Size 304.35 mm² ja tuohon kun lisätään 32 pinnaa niin saadaan 401,74 mm², mutta todellisuudessa se olisi pienempi koska muistikaistaa tuohon ei tarttis lisää, ainoastaan nopeampaa muistia jota käsittääkseni on tarjolla. Siihen varmaan olisi voinut pari CU:ta lisää laittaa ja oltaisiin edelleen transistori budjetissa.
Tälle kuvitteelliselle härvelille olisi tullut kokonaisuutena kokoa 636,86 mm² joka ei ole kovinkaan paljoa enemmän mitä AD102. Vajaa 3%. Vastaavasti se olisi ollut 18,5% suurempi kuin nykyinen Navi 31.

AMD ei vaan syystä taikka toisesta tehnyt tuon kokoista sirua. Noi suunnitelmathan on lyöty lukkoon vuosia sitten, ehkä silloin ei ole osattu ennakoida että nvidia tekee noin ison sirun kuin teki.

AMDllä on ollut aikaa hieroa ihmeajureitaan nyt jo reilusti. Näköjään nykyversio AMD:n raudasta ei vain pysty parempaan.
Luonnollisesti piilastujen koko lasketaan yhteen, kun vertaillaan koko GPU:ta.

Onkohan AMD:ltä lähtenyt ajutiimistä osaavaa porukkaa pois ja homma jauhaa nyt pahasti paikoillaan..(Jos raudassa ei kerran ole vikaa) Joku kusee jokatapauksessa pahasti.

Ajuritiimin resurssit ei ole loputtomat ja AMD on aika pitkällä takamatkalla. Selvästi siellä on focus ollut nyt tuolla ROCm puolella jossa on tämän vuoden aikana tehty valtavasti kehitystä, samoiten on tehty isoja harppauksia sen härvelin kanssa jolla CUDA koodi voidaan lennossa kääntää.

En yhtään ihmettele että panostaavat nyt tuonne ROCm puolelle kun toi AI kiima on päällä ja ovat julkaisseet sellaista rautaa (Mi300) joka on ihan varteenotettava kilpailija nvidian leluille. Numeroita ei ole vielä näkynyt, mutta AMD:lta saa tuotetta jossa isompi muistikapasiteetti joka tarkoittaa että voidaan entistä isompia malleja reenata. Hopper 96GB vs Mi300 192GB.
 
Viimeksi muokattu:
Voi olla softapuolen ja tutkimuspuolen asioiden lopputulos muustakin kuin rahasta kiinni. Ei nokia saanut tehtyä iphonea vaikka symbian ja feature luuri boomin aikana rahasta ei ollut puutetta.

Softa on monelle rautafirmalle todella iso kipupiste. Softa ja rauta kovin erilaisia asioita. Johto ei välttämättä ymmärrä molempia ja/tai firman kulttuuri taivu.
 
Aika rajusti lisää nopeutta FSR3:lla
AMD-FSR3-FORSPOKEN-PERFORMANCE.jpg


Mitenkähän kuraa on sitten kuvanlaatu / viiveet...
 
Tammikuussa tulossa AMD ajureihin Fluid Motion Frames ja toimii kaikissa DX11/DX12 peleissä kaikilla? RDNA korteilla.

Jos laatu ei ole ihan hirveää kuraa niin tuohan voi olla esim. läppäreille integroidulla RDNA2 näyttiksellä aika hyvä myyntivaltti?
 

Jokohan tolla saataisiin ne huhut mitä täälläkin foorumeilla pyörii loppumaan.
Eli:
- AMD ei estä DLSS:n käyttöä, jos heidän sponsoroimansa kehittäjä kysyy saako laittaa AMD sanoo että saa laittaa.
- AMD olettaa ja pyytää, mutta ei vaadi, että sponsoroitu kehittäjä priorisoi AMD:n teknologioita
 
Aika rajusti lisää nopeutta FSR3:lla

Mitenkähän kuraa on sitten kuvanlaatu / viiveet...
Ihan saman verran kuin DLSS 3:lla, yksi lisäframe väleihin. Tossa vasemman lukemassa on kaikki pois päältä, oikealla kaikki päällä, eli myös skaalauksen tuoma parannus sen fluid motion framesin lisäksi.
 

Jokohan tolla saataisiin ne huhut mitä täälläkin foorumeilla pyörii loppumaan.
Eli:
- AMD ei estä DLSS:n käyttöä, jos heidän sponsoroimansa kehittäjä kysyy saako laittaa AMD sanoo että saa laittaa.
- AMD olettaa ja pyytää, mutta ei vaadi, että sponsoroitu kehittäjä priorisoi AMD:n teknologioita

Kyllä tuosta paistaa läpi vielä sellainen lakimiesvastaus. Oliko tilanne sama muutama kuukausi sitten kun asia tuli esiin? Miksi kehittäjien täytyy kysyä AMD:ltä että voivatko lisätä DLSS tukea? Muuttuuko kahisevan määrä? Miksi tätä vastausta piti odottaa monta kuukautta? Sopivasti viikko ennen julkaisua etteivät varmasti ehtisi laittaa muita skaalaustekniikoita.

Kun katsoo tätä listaa niin kyllä tuossa selvästi näkyy kenen sponsoroimissa peleissä ei tueta kuin yhtä skaalaustekniikkaa. Ei ole sattumaa. En usko että sopimuksessa on suoraan kielletty, mutta "They wouldnt dare, because of the implication" Fibaa tuosta tulee.
 
Kyllä tuosta paistaa läpi vielä sellainen lakimiesvastaus. Oliko tilanne sama muutama kuukausi sitten kun asia tuli esiin? Miksi kehittäjien täytyy kysyä AMD:ltä että voivatko lisätä DLSS tukea? Muuttuuko kahisevan määrä? Miksi tätä vastausta piti odottaa monta kuukautta? Sopivasti viikko ennen julkaisua etteivät varmasti ehtisi laittaa muita skaalaustekniikoita.

Kun katsoo tätä listaa niin kyllä tuossa selvästi näkyy kenen sponsoroimissa peleissä ei tueta kuin yhtä skaalaustekniikkaa. Ei ole sattumaa. En usko että sopimuksessa on suoraan kielletty, mutta "They wouldnt dare, because of the implication" Fibaa tuosta tulee.

Kyllähän tuo lista sponsoroiduista peleistä näyttää suoraan, mistä on kyse.
 
Kyllähän tuo lista sponsoroiduista peleistä näyttää suoraan, mistä on kyse.
Jos kyse olisi sitä siellä ei olisi AMDn sponsoroimia pelejä DLSSllä.
Tää ei eroa nykypäivän sometuomioistuimesta näköjään ollenkaan. Yhdessä päätettiin että se on näin koska ei kerran firmakaan kommentoi. Sitten kun kommentoi syytetään että valehtelevat koska yhdessä jo päätettiin miten asia on koska eivät aiemmin kommentoineet.
 
Jos kyse olisi sitä siellä ei olisi AMDn sponsoroimia pelejä DLSSllä.
Tää ei eroa nykypäivän sometuomioistuimesta näköjään ollenkaan. Yhdessä päätettiin että se on näin koska ei kerran firmakaan kommentoi. Sitten kun kommentoi syytetään että valehtelevat koska yhdessä jo päätettiin miten asia on koska eivät aiemmin kommentoineet.

En väitä että AMD olisi valehdellut. Lainauksesi mukaan "AMD ei estä DLSS:n käyttöä, jos heidän sponsoroimansa kehittäjä kysyy saako laittaa AMD sanoo että saa laittaa." Tämä on tietenkin totta, kun nähdään että 17% AMD:n sponsoroimista peleistä kuitenkin tarjosi tuen myös DLSS:lle. Miksi kuitenkin niin harva? Etenkin kun DLSS-kykenevä kortti löytyy suurelta osalta pelin potentiaalisista ostajista (lähde: steam hardware survey) ja kun DLSS2 laatu on ollut jo vuosia parempi kuin FSR laatu (Iähde: lukuisat tekniikka-aiheiset uutisoijat ja youtube-kanavat). Jos pelin kehittäjä haluaisi tarjota pelaajilleen parhaita ominaisuuksia, löytyisi DLSS-tuki pelistä.

Sen sijaan juuri AMD:n sponsoroimissa peleissä jostain syystä valtaosasta tuki puuttuu. Ei ole kovin kaukaa haettua arvella, että sponsori on vaikuttanut kehittäjien päätökseen skaalaustuen valinnasta. Etenkin kun lainauksen mukaan lupaa DLSS-tukeen täytyy erikseen AMD:lta kysyä. Vaikuttaa siis siltä, että oletuksena on että AMD:n sponsoroimaan peliin tulee vain FSR eikä DLSS:ää, ja moni kehittäjä on varmasti arka lähteä kyselemään sponsorilta että eikö nyt kuitenkin voisi tuon DLSS-tuenkin sinne peliin laittaa.


Eli ei niinkään vaikuta siltä että olisi ollut joku ehdoton kielto, vaan enemmänkin painostukselta näyttää. Lähtökohtaisesti toki tekkiaiheisilla keskustelualueilla kommentoijien asenne on vahvasti AMD:n puolelle kallellaan, todennäköisesti koska AMD kannattaa enemmän open source -puolta. Asenteissa AMD on "hyvä" firma ja näin ollen kaikki sen maineeseen mahdollisesti haitallisesti vaikuttava pyritään kieltämään.
 
Yhdessä päätettiin että se on näin koska ei kerran firmakaan kommentoi.
Alunperinhän asiasta nousi haloo omaa kieltään puhuvan track recordin perusteella. Firmalta kommentin kysyminen tuli järjestyksessä vasta tämän jälkeen.

Kommentoimattomuus on mielestäni ymmärrettävää, koska sponsorisopimuksella on toinenkin osapuoli kuin AMD ja bussin alle ei ole bisneskumppania hyvä heittää.

Sitten kun kommentoi syytetään että valehtelevat koska yhdessä jo päätettiin miten asia on koska eivät aiemmin kommentoineet.
Voihan Azor aikalailla tottakin tuossa puhua sanoessaan, että AMD vain pyytää ja odottaa ominaisuuksiensa priorisoitia. Se jättää vielä epäselväksi mitä tämä tarkemmin tarkoittaa. Priorisoinnin pyytäminen voi esimerkiksi olla kaunisteltu ilmaisu sille, että AMD ilmaisee toivovansa, että pelistä jätetään kilpailijoiden ominaisuudet pois. Tämä ei nyt ihan viatonta toimintaa ainakaan omasta mielestäni olisi.
 
Alunperinhän asiasta nousi haloo omaa kieltään puhuvan track recordin perusteella. Firmalta kommentin kysyminen tuli järjestyksessä vasta tämän jälkeen.
Ei, vaan koska Starfieldiin ei ollut tulossa, sitten joku huomasi että osassa AMD:n sponssaamia pelejä on vain FSR, mikä riitti todistamaan että AMD ihan selvästi kieltää sponsoroimiaan kehittäjiä lisäämästä DLSS:ää. Vaikka siellä on myös ne pelit missä on DLSS. Ja vaikka NVIDIAn sponsoroimia pelejä on mistä uupuu FSR niin se ei ole sama asia koska syyt.

Kommentoimattomuus on mielestäni ymmärrettävää, koska sponsorisopimuksella on toinenkin osapuoli kuin AMD ja bussin alle ei ole bisneskumppania hyvä heittää.
Se ei vaan kelvannut foorumeilla jossa päätettiin että koska ei kommentoi niin varmasti on AMD:n kieltänyt.

Voihan Azor aikalailla tottakin tuossa puhua sanoessaan, että AMD vain pyytää ja odottaa ominaisuuksiensa priorisoitia. Se jättää vielä epäselväksi mitä tämä tarkemmin tarkoittaa. Priorisoinnin pyytäminen voi esimerkiksi olla kaunisteltu ilmaisu sille, että AMD ilmaisee toivovansa, että pelistä jätetään kilpailijoiden ominaisuudet pois. Tämä ei nyt ihan viatonta toimintaa ainakaan omasta mielestäni olisi.
Syyllinen tiedetään, rikos pitää vaan keksiä. Näemmä sama linja jatkuu.
 
DLSS ehtoihin kuuluu että pitää olla Nvidian logot jne... peleissä.

Poikkeusta voi pyytää tuohon, mutta tuskin jokainen pelin kehittäjä alkaa anomaan Nvidialta lupaa laittaa DLSS peliin jossa on AMD logot...
 
Ei, vaan koska Starfieldiin ei ollut tulossa, sitten joku huomasi että osassa AMD:n sponssaamia pelejä on vain FSR, mikä riitti todistamaan että AMD ihan selvästi kieltää sponsoroimiaan kehittäjiä lisäämästä DLSS:ää. Vaikka siellä on myös ne pelit missä on DLSS. Ja vaikka NVIDIAn sponsoroimia pelejä on mistä uupuu FSR niin se ei ole sama asia koska syyt.

17% AMD:n sponsoroimista peleistä löytyy DLSS ja 83% ei löydy.
87% NVIDIAn sponsoroimista peleistä löytyy FSR ja 13% ei löydy.
Ymmärränkö oikein, että rinnastat nämä kaksi tilannetta toisiinsa, kun kyseessä on prosenttien valossa lähestulkoon päinvastainen tilanne?
 
DLSS ehtoihin kuuluu että pitää olla Nvidian logot jne... peleissä.

Poikkeusta voi pyytää tuohon, mutta tuskin jokainen pelin kehittäjä alkaa anomaan Nvidialta lupaa laittaa DLSS peliin jossa on AMD logot...
Onko sielä jotain pykäliä sopimuksessa että And ja Nvidia logo ei voisi olla samassa pelissä ?
 
17% AMD:n sponsoroimista peleistä löytyy DLSS ja 83% ei löydy.
87% NVIDIAn sponsoroimista peleistä löytyy FSR ja 13% ei löydy.
Ymmärränkö oikein, että rinnastat nämä kaksi tilannetta toisiinsa, kun kyseessä on prosenttien valossa lähestulkoon päinvastainen tilanne?

Vaatiiko AMD että peleissä joissa on FSR pitää olla AMD logot?

Jos ei niin tuo jo selittää eron...
 
17% AMD:n sponsoroimista peleistä löytyy DLSS ja 83% ei löydy.
87% NVIDIAn sponsoroimista peleistä löytyy FSR ja 13% ei löydy.
Ymmärränkö oikein, että rinnastat nämä kaksi tilannetta toisiinsa, kun kyseessä on prosenttien valossa lähestulkoon päinvastainen tilanne?
En rinnasta mitään prosentteja mihinkään. Jos AMDn sponsorisopimus kieltäisi DLSS:n siellä ei olisi poikkeuksia. NVIDIAn poikkeukset taas osoittavat että tekosyy "se on helppo lisätä" ei päde silläkään puolella, miksi se pätisi toisella?
 
Ei, vaan koska Starfieldiin ei ollut tulossa
Asiasta on ollut ihmettelyä redditeissä ymv. ennen kesäkuista Starfield juttuakin, mutta Starfieldin jälkeen nousi isompi haloo.

sitten joku huomasi että osassa AMD:n sponssaamia pelejä on vain FSR, mikä riitti todistamaan että AMD ihan selvästi kieltää sponsoroimiaan kehittäjiä lisäämästä DLSS:ää. Vaikka siellä on myös ne pelit missä on DLSS. Ja vaikka NVIDIAn sponsoroimia pelejä on mistä uupuu FSR niin se ei ole sama asia koska syyt.
Oleellista tässä on se, kuinka isossa osassa peleistä tätä yhden valmistajan ominaisuuksiin rajaamista tapahtuu. On ihan uskottavaa, että silloin tällöin nähdään satunnaisia tapauksia joissa pelintekijä on laittanut omista syistään vain yhden valmistajan skaalauksen. Kun taas yhden valmistajan sponssaamissa peleissä suht isolla prosentilla muiden valmistajien skaalausominaisuudet loistavat poissaolollaan, alkavat epäilykset tarkoituksenmukaisesta toiminnasta heräämään.

Syyllinen tiedetään, rikos pitää vaan keksiä. Näemmä sama linja jatkuu.
Heikosti osuva luonnehdinta viestistäni, että tässä nyt rikosta yritettäisiin keksiä. Tosiassa tilanne on se, että vahinko on havaittu ja yritetään selvittää onko kyse tahallisuudesta vai ei.

Itsehän en sanonut että Azor valehtelee ja on syyllinen. Sanoin vain, ettei hänen varovaisesta kommentistaan voi mielestäni mitään tyhjentäviä johtopäätöksiä asiasta tehdä. Suuntaan tai toiseen.
 
Oleellista tässä on se, kuinka isossa osassa peleistä tätä yhden valmistajan ominaisuuksiin rajaamista tapahtuu. On ihan uskottavaa, että silloin tällöin nähdään satunnaisia tapauksia joissa pelintekijä on laittanut omista syistään vain yhden valmistajan skaalauksen. Kun taas yhden valmistajan sponssaamissa peleissä suht isolla prosentilla muiden valmistajien skaalausominaisuudet loistavat poissaolollaan, alkavat epäilykset tarkoituksenmukaisesta toiminnasta heräämään.

Yhden valmistajan skaalaus joka kuitenkin toimii kaikkien valmistajien raudalla toisin kun erään toisen valmistajan skaalaus joka on rajattu vain omille uusimmille korteille...

Jos AMD rajoittaisi sponsoroimissaan peleissä skaalauksen vain AMD:n uusimmille korteille tämä nettiraivo olisi jotenkin ymmärrettävää...
 
Ihmettelin jo toisessa ketjussa samaa, mutta kysytään nyt täälläkin vielä kommenttia. Ainut järkevä kortti, joka ei maksa ihan hemmetisti, mutta ois kuitenkin tehokas ja varmaan kohtuu pitkäikäinen, vaikuttais olevan tuo Asuksen mikä lie OC Gaming 7900XTX. Siitä sais satkun vielä hinnasta veks Asuksen cashbackilla hinnan jäädessä vähän tonnin päälle. Ts. onko tuo nyt ihan älyvapaa ostos, jos tota tonnin luokkaa kuitenkin korttiin laittaa? :D

Koska noi Nvidian kortit on lähempänä puoltatoista kiloa kaikki, joista löytää jotain järkeviä revikoita ja tonnin nurkilla menee meikäläisen kipuraja näyttiksen suhteen, kun on vähän kysymysmerkki teenkö minä edes jollain säteenseurannalla mitään, kun nyt rupesin aika impulsiivisesti konetta kasaamaan.
 
Starfieldiä ennen kyllä tätä DLSS puutetta varsinkin ihmeteltiin Jedi Survivorissa, joka UE4 peli. DLSS implementointi olisi sen takia aika triviaalia, mutta ainoastaan modin kautta on DLSS saatavilla.
 
Ihmettelin jo toisessa ketjussa samaa, mutta kysytään nyt täälläkin vielä kommenttia. Ainut järkevä kortti, joka ei maksa ihan hemmetisti, mutta ois kuitenkin tehokas ja varmaan kohtuu pitkäikäinen, vaikuttais olevan tuo Asuksen mikä lie OC Gaming 7900XTX. Siitä sais satkun vielä hinnasta veks Asuksen cashbackilla hinnan jäädessä vähän tonnin päälle. Ts. onko tuo nyt ihan älyvapaa ostos, jos tota tonnin luokkaa kuitenkin korttiin laittaa? :D

Koska noi Nvidian kortit on lähempänä puoltatoista kiloa kaikki, joista löytää jotain järkeviä revikoita ja tonnin nurkilla menee meikäläisen kipuraja näyttiksen suhteen, kun on vähän kysymysmerkki teenkö minä edes jollain säteenseurannalla mitään, kun nyt rupesin aika impulsiivisesti konetta kasaamaan.
Ei siinä varsinaisesti vikaan mene ostaa kumman tahansa valmistajan kortin, ellei ole ennakkoon tiedossa jotain spesifiä asiaa mihin käy vain yhden valmistajan kortti.
 
Koska noi Nvidian kortit on lähempänä puoltatoista kiloa kaikki, joista löytää jotain järkeviä revikoita ja tonnin nurkilla menee meikäläisen kipuraja näyttiksen suhteen, kun on vähän kysymysmerkki teenkö minä edes jollain säteenseurannalla mitään, kun nyt rupesin aika impulsiivisesti konetta kasaamaan.

Tähän ei oikein objektiivista vastausta voi antaa, se riippuu niin paljon siitä kuinka paljon itse kukin painoarvoa antaa RT-ominaisuuksille. Itse peukutan sen RX 7900 XTX:n puolesta. Kelpo hinta/laatusuhde ja RT-kyky menettelee.

Oma, subjektiivinen mielipiteeni on että Ray Tracing ei vielä(kään) ole pakollinen ominaisuus näytönohjaimissa. Kiva lisuke, mutta asettaisin raa'an rasterointikyvyn yhä tämän (ja seuraavankin) GPU-sukupolven tärkeimmäksi ominaisuudeksi. Sitten kun RT:n päällekytkeminen joko haukkaa kortin muusta suorituuskyvystä enää jotain 1-5% tai se tarjoilee selkeästi paremman visuaalisen elämyksen, voidaan puhua universaalisti suositeltavasta ominaisuudesta. Mutta että siihen pisteeseen päästään, tarvitaan vielä kehitystyötä ja viilausta sekä GPU-valmistajien että pelisuunnittelijoiden taholla. Kyllä sinne vielä päästään, mutta siihen menee aikaa.
 
Tähän ei oikein objektiivista vastausta voi antaa, se riippuu niin paljon siitä kuinka paljon itse kukin painoarvoa antaa RT-ominaisuuksille. Itse peukutan sen RX 7900 XTX:n puolesta. Kelpo hinta/laatusuhde ja RT-kyky menettelee.
Joo, on tosi vaikea löytää korttia, joka ei olis (ehkä isokin) kompromissi jossain. Viimeistään tulee sit älytön hinta vastaan noissa Nvidian lippulaivoissa ja rupeaa tosiaan tökkäiseen jo 4080-sarjan korteissa.

Mut joo, samaan olen kallistumassa, mitä tuossa kirjoittelit, että jos nyt ei jotain tosi hyvää tarjousta tule vastaan jostain Nvidian 4080-sarjan kortista, niin tuolla varmaan mentävä. Ja varmaan tuokin hillitön overkill itelle, mutta tätä tää aina on, kun rupeaa jotain harrastuskamaa ostamaan :D
 
DLSS ehtoihin kuuluu että pitää olla Nvidian logot jne... peleissä.
Oisko tälle jotain lähdettä? Kuulostaa erikoiselta, että asettaisivat turhan ylimääräisen vaatimuksen DLSS:n implementoinnille, kun haluavat kuitenkin tuon mahdollisimman moneen peliin, jotta voivat markkinoida laajalla tuella.
 

Jokohan tolla saataisiin ne huhut mitä täälläkin foorumeilla pyörii loppumaan.
Eli:
- AMD ei estä DLSS:n käyttöä, jos heidän sponsoroimansa kehittäjä kysyy saako laittaa AMD sanoo että saa laittaa.
- AMD olettaa ja pyytää, mutta ei vaadi, että sponsoroitu kehittäjä priorisoi AMD:n teknologioita

No niin. Tämähän on juuri niin kuin aiemmin kirjoitin, että jos ei kiellä niin hyvin vahvasti suosittelee/painostaa muiden teknologioiden ohittamista.

On se AMD kyllä oikea laupias samarialainen, kun antaa pitkin hampain luvan, jos devaaja hattu päässä anelee.

Starfield ei edes ole se isoin juttu, vaan nuo Unreal 4 Engine pelit, joissa on ihan suora DLSS plugari. AMD painostus, eikun anteeksi "suosittelu" on ainoa järkevä syy, miksi niistä puuttuu DLSS tuki.

Siellä on varmaan pari viikkoa pohdittu PR puoellla, että mitä hemmettiä sitä vastaisi, kun ei voi suoraan sanoa, että ei katsota hyvällä DLSS AMD peleissä.
 
No niin. Tämähän on juuri niin kuin aiemmin kirjoitin, että jos ei kiellä niin hyvin vahvasti suosittelee/painostaa muiden teknologioiden ohittamista.

On se AMD kyllä oikea laupias samarialainen, kun antaa pitkin hampain luvan, jos devaaja hattu päässä anelee.

Starfield ei edes ole se isoin juttu, vaan nuo Unreal 4 Engine pelit, joissa on ihan suora DLSS plugari. AMD painostus, eikun anteeksi "suosittelu" on ainoa järkevä syy, miksi niistä puuttuu DLSS tuki.

Siellä on varmaan pari viikkoa pohdittu PR puoellla, että mitä hemmettiä sitä vastaisi, kun ei voi suoraan sanoa, että ei katsota hyvällä DLSS AMD peleissä.
Eksaktisti juuri näin. Tämä maistuu juuri samalle kun maahantuoja/valmistaja hyvin vahvasti suosittelee että myytte tuotteen tähän hintaan. Virallisesti toki ei pakota, koska se on aika monessa maassa (meilläkin) kiellettyä kartellina. Suositus on vaan niin vahva että kukaan ei myy väärään hintaan.
 
Starfield ei edes ole se isoin juttu, vaan nuo Unreal 4 Engine pelit, joissa on ihan suora DLSS plugari. AMD painostus, eikun anteeksi "suosittelu" on ainoa järkevä syy, miksi niistä puuttuu DLSS tuki.

Siellä on varmaan pari viikkoa pohdittu PR puoellla, että mitä hemmettiä sitä vastaisi, kun ei voi suoraan sanoa, että ei katsota hyvällä DLSS AMD peleissä.

Mistä "suorasta DLSS plugarista" nyt oikein puhut?

Ei se toimi siten, että vaan painetaan yhtä nappia ja samalla sekunnilla DLSS toimii, vaikka sille pelienginelle joku plugari olisikin.

Vaan sen DLSS:n neuroverkon kertoimet pitää opettaa aina kyseisen pelin graffojen mukaan, koska vaikka engine olisi samakin, eri peleissä on silti hyvin erilaisia tekstuureita ja hyvin erilaista geometriaa. Tämä neuroverkon opettaminen saattaa vaatia hyvin suuren määrän laskentaa.


edit: näköjään tämä pätikin vain DLSSn ykkösversioon, myöhemmät toimii yhdellä nvidian treenaamalla neuroverkolla. Ja nvidia sitten itse treenaa sitä suurella joukolla pelejä. Ja tuo plugari tosiaan ilmeisesti toimittaa DLSS-toteutukselle ne liikevektorit mitä se tarvii.

Mutta on toki aina kiva keksiä salaliittoteorioita ja syytellä laitevalmistajia perusteettomin syyytöksin.

ja se on yhdyssana, DLSS-plugari väliviivalla.
 
Viimeksi muokattu:
Vaan sen DLSS:n neuroverkon kertoimet pitää opettaa aina kyseisen pelin graffojen mukaan, koska eri peleissä on hyvin erilaisia tekstuureita ja geometriaa. Tämä neuroverkon opettaminen saattaa vaatia hyvin suuren määrän laskentaa.
Ei pidä paikkaansa. Asia oli noin DLSS 1.0:n suhteen, mutta yli 3 vuotta sitten julkaistun DLSS 2.0:n kanssa tuota pelikohtaista treenaamista ei ole enää tarvinnut tehdä.

Tuosta vaikka vahvistukseksi Anandtechin artikkeli asiasta ajalta jolloin 2.0 julkaistiin:

 
Tähän ei oikein objektiivista vastausta voi antaa, se riippuu niin paljon siitä kuinka paljon itse kukin painoarvoa antaa RT-ominaisuuksille. Itse peukutan sen RX 7900 XTX:n puolesta. Kelpo hinta/laatusuhde ja RT-kyky menettelee.

Oma, subjektiivinen mielipiteeni on että Ray Tracing ei vielä(kään) ole pakollinen ominaisuus näytönohjaimissa. Kiva lisuke, mutta asettaisin raa'an rasterointikyvyn yhä tämän (ja seuraavankin) GPU-sukupolven tärkeimmäksi ominaisuudeksi. Sitten kun RT:n päällekytkeminen joko haukkaa kortin muusta suorituuskyvystä enää jotain 1-5% tai se tarjoilee selkeästi paremman visuaalisen elämyksen, voidaan puhua universaalisti suositeltavasta ominaisuudesta. Mutta että siihen pisteeseen päästään, tarvitaan vielä kehitystyötä ja viilausta sekä GPU-valmistajien että pelisuunnittelijoiden taholla. Kyllä sinne vielä päästään, mutta siihen menee aikaa.

Kyllähän se säteenjäljitys tarjoaa jo todella selkeästi paremman visuaalisen elämyksen:

minecraft-rtx-beta-ray-tracing-thumb-680x381.jpg


minecraft-rtx-beta-ray-tracing2-scaled.jpg



minecraft-rtx-beta-ray-tracing11-scaled.jpg


minecraft-rtx-beta-ray-tracing14-scaled.jpg
 
Mistä "suorasta DLSS plugarista" nyt oikein puhut?

Ei se toimi siten, että vaan painetaan yhtä nappia ja samalla saattaa vaatia hyvin suuren määrän laskentaa.

Mutta on toki aina kiva keksiä salaliittoteorioita ja syytellä laitevalmistajia perusteettomasti.

ja se on yhdyssana, DLSS-plugari väliviivalla.

Kyllä se DLSS2 vaan aikalailla toimii sen UE4 -plugarin kautta juurikin noin. Ei tarvi mitään pelikohtaista treenamistsa enää.

Tässä tarvi mitään teorioita keksiä, kun tilastolliset faktat ja AMD:n omat lausunnot suoraan kertoo, miten homma menee.

:sclap:
 
Viimeksi muokattu:

Statistiikka

Viestiketjuista
259 361
Viestejä
4 510 361
Jäsenet
74 356
Uusin jäsen
bossteme

Hinta.fi

Back
Ylös Bottom