Virallinen: NVIDIA vs AMD (vs Intel) keskustelu- ja väittelyketju

  • Keskustelun aloittaja Keskustelun aloittaja Sampsa
  • Aloitettu Aloitettu
Onhan tuo FSR aivan hirveän näköinen.

Sitä voi miettiä että olisiko nvidia tuhlannut piipinta-alaa kiihdytinominaisuuteen jonka voisi tehdä samalla tavalla ilman...

Tuossa Aveumissa dlss tekee myös artefakteja, tuossa ranteessa olevan aseen/amuletin vaihdossa, ei vain tuon kaliberin suttua. Näyttäisi sille, ettei peliengine anna siitä kunnolla liikevektoreita ja liike on todella haastava: Käden kiertoliike, jossa esiin tulee tavaraa, jota ei ollut edellisessä framessa. DLSS taitaa tuollaisissa tilanteissa painottaa rajusti enemmän skaalaamatonta kuvaa, eli taitaa vetää lähes alkuperäisellä resoluutiolla, eikä edes yritetä tehdä tarkempaa temporaalisen datan avulla.

Tietty tuo on sitä optimointityötä, jota tulee pikkuparannuksina ajanmyötä, kuten se haamukuvien väheneminen ja partikkeliefektien parantaminen julkaisu julkaisulta.
 
DLSS performance oli myöskin aika suttuista (hieman liioiteltuna toki) omaan silmään kun Warzonea pelailin. Quality oli sellainen joka oli vauhdissakin hyvä, 1440p resolla pelatessa (1080p:sta taisi skaalata jos en väärin muista).

Eli suorituskyvystä maksaa tietysti suhteessa laatuun, valitsee sitten kenen tekniikan hyvänsä, FSR tai DLSS.
Warzonessa (2) yleensä suositellaan FSR 2:n käyttöä ennemmin kuin DLSS:ää. Toki parempi ilman kumpaakaan. Ei nuo tekniikat kovin miellyttäviä tuon kaltaisessa pelissä ole, mutta toki jos muuten meinaa framet jäädä tosi alas niin parempi käyttää. Ekana kuitenkin tiputtelisin asetukset minimiin ja viimeisenä vasta nuo päälle.
 
Onhan tuo FSR aivan hirveän näköinen.

Sitä voi miettiä että olisiko nvidia tuhlannut piipinta-alaa kiihdytinominaisuuteen jonka voisi tehdä samalla tavalla ilman...
Kiihdyttimet tehtiin kauan ennean kuin kukaan keksi DLSS:ää, ei sen vuoksi (ja samat laskut voisi laskea ilman kiihdyttimiä, se on korkeintaan hitaampaa ilman niitä, ja niin kauan kuin DLSS pysyy suljettuna kukaan ei voi tietää paljonko)
 
Kiihdyttimet tehtiin kauan ennean kuin kukaan keksi DLSS:ää, ei sen vuoksi (ja samat laskut voisi laskea ilman kiihdyttimiä, se on korkeintaan hitaampaa ilman niitä, ja niin kauan kuin DLSS pysyy suljettuna kukaan ei voi tietää paljonko)
Tuo on vain sinun oma kuvitelmasi vailla mitään faktapohjaa. Voihan ne laskut laskea vaikka helmitaululla.
 
Tuo on vain sinun oma kuvitelmasi vailla mitään faktapohjaa. Voihan ne laskut laskea vaikka helmitaululla.
NVIDIA vaihteli itsekin DLSS 1.x:n aikaan pyöritettiinkö niitä tensoreilla vai CUDA-ytimillä, vasta 2.x:n myötä se vakiintui nykyisen kaltaiseksi ja DLSS 2.x on täysin eri tavaraa kuin 1.x:t.
 
Oli tuosta DLSS2:stä se eka versio Controllissa (1.9 tjsp), joka toimi shadereilla.
NVIDIA vaihteli itsekin DLSS 1.x:n aikaan pyöritettiinkö niitä tensoreilla vai CUDA-ytimillä, vasta 2.x:n myötä se vakiintui nykyisen kaltaiseksi ja DLSS 2.x on täysin eri tavaraa kuin 1.x:t.
Ja kumpikaan näistä väitteistä ei todista etteikö piirin suunnitteluvaiheessa (vuosia aikaisemmin) ole tulevaisuuden käyttöskenarioita suunniteltu ja testailtu.

Piirisuunnittelu ja piipinta-ala on niin järkyttävän kallista ettei kuluttajatuotteeseen ole mahdollista sisällyttää ominaisuuksia ilman tarkkoja visiota.
 
En tiedä kuinka tarkka tuo keskimääräinen viive tuossa nvidian softassa on, mutta se nousi 30:stä vain 40ms kun fg:n kytki päälle ja fps nousi 62.

Eli viive nousee 33% ja FPS nousee 66%. Ymmärrätkö että kolmanneksen nousu viiveeseen on jo aika merkittävä korotus. Normaalistihan se viive tuollaisella FPS nousulla laskisi varmaan tuon about kolmanneksen. Tuossa on lähtökohtana jo niin korkea FPS että tietenkään sitä ei enää noilla nopeuksilla sitä lägiä tunne, mutta sitten kun pyöritään siellä alle 60 ja halutaan FG:llä saada mukamas parempaa kokemusta niin sitten se alkaa tuntumaan.

Toki ihmisiä on erilaisia, toiset ei huomaa ja toiset huomaa sen heti. Vähän sama kuin vielä CRT kuvaputkien ja loisteputkien aikaan tietty herzi määrä ja loistevalaistus sai sen näytön välkkymään ihan helvetin pahasti omiin silmiin mutta ei kaikki sitä huomannu. Töissä monesti tuli tilanteita vastaan että näyttö välkkyy ja kysyin että miten voit työskennellä tuon kanssa niin eivät he kuulemma huomannu mitään ja vaikka nosti näytön herzejä jolloin välkkyminen loppui niin ei ne eroa huomannu.
 
Eli viive nousee 33% ja FPS nousee 66%. Ymmärrätkö että kolmanneksen nousu viiveeseen on jo aika merkittävä korotus. Normaalistihan se viive tuollaisella FPS nousulla laskisi varmaan tuon about kolmanneksen. Tuossa on lähtökohtana jo niin korkea FPS että tietenkään sitä ei enää noilla nopeuksilla sitä lägiä tunne, mutta sitten kun pyöritään siellä alle 60 ja halutaan FG:llä saada mukamas parempaa kokemusta niin sitten se alkaa tuntumaan.

Toki ihmisiä on erilaisia, toiset ei huomaa ja toiset huomaa sen heti. Vähän sama kuin vielä CRT kuvaputkien ja loisteputkien aikaan tietty herzi määrä ja loistevalaistus sai sen näytön välkkymään ihan helvetin pahasti omiin silmiin mutta ei kaikki sitä huomannu. Töissä monesti tuli tilanteita vastaan että näyttö välkkyy ja kysyin että miten voit työskennellä tuon kanssa niin eivät he kuulemma huomannu mitään ja vaikka nosti näytön herzejä jolloin välkkyminen loppui niin ei ne eroa huomannu.
Kyllä nyt itse olen viiveitten kohdalla aika tarkka, esimerkiksi perus 60fps on omasta mielestäni erittäin epämiellyttävää pelata juuri sen viiveen takia.
Jotenkin nyt noista viesteistä paistaa se, että et ole koko ominaisuutta itse testannut ja perustat mielipiteen vain sen mukaan mitä olet lukenut.
 
Kyllä nyt itse olen viiveitten kohdalla aika tarkka, esimerkiksi perus 60fps on omasta mielestäni erittäin epämiellyttävää pelata juuri sen viiveen takia.
Jotenkin nyt noista viesteistä paistaa se, että et ole koko ominaisuutta itse testannut ja perustat mielipiteen vain sen mukaan mitä olet lukenut.
Voi olla, että juuri omalla näytölläsi@60 fps on epämiellyttävän suuri viive, mutta jollain toisella 60 Hz-näytöllä se olisi sinullekin riittävän pieni. Mielestäni ei voi noin yleistää 60 fps:llä olevan liian suuri viive, koska näyttöjen välillä on niin suuria eroja.

Esim. Rtings:
Dell 60 Hz UHD-rutku, 3840 * 2160@60 Hz -> input lag 8,7 ms
"The Dell S2721QS has excellent low input lag, providing a responsive desktop and gaming experience."

vs.

Asus 27" 280 Hz-sähikäinen@60 Hz, 1920 * 1080@60 Hz -> 35,1 ms!
"Unfortunately, the 60Hz input lag is extremely high, making this a poor choice for console gamers."


Sanoit että FG:llä koneesi raportoima viive nousi vain 40 ms:iin. Tuo kuulostaa lähes pelikonsolimaiselta viiveeltä, mikä helposti tuntuisi alkuun häiritsevältä ajosimussa tai ammuskeluhipassa. Kaikkeen tietysti tottuu ja sopeutuu. Vertailun vuoksi kännykän sekuntikellon tuplaklikkaus (käynnistys ja het stop) etusormella otti aikaa ~45-vuotiaalta 60 ms.

Riippuu tietysti pelistä, henkilöstä, fps:stä ja viiveestä, että kannattaako valita nopeampi fps (FG) viiveen kustannuksella.
 

Liitteet

  • Screenshot_20230830-212301.png
    Screenshot_20230830-212301.png
    288,9 KB · Luettu: 11
  • Screenshot_20230830-212434.png
    Screenshot_20230830-212434.png
    251,8 KB · Luettu: 13
  • Screenshot_20230830-211725.png
    Screenshot_20230830-211725.png
    101,5 KB · Luettu: 9
Viiveen nousuhan oli siis vain 10 ms, ja mitattu täysin eri tavalla kuin esim. nuo Rtingsin sitaatit. Esim. tuolla 8.7 ms näytöllä ei edellä tehdyssä testissä tulisi kyseinen lukema. Luvut eivät siis ole keskenään vertailukelpoisia. Jos lähtötilanne on 30 ms ja nousu siitä vain 10 ms mutta fps lähes tuplaantuu, on se monelle varmasti siedettävä hinta maksaa sulavammasta kuvasta.
 
Viiveen nousuhan oli siis vain 10 ms, ja mitattu täysin eri tavalla kuin esim. nuo Rtingsin sitaatit. Esim. tuolla 8.7 ms näytöllä ei edellä tehdyssä testissä tulisi kyseinen lukema. Luvut eivät siis ole keskenään vertailukelpoisia. Jos lähtötilanne on 30 ms ja nousu siitä vain 10 ms mutta fps lähes tuplaantuu, on se monelle varmasti siedettävä hinta maksaa sulavammasta kuvasta.

Tuplaantuminen on kaukana kun nousua on 66%, siinä on vielä 33% jäljellä tuplaantumiseen. Ja 10ms viiveen lisäys 30ms ei ole ihan pieni, se on 33%.

Joten kyllä tää on aika perse edellä puuhun kiipeämistä kun fps nousee mutta myös viiveet nousee kun pitäisi käydä juurikin päinvastoin. FPS kun nousee niin viiveet tippuu.
 
Tuplaantuminen on kaukana kun nousua on 66%, siinä on vielä 33% jäljellä tuplaantumiseen. Ja 10ms viiveen lisäys 30ms ei ole ihan pieni, se on 33%.

Joten kyllä tää on aika perse edellä puuhun kiipeämistä kun fps nousee mutta myös viiveet nousee kun pitäisi käydä juurikin päinvastoin. FPS kun nousee niin viiveet tippuu.

Omaan silmään 66% fps nousu 33% viiveen nousulla vaikuttaa ehdottomasti hyvältä vaihtokaupalta etenkin yksinpeleissä joissa usein kehittäjät ovat jo valmiiksi optimoineet peliä grafiikoiden laadun suuntaan eikä korkea fps edellä. Niihin saa mukavasti lisää sulavuutta tuontasoisella fps nousulla. Nopeatempoisissa räiskinnöissä tai reaktionopeutta vaativissa moninpeleissä ei kukaan tätä ole suositellutkaan käyttämään.
 
Viiveen nousuhan oli siis vain 10 ms, ja mitattu täysin eri tavalla kuin esim. nuo Rtingsin sitaatit. Esim. tuolla 8.7 ms näytöllä ei edellä tehdyssä testissä tulisi kyseinen lukema. Luvut eivät siis ole keskenään vertailukelpoisia. Jos lähtötilanne on 30 ms ja nousu siitä vain 10 ms mutta fps lähes tuplaantuu, on se monelle varmasti siedettävä hinta maksaa sulavammasta kuvasta.
Hyvä tarkennus, etteivät ole vertailukelpoisia lukuja.
En niitä tarkoittanutkaan verrata keskenään. Nuo 30 ja 40 ms eivät enää liittyneet lainaamaani viestiin, vaan sitä edelliseen Dark82:n viestiin. Yritin erottaa eri asioita ylimääräisellä rivinvaihdolla.

Pääpointtini oli oikaista tuo, että Dark82:n liian viiveelliseksi moittima "perus 60 fps" voi tarkoittaa näytöstä riippuen 8,x-35 ms viivettä (Rtings). Mielestäni ei ole mikään "perus", jos kerran joillakin korkeataajuuspelinäytöillä input lag voi olla moninkertainen vs. rehellisellä 60 Hz IPS-näytöllä. Kaikesta päätellen @Dark82 :lla on yli 60 Hz-näyttö, eli hyvin mahdollisesti hänen viiveellinen 60 fps-kokeilunsa liittyy vain oman näyttönsä heikkoon toimintaan ei-natiivitaajuudellaan, eikä sitä silloin voi yleistää.

Vielä tuosta FG-vaihtokaupasta. Sanoit, että kolmasosan suurempi viive on monelle siedettävä hinta fps:n lähes tuplaantumisesta, eli sulavammasta kuvasta. @JiiPee tuossa jo korjasikin, että lähes 100 % olikin 66 % (66,7 %). Jatkan siihen, että sulavuudesta puhuttaessa 99 %-/1 % -minimi on oleellisempi lukema kuin keskimääräinen.

Viiveen kasvu:
40,4 / 30,1 -> +34,2 %

Sulavuuden paraneminen, eli minimit:
109 / 75 -> +45,3 % (kaukana lähes tuplaantumisesta)

Kolmantena pitäisi tarkastella frame timen heittelyä ja piikkejä, mutta niistä ei ollut tietoa. Omaa silmää häiritsee vähemmän oikeasti tasainen 60 fps kuin mikronäykkivä/taajuutta venyttelevä 90-120 fps.

Vaikka frame time ei menisi FG:n kanssa huonommaksi ja 45 % > 34 %, vaihtokaupan kannattavuus riippuu silti henkilöstä, pelistä, fps:stä ja viiveestä. Jos viive on jo valmiiksi lähellä siedettävän ylärajaa, heilahtaa se kolmasosan lisäviiveellä häiritsevän puolelle. Jos samaan aikaan fps oli jo valmiiksi ihan siedettävä, vaihtokauppa ei kannata. Mitä ilmeisimmin Dark82:n viive ei ollut valmiiksi lähellä siedettävän ylärajaa, joten hänelle vaihtokauppa kannatti.
 
Viimeksi muokattu:
Kolmantena pitäisi tarkastella frame timen heittelyä ja piikkejä, mutta niistä ei ollut tietoa. Omaa silmää häiritsee vähemmän oikeasti tasainen 60 fps kuin mikronäykkivä/taajuutta venyttelevä 90-120 fps.

Vaikka frame time ei menisi FG:n kanssa huonommaksi ja 45 % > 34 %, vaihtokaupan kannattavuus riippuu silti henkilöstä, pelistä, fps:stä ja viiveestä. Jos viive on jo valmiiksi lähellä siedettävän ylärajaa, heilahtaa se kolmasosan lisäviiveellä häiritsevän puolelle. Jos samaan aikaan fps oli jo valmiiksi ihan siedettävä, vaihtokauppa ei kannata. Mitä ilmeisimmin Dark82:n viive ei ollut valmiiksi lähellä siedettävän ylärajaa, joten hänelle vaihtokauppa kannatti.

Onko sulla G-sync tai freesync näyttö ja oot tarkistanu että se toimii? Ite en kyllä huomaa pahemmin pientä fps vaihtelua jos ei tipu alle 90 fps, tai ainkaan se ei ole kovin häiritsevää. Jonkin verarn tämä kyllä riippuu pelimoottorista, esim. deathloop ei ole sulavaa ellei ole lukittuna 120 fps, jonkinlainen frame pacing ongelma pelimoottorissa.

Mutta 60 fps ei kyllä ole millään tasolla miellyttävä pelattavaa ainakaan fps peleissä hiirellä, ehkä joku 3rd person seikkailu ohjaimella menee kun ei tule nopeaa liikuttelua.

No, hyvä että on vaihtoehtoja kaikille, niin voi mieleiset rajat laittaa PC-puolella.
 
Ilmeisesti aika hyvin onnistunut nvidian ensimmäinen konesali cpu. Tai ehkä ARMissa on taikaa? Virtatehokas ja nopea näyttää olevan. Konesalihommissa virtatehokkuus erittäin tärkeää, kun sähkö maksaa ja konesalin jäähdytys on myös hoidettava kustannustehokkaasti.

Jännä nähdä tuleeko nvidia jossain kohtaa astumaan isomminkin amd/intel varpaille cpu konesaliratkaisuissa vai jääkö nvidian arm cpu lähinnä gpu:n apuriksi.

As a quick introduction, the Grace CPU Superchip features two 72-core chips on a single board, amounting to 144 Arm Neoverse V2 cores. An NVLink-C2C interface connects the two chips, enabling a bidirectional bandwidth of up to 900 GB/s. Each processor has eight dedicated LPDDR5X packages for up to 1TB. In the other two corners, we have the EPYC 9654 with 96 Zen 4 cores and the Xeon Platinum 8480+ with 56 Golden Cove cores.
NwQ2jbRpDSTuU8UPubMhj-1024-80.jpg

 
Ilmeisesti aika hyvin onnistunut nvidian ensimmäinen konesali cpu.

Itte kyllä odottelisin kolmansien osapuolten tuloksia ennen bilehatun päähän laittoa. Onhan se nähty jo aiemmin esim. Altera Amperen kohdalla että sopivilla kuormilla se voittaa. Ehkä tuohon on ihan vahingossa lipsahtanut sellaiset 5 testiä joissa pärjäävät hyvin.
Lisäksi AMD:llä on heittää tuota vastaan myös Genoa-X ja Bergamo, eli jäädään odottelemaan laajempia testejä.


Bergamon kulutus noin 15% vähemmän tarjoten 20% enemmän suorituskykyä verrattuna Genoa.

Ja eihän toi ole vielä edes markkinoilla. Tuote on vasta sitten mahdollisesti hyvä kun se on oikeasti myynnissä. Onhan tässä ollut eräskin CPU jonka on luvattu pesevän kaikki ihan pystyyn mutta valmista ei ole tullut. Edellinen lupaus kuopattiin vähin äänin ja hiljattain kehuttiin uuden version tarjoavan vielä kovempaa kyytiä.
 
Itte kyllä odottelisin kolmansien osapuolten tuloksia ennen bilehatun päähän laittoa.

Ei mahda gamersnexus, io-tech tms. tehdä testiä grace-piiristä,... Onhan se myynyt hyvin ja kauppa käy edelleen todella kovaa.

Keskustelua nvidian viime kvartaalituloksesta: NVIDIA takoi ennätystuloksen tekoälybuumin siivittämänä

Tesla osti 10000 h100(ja oletettavasti grace cpu:t kaverina) klusterin: 10,000 NVIDIA H100 GPUs Power Tesla's $300 Million Supercomputer
 
Ilmeisesti aika hyvin onnistunut nvidian ensimmäinen konesali cpu. Tai ehkä ARMissa on taikaa? Virtatehokas ja nopea näyttää olevan. Konesalihommissa virtatehokkuus erittäin tärkeää, kun sähkö maksaa ja konesalin jäähdytys on myös hoidettava kustannustehokkaasti.

Jännä nähdä tuleeko nvidia jossain kohtaa astumaan isomminkin amd/intel varpaille cpu konesaliratkaisuissa vai jääkö nvidian arm cpu lähinnä gpu:n apuriksi.


NwQ2jbRpDSTuU8UPubMhj-1024-80.jpg

Nämä kuuluvat tuonne CPU-keskusteluihin. Täällä puhutaan näytönohjaimista.
 
AMD antaa luvan omasta puolestaan, se ei ole AMD:n ongelma jos NVIDIAn ehdot (vaikka ne logot tai mitä tahansa) eivät sovi muiden sponsorisopimuspykälien kanssa yhteen - se on kehittäjän ja NVIDIAn asia sorvata tuki peliin niiden pykälien puitteissa.

No eihän se AMD mitään lupaa anna, jos sitä ei saa sopimuksen puitteissa laittaa. Mikä lupa se semmonen on, että joo laittakaa vaan kunhan ette riko meidän pykäliä. Poliisikin voisi antaa luvan röystää pankki, kunhan ei riko lakia....

Kaiken näköisiä havokkeja yms. kolmannen osapuolten kikkuloita peleissä on paljonkin käytössä, ja niiden kehittäjien logot yleensä splash screenissä näkyy, koska se on YLEINEN käytäntö. NVIDIA logon näkyminen splash screenissä DLSS:n vuoksi ei eroa rtästä mitenkään. AMD nyt vaan "kummasti" haluaa juuri sen kieltää ilmeisesti sitten.

Tuo pykälä on todennäköisesti lisätty juuri sen että AMD tiesi sen, että NVIDIAn ehdoissa on mainita, että logon pitää näkyä, jos DLSS käytetään. Tällä tavoin saatiin "kätevästi" DLSS:n tuomista hankaloitettua sponssipeleissä.
 
No eihän se AMD mitään lupaa anna, jos sitä ei saa sopimuksen puitteissa laittaa. Mikä lupa se semmonen on, että joo laittakaa vaan kunhan ette riko meidän pykäliä. Poliisikin voisi antaa luvan röystää pankki, kunhan ei riko lakia....

Kaiken näköisiä havokkeja yms. kolmannen osapuolten kikkuloita peleissä on paljonkin käytössä, ja niiden kehittäjien logot yleensä splash screenissä näkyy, koska se on YLEINEN käytäntö. NVIDIA logon näkyminen splash screenissä DLSS:n vuoksi ei eroa rtästä mitenkään. AMD nyt vaan "kummasti" haluaa juuri sen kieltää ilmeisesti sitten.

Tuo pykälä on todennäköisesti lisätty juuri sen että AMD tiesi sen, että NVIDIAn ehdoissa on mainita, että logon pitää näkyä, jos DLSS käytetään. Tällä tavoin saatiin "kätevästi" DLSS:n tuomista hankaloitettua sponssipeleissä.
Vika ja syy on AMD:n, oli mikä oli :whistling:
Selvästikään AMD:n ehdot eivät estä DLSS:ää peleissä koska niitä AMD:n sponsoroimia pelejä missä on kummatkin on edelleen olemassa. Voi olla joitain pykäliä minkä vuoksi kehittäjän pitää neuvotella NVIDIAn kanssa miten homma toteuttaa, mutta se ei ole mikään AMD:n tehtävä rullata punaista mattoa kilpailijan poropietariteknologioille. Jos NVIDIA ei rajaisi teknologioitaan mustiksi poropietarilaatikoiksi vaan antaisi kilpailijoiden tukea niitä siinä mihin oma rauta taipuu saattaisi olla helpompaa saada sitä tukea peleihin sponsorista riippumatta.
 
Eihän Nvidia saa omaa logoaan pelin alkuun ilman rahan liikkumista sieltä pelintekijän suuntaan. Sama on myös AMD:llä. Tuon nyt luulis olevan aika itsestään selvä asia.
 
Vika ja syy on AMD:n, oli mikä oli :whistling:
Selvästikään AMD:n ehdot eivät estä DLSS:ää peleissä koska niitä AMD:n sponsoroimia pelejä missä on kummatkin on edelleen olemassa. Voi olla joitain pykäliä minkä vuoksi kehittäjän pitää neuvotella NVIDIAn kanssa miten homma toteuttaa, mutta se ei ole mikään AMD:n tehtävä rullata punaista mattoa kilpailijan poropietariteknologioille. Jos NVIDIA ei rajaisi teknologioitaan mustiksi poropietarilaatikoiksi vaan antaisi kilpailijoiden tukea niitä siinä mihin oma rauta taipuu saattaisi olla helpompaa saada sitä tukea peleihin sponsorista riippumatta.

Niin ja AMD ei ilmeisesti mitenkään iki maailmassa voisi tehdä yhtään mitään kyseenalaista tavoitellakseen kilpailuetua. :whistling:

Ai että se on joku punainen matto, että annetaan lupa muidenkin teknologioita pelissä käytettävien firmojen logojen näkyä jossain... Kummasti taitaa lisäksi tämä kielto koskea vain NVIDIA:aa. Kuten sanottu on täysin yleinen käytäntö mainita eri firmat/teknilogiat, joita peleissä käytetään. Sen estäminen jollain sponssiehdoilla on vähintäänkin epäilyttävää.

Ei sillä propietaryllä ole oikeastaan edes mitään tekemistä tämän asian kanssa. Ihan samanlailla niitä avointenkin tekniikoiden logoja noissa näytetään.
 
Viimeksi muokattu:
Eihän Nvidia saa omaa logoaan pelin alkuun ilman rahan liikkumista sieltä pelintekijän suuntaan. Sama on myös AMD:llä. Tuon nyt luulis olevan aika itsestään selvä asia.

Kyllä saa. DLSS esimerkiksi jos joku haluaa käyttää, niin saa käyttää vapasti, kunhan annetaan tunnustus siitä splash screenissä.
 



Starfield:n suorituskyky aiheena 10:50 kohdalta ja tarkemmin 12:30 kohdalta alkaa spekulaatio/väite/arvaus, että Nvidian liikkeelle laskema huhu koko AMD:n DLSS kielto
 
Eihän se silloin vapaasti ole käytettävissä, kun siihen sisältyy tuo ehto logosta.

Niimpä. Intel ei vaadi XeSSista mitään logoa eikä AMD FSR:stä.
Nyt kun AMD on päässyt veloistaan kiitos Ryzen prossujen, eli nyt rahaa löytyy. Niin tässä voi vihdoin käydä niin että Nvidia saa palkintonsa siitä että kohtelee asiakkaitaan ja yhteistyökumppaneitaan kuin roskaa.
Intelillä myös rahaa riittää ja sen tänä vuonna tulevat kortit vaikuttavan mielenkiintoisilta jos huhut pitävät paikkaansa. Eli B950:n ois $450 ja nopeampi kuin RTX 4070 Ti ja B970 $600 ja nopeampi kuin RTX 4080.
Ja vaikka olen Intelin ajureita paljon kritisoinut niin parissa kuukaudessa ovat menneet paljon eteenpäin.

Että tässä voi koittaa Nvidialle vielä vaikeat ajat.
Katsotaan avaavatko vielä jossain vaiheessa DLSS:n muillekkin valmistajille tai edes vanhemmille korteilleen jos oikein hätä tulee kun homma lähtee jyrkkään alamäkeen kun kilpailijoiden tekniikoita käytetäänkin peleissä eikä heidän.
 
Intelillä myös rahaa riittää ja sen tänä vuonna tulevat kortit vaikuttavan mielenkiintoisilta jos huhut pitävät paikkaansa. Eli B950:n ois $450 ja nopeampi kuin RTX 4070 Ti ja B970 $600 ja nopeampi kuin RTX 4080.
Ja vaikka olen Intelin ajureita paljon kritisoinut niin parissa kuukaudessa ovat menneet paljon eteenpäin.
Ei inteliltä tänä vuonna tule kuin korkeintaan uusia alchemisteja, Battlemaget on ensi vuoden tuotteita
 
Niimpä. Intel ei vaadi XeSSista mitään logoa eikä AMD FSR:stä.
Nyt kun AMD on päässyt veloistaan kiitos Ryzen prossujen, eli nyt rahaa löytyy. Niin tässä voi vihdoin käydä niin että Nvidia saa palkintonsa siitä että kohtelee asiakkaitaan ja yhteistyökumppaneitaan kuin roskaa.
Intelillä myös rahaa riittää ja sen tänä vuonna tulevat kortit vaikuttavan mielenkiintoisilta jos huhut pitävät paikkaansa. Eli B950:n ois $450 ja nopeampi kuin RTX 4070 Ti ja B970 $600 ja nopeampi kuin RTX 4080.
Ja vaikka olen Intelin ajureita paljon kritisoinut niin parissa kuukaudessa ovat menneet paljon eteenpäin.

Että tässä voi koittaa Nvidialle vielä vaikeat ajat.
Katsotaan avaavatko vielä jossain vaiheessa DLSS:n muillekkin valmistajille tai edes vanhemmille korteilleen jos oikein hätä tulee kun homma lähtee jyrkkään alamäkeen kun kilpailijoiden tekniikoita käytetäänkin peleissä eikä heidän.
Nvidia printtaa rahaa AI hommissa ja poropietaritekniikat on noin vuoden edellä AMDtä.

Markkinaosuudet jotain 70-80% nvidian hyväksi riippuen miten asiaa katsoo.

Toki jos Jensen toteaa että eivät enää jaksa tehdä pelikortteja, voi jäädä AMDlle iskun paikka, mutta vaikuttaa enemmän toiveajattelulta kun reaaliteetilta.

Myös itse toivon lisää kilpailua, koska nyt nvidia asettaa hinnat ja muut seuraa perässä, ei hyvä tilanne kuluttajan kannalta.

Nvidialla on myös ollut ainakin ennen paljon suurempi osasto tukemassa pelinkehittäjiä, onko AMD laittanut sinne rahaa/resursseja että pystyy haastamaan? En tiedä, aika näyttää.
 
Nvidia printtaa rahaa AI hommissa ja poropietaritekniikat on noin vuoden edellä AMDtä.

Markkinaosuudet jotain 70-80% nvidian hyväksi riippuen miten asiaa katsoo.

Toki jos Jensen toteaa että eivät enää jaksa tehdä pelikortteja, voi jäädä AMDlle iskun paikka, mutta vaikuttaa enemmän toiveajattelulta kun reaaliteetilta.

Myös itse toivon lisää kilpailua, koska nyt nvidia asettaa hinnat ja muut seuraa perässä, ei hyvä tilanne kuluttajan kannalta.

Nvidialla on myös ollut ainakin ennen paljon suurempi osasto tukemassa pelinkehittäjiä, onko AMD laittanut sinne rahaa/resursseja että pystyy haastamaan? En tiedä, aika näyttää.

Se on totta että AMD kuin Intelillä hemmetin vaikea saada perus pelaaja vaihtamaan Geforcensa Radeon tai Arc kortteihin.
Kun perus pelaajalle pelikortti = Geforce

Ja AMD nyt ei ainakaan ole lähtenyt hintoja polkemaan että sais kaapattua markkiosuuksia. Mutta tiedä sitten mitä Intel tekee kun saa seuraavan sukupolvensa ulos.

Ei inteliltä tänä vuonna tule kuin korkeintaan uusia alchemisteja, Battlemaget on ensi vuoden tuotteita

Niimpäs olikin. Jotenkin muistin että noi olisi tulossa joskus Q4 tänä vuonna. Mutta olikin että joskus 2024.
 
Vika ja syy on AMD:n, oli mikä oli :whistling:
Selvästikään AMD:n ehdot eivät estä DLSS:ää peleissä koska niitä AMD:n sponsoroimia pelejä missä on kummatkin on edelleen olemassa. Voi olla joitain pykäliä minkä vuoksi kehittäjän pitää neuvotella NVIDIAn kanssa miten homma toteuttaa, mutta se ei ole mikään AMD:n tehtävä rullata punaista mattoa kilpailijan poropietariteknologioille. Jos NVIDIA ei rajaisi teknologioitaan mustiksi poropietarilaatikoiksi vaan antaisi kilpailijoiden tukea niitä siinä mihin oma rauta taipuu saattaisi olla helpompaa saada sitä tukea peleihin sponsorista riippumatta.

Kummasti tuo vaan toimii toiseen suuntaan, ehkä sen takia koska pelinkehittäjien ei tarvitse pyytää lupaa Nvidialta jos haluavat FSR:n lisätä, kun taas toiseen suuntaan pitää.
 
Kummasti tuo vaan toimii toiseen suuntaan, ehkä sen takia koska pelinkehittäjien ei tarvitse pyytää lupaa Nvidialta jos haluavat FSR:n lisätä, kun taas toiseen suuntaan pitää.
Voisiko johtua vaikka siitä että FSR:ää saa ketä vaan käyttää miten haluaa, ei tartte logoja tai muita tai edes kysyä mitä AMD on asiasta mieltä?
 
Digital Foundryn John väittää että 3 kpl tapauksia joissa DLSS on tiputettu pois sponsoroinnin takia, vaikka se oli jo implementoitu. Jotenkin ei yllätä, mutta amd epämääräiset selitykset piti olla se totuus, joku valehtelee tai vähintään johtaa harhaan...



20230903_220206.png
 
Viimeksi muokattu:
Digital Foundryn John väittää että 3 kpl tapauksia joissa DLSS on tiputettu pois sponsoroinnin takia, vaikka se oli jo implementoitu. Jotenkin ei yllätä, mutta amd epämääräiset selitykset piti olla se totuus, joku valehtelee tai vähintään johtaa harhaan...
Mitkä epämääräiset? Täysin yksiselitteinen vastaus se oli.
Syitä miksi DLSS on voitu tiputtaa sponsorisopimuksen jälkeen vaikka olisi implementoitu:
- NVIDIA vaatii jotain, mihin AMD:n sponsoriehdot eivät taivu (itse DLSS ei ole sellainen asia), eikä NVIDIA vastaavasti suostu taipumaan.

Lyhyt lista.
 
Voisiko johtua vaikka siitä että FSR:ää saa ketä vaan käyttää miten haluaa, ei tartte logoja tai muita tai edes kysyä mitä AMD on asiasta mieltä?

Niin, ei tarvitse nvidian logoja edes lisätä, tästä taisi olla useampi esimerkki HU:n videolla. Eli ei kovin hyvä tekosyy. Sen sijaan ilmeisesti AMD:ltä pitää pyytää lupa DLSS:n lisäämiselle tai sponssiehdot on muuten sellaiset, että se menee hankalaksi.
 
Niin, ei tarvitse nvidian logoja edes lisätä, tästä taisi olla useampi esimerkki HU:n videolla. Eli ei kovin hyvä tekosyy. Sen sijaan ilmeisesti AMD:ltä pitää pyytää lupa DLSS:n lisäämiselle tai sponssiehdot on muuten sellaiset, että se menee hankalaksi.
En sanonut että se välttämättä olisi logot, se on vain esimerkki asiasta mitä voidaan vaatia (ja ainakin dlss 3.5 sdk:n ehtojen mukaan oletuksena vaaditaankin). NVIDIA voi hyvin arpoa noita pelikohtaisesti.
 
Riippumatta siitä, kuinka paljon aiheesta spekuloidaan ja väännetään, loppujen lopuksi vain yksi asia on varmasti totta: jos olet aikeissa pelata jomman kumman valmistajan sponsoroimaa peliä, on NVIDIAn sponsoroima peli kuluttajan kannalta parempi vaihtoehto, koska niissä pääsee yleensä (yli 80% peleistä) käyttämään kumpaa vain skaalaustekniikkaa riippuen siitä minkä valmistajan näytönohjaimen omistaa. Sen sijaan AMD:n sponsoroimassa pelissä jää laadultaan parempi DLSS saamatta valtaosassa (yli 80%) tapauksia. Kuluttajan kannattaakin toivoa että oma seuraava suosikkipeli olisi NVIDIAn eikä AMD:n sponsoroima.
 
Mitkä epämääräiset? Täysin yksiselitteinen vastaus se oli.
Syitä miksi DLSS on voitu tiputtaa sponsorisopimuksen jälkeen vaikka olisi implementoitu:
- NVIDIA vaatii jotain, mihin AMD:n sponsoriehdot eivät taivu (itse DLSS ei ole sellainen asia), eikä NVIDIA vastaavasti suostu taipumaan.

Lyhyt lista.
Yksiselitteinen vastaus, joka johtaa spekulointiin kun ei tiedetä tarkkaan mitä on tapahtunut, ok. Kaikkea sitä oppii kun vanhaksi elää.
 
  • Tykkää
Reactions: aop
Mitkä epämääräiset? Täysin yksiselitteinen vastaus se oli.
Syitä miksi DLSS on voitu tiputtaa sponsorisopimuksen jälkeen vaikka olisi implementoitu:
- NVIDIA vaatii jotain, mihin AMD:n sponsoriehdot eivät taivu (itse DLSS ei ole sellainen asia), eikä NVIDIA vastaavasti suostu taipumaan.

Lyhyt lista.
Tai sitten AMD on yksinkertaisesti kieltänyt kilpailijoiden teknologioiden käytön ja Frank Azor puhui hieman muunneltua totuutta, kun väitti ettei AMD estä DLSS käyttöä sponsoroiduissa peleissä.

En ymmärrä miten saat aina käännettyä asiat niin, että täytyy olla NVIDIAn syy, vaikka todistusaineisto puhuu puolestaan. NVIDIAn sponssaamissa peleissä on nykyään melkein aina FSR ja XeSS ja AMD sponssaamista peleistä puuttuu XeSS/DLSS. Meinaatko, että Intelkin on niin mulkku firma, että estää XeSS käytön AMD sponssaamissa peleissä ja sallii sitten NVIDIAn sponssaamissa?

Kaikkein järkevin selitys on, että AMD tietää oman teknologiansa (FSR2) olevan huonompi, kuin kilpailijoiden vastaavat ja yrittää estää kilpailijoiden teknologioiden käytön sponssidiileillä.
 
Tai sitten AMD on yksinkertaisesti kieltänyt kilpailijoiden teknologioiden käytön ja Frank Azor puhui hieman muunneltua totuutta, kun väitti ettei AMD estä DLSS käyttöä sponsoroiduissa peleissä.

En ymmärrä miten saat aina käännettyä asiat niin, että täytyy olla NVIDIAn syy, vaikka todistusaineisto puhuu puolestaan. NVIDIAn sponssaamissa peleissä on nykyään melkein aina FSR ja XeSS ja AMD sponssaamista peleistä puuttuu XeSS/DLSS. Meinaatko, että Intelkin on niin mulkku firma, että estää XeSS käytön AMD sponssaamissa peleissä ja sallii sitten NVIDIAn sponssaamissa?

Kaikkein järkevin selitys on, että AMD tietää oman teknologiansa (FSR2) olevan huonompi, kuin kilpailijoiden vastaavat ja yrittää estää kilpailijoiden teknologioiden käytön sponssidiileillä.
Sinäkö et näe mitään merkitystä sillä, että fsr on avoin tekniiikka jota saa käyttää vapaasti ja dlss on suljettu propiertary tekniikka, jota käytääkseen pitää täyttää nvidian ehdot?
 
Riippumatta siitä, kuinka paljon aiheesta spekuloidaan ja väännetään, loppujen lopuksi vain yksi asia on varmasti totta: jos olet aikeissa pelata jomman kumman valmistajan sponsoroimaa peliä, on NVIDIAn sponsoroima peli kuluttajan kannalta parempi vaihtoehto, koska niissä pääsee yleensä (yli 80% peleistä) käyttämään kumpaa vain skaalaustekniikkaa riippuen siitä minkä valmistajan näytönohjaimen omistaa. Sen sijaan AMD:n sponsoroimassa pelissä jää laadultaan parempi DLSS saamatta valtaosassa (yli 80%) tapauksia. Kuluttajan kannattaakin toivoa että oma seuraava suosikkipeli olisi NVIDIAn eikä AMD:n sponsoroima.
Just näin, tässä voi kaikenlaisia teorioita ja spekulaatioita puoleen ja toiseen heittää eikä keskustelu muutu tästä yhtään viisaammaksi. FSR löytynee luultavasti jotakuinkin kaikista peleistä ja Nvidia sponsoroi sitten pelejä jos haluaa DLSS:n siihen rinnalle.
 
Digital Foundryn John väittää että 3 kpl tapauksia joissa DLSS on tiputettu pois sponsoroinnin takia, vaikka se oli jo implementoitu. Jotenkin ei yllätä, mutta amd epämääräiset selitykset piti olla se totuus, joku valehtelee tai vähintään johtaa harhaan...




Toi on viimeeksi muokattu 7kk sitten, en lähtenyt historiikkia kahlaamaan että mitä muutoksia on tullut kun ei niin paljon kiinnosta.

Siinä kohta joka on hyvin selkä, ei tuossa ole oikein tulkinnan varaa. Se on vähän niin että kenen leipää syöt, sen lauluja laulelet. Olisihan se aika merkillistä että AMD pistää kehittäjälle massia ja sitten pelin käynnistyksessä pyörisi nvidian logot/video.
Mielestäni on täysin ymmärrettävää että AMD sponssaamassa pelissä EI pyöri nvidian mainokset ja sama toiste päin on myös täysin fine. Jos asia ei ole nvidialle fine, kuten tuosta kappaleesta voidaan tulkita.

For applications that incorporate the DLSS SDK or NGX SDK or portions thereof, you must attribute the use of the applicable SDK and include the NVIDIA Marks on splash screens, in the about box of the application (if present), and in credits for game applications.

Vaaditaan siis firman mainokset ei ainoastaan splash screeniin vaan myös about ja credits osioon. Tuossa todennäköisesti ei olisi mitään ongelmaa jos nvidia muuttaisi tuon kursivoidun "and" = "or"
 
Sinäkö et näe mitään merkitystä sillä, että fsr on avoin tekniiikka jota saa käyttää vapaasti ja dlss on suljettu propiertary tekniikka, jota käytääkseen pitää täyttää nvidian ehdot?
Mikä NVIDIAn ehto kieltää käyttämästä DLSS AMD sponsoroidussa pelissä?
 
Riippumatta siitä, kuinka paljon aiheesta spekuloidaan ja väännetään, loppujen lopuksi vain yksi asia on varmasti totta: jos olet aikeissa pelata jomman kumman valmistajan sponsoroimaa peliä, on NVIDIAn sponsoroima peli kuluttajan kannalta parempi vaihtoehto, koska niissä pääsee yleensä (yli 80% peleistä) käyttämään kumpaa vain skaalaustekniikkaa riippuen siitä minkä valmistajan näytönohjaimen omistaa. Sen sijaan AMD:n sponsoroimassa pelissä jää laadultaan parempi DLSS saamatta valtaosassa (yli 80%) tapauksia. Kuluttajan kannattaakin toivoa että oma seuraava suosikkipeli olisi NVIDIAn eikä AMD:n sponsoroima.



Siinä ihan hyvää pohdintaa.

Varsinkin FG kykeneviä härveleitä on vielä mitättömän vähän.
 


Siinä ihan hyvää pohdintaa.

Varsinkin FG kykeneviä härveleitä on vielä mitättömän vähän.


Hyvää pohdintaa? Mun mielestä tuossa tuli melkoinen loikka logiikassa juurikin mainitsemassasi kohdassa: DLSS 3 ei ole se vertailukohta FSR2:lle. Kaikki 20-, 30- ja 40-sarjan Nvidiat pystyvät tekemään DLSS:llä upscalingin paremmin kuin FSR2:lla. Lisäksi, kuten swttii jo sanoikin: resurssit EIVÄT ole minkään asteinen rajoite.
 
Niin olikos se niin, että esimerkiksi starfield PC ei saanut edes HDR tukea julkaisussa? AMD kielsi varmaan senkin. Vai oliko se Microsoft kun tuli kuitenkin XBOX versioon. Eniten tässä naurattaa se, että olevinaan vaikka mitä todisteita ja väitettä AMD:n suuntaan, mutta ei muisteta mitä tuetaan konsoleilla......
 

Statistiikka

Viestiketjuista
262 653
Viestejä
4 553 347
Jäsenet
75 038
Uusin jäsen
neiti-jokunen

Hinta.fi

Back
Ylös Bottom