Virallinen: NVIDIA vs AMD (vs Intel) keskustelu- ja väittelyketju

  • Keskustelun aloittaja Keskustelun aloittaja Sampsa
  • Aloitettu Aloitettu
No sehän on AMD:n ehtojen aiheuttama ongelma ihan yhtä lailla, jos tästä johtuu DLSS tuen puute AMD peleissä. Miksi ei voisi sallia myös kilpailijan logon vilahtamista splash screenissä. Sehän on ihan normaali käytäntö, että jos käytetään 3:n osapuolen kehittämää ja omistamaa tekniikkaa, niin mainitaan/annetaan credittiä.

Onkohan joku tutkinut jo, että näkyykö näissä harvassa DLSS:n sisältävässä AMD-sponssipelissä NVIDIA logoa splash screenissä tms.

Jos ei ole splash screenissä nvidiaa mainittu, niin voisi kuvitella, että on saatu NVIDIA:lta siunaus. Jos näkyy NVIDIA logot, niin sitten varmaan AMD:ltä anottu lupa.

Siitä saisi vähän osoittaa, että kumman konttorin myötävaikutuksella se DLSS on saatu kehiin.

Mitään teknistä haastetta tai ongelmaa DLSS:n puuttumiseen ei kyllä todennäköisesti löydy, vaikka jotkut sitä tuntuu koko ajan vänkäävän. Molemmat tekniikat perustuu samoihin perusjuttuihin ja jos toisen lisää, niin ei se toisen tuominen ihmeitä vaadi. Senhän näkee jo siitä, että näitä community patchejä tulee saman tein saataville.

Miksi ihmeessä AMD sposoroisi Nvidian mainosta?

Ei kai siitä oikeasti kukaan voi suuttua jos sponsorointiehdoissa on että kilpailijaa ei saa mainostaa?
 
Joku mainitsi jo aiemmin, että jos peli on xbox/playstation puolelle tärkeä niin raudan puolesta ei mahdollista käyttää ja siksi ei ole nähty lisää vaivaa lisätä tietokoneelle, eli tavallista ihmisluontoa. Henk.koht en ole kumpaakaan käyttänyt vaikka ollut mahdollista enkä miettinyt sen enempää.
 
Eiköhän tuo neuvottelu ole sen tyylinen, että Nvidia sanelee miten pelin pitää pyöriä niillä ominaisuuksilla tai muita yksipuolisia ehtoja. Tuskin se mikään varsinainen tasapuolinen neuvottelutilaisuus on.
Neuvotteluissa niin vaikeaksi heittäytyminen, ettei useisiin AAA peleihin ollenkaan päädy DLSS:ää ei tunnu olevan mielestäni ihan linjassa sen kanssa, että 1) yrittävät rakentaa DLSS:lle laajaa pelitukea jota myöskin markkinoinnissaan tuovat esiin valttikorttina ja 2) yrittävät tehdä integroimista peleihin helpoksi.

Mutta eipä tässä epävarmaa spekulaatiota pidemmälle pääse.
 
Joku mainitsi jo aiemmin, että jos peli on xbox/playstation puolelle tärkeä niin raudan puolesta ei mahdollista käyttää ja siksi ei ole nähty lisää vaivaa lisätä tietokoneelle, eli tavallista ihmisluontoa. Henk.koht en ole kumpaakaan käyttänyt vaikka ollut mahdollista enkä miettinyt sen enempää.

Jos miettii kuinka helppoa tuon lisääminen on niin ei tuossa oikein olisi järkeä, kyllä siellä joku muu syy on taustalla. AMD:lle on tietysti parempaa mitä vähemmän youtubesta löytyy DLSS/FSR vertailuja.
Mitään varmuutta mihinkään ei tosin varmaan saada ellei joku pelintekijä rupea puhumaan mitä luultavasti ei koskaan tule tapahtumaan.
 
Tai sitten ketään kenellä on merkitystä päätöksenteossa ei kiinnosta asia suuremmassa mittakaavassa katsottuna.
 
Viimeksi muokattu:
Jos miettii kuinka helppoa tuon lisääminen on niin ei tuossa oikein olisi järkeä, kyllä siellä joku muu syy on taustalla. AMD:lle on tietysti parempaa mitä vähemmän youtubesta löytyy DLSS/FSR vertailuja.
Mitään varmuutta mihinkään ei tosin varmaan saada ellei joku pelintekijä rupea puhumaan mitä luultavasti ei koskaan tule tapahtumaan.

Kyllä varmasti lakitekniset asiat on paljon hankalampia kuin käytännön tasolla tuen lisääminen.
 
Miksi ihmeessä AMD sposoroisi Nvidian mainosta?

Ei kai siitä oikeasti kukaan voi suuttua jos sponsorointiehdoissa on että kilpailijaa ei saa mainostaa?

Miksi ihmeessä AMD sitten sanoo, että onnistuu DLSS:n lisääminen jos vaan pyytää. Valehteleeko AMD sitten päin naamaa ja lupaa ei tipu, vaikka pyytää.

Edelleenkäön en usko, että asia on noin yksinkertainen, että vain tuosta olisi kiinni, kun kerran lupaavat luvan tippuvan pyytämällä.

Ja ei kai kukaan voi suuttua, jos TM teknologiaa käyttävää tahoa pyydetään antamaan pieni tunnustus teknologian kehittäjälle.
 
Viimeksi muokattu:
Miksi ihmeessä AMD sitten sanoo, että onnistuu DLSS:n lisääminen jos vaan pyytää. Valehteleeko AMD sitten päin naamaa ja lupaa ei tipu, vaikka pyytää.

Edelleenkäön en usko, että asia on noin yksinkertainen, että vain tuosta olisi kiinni, kun kerran lupaavat luvan tippuvan pyytämällä.

Ja ei kai kukaan voi suuttua, jos TM teknologiaa käyttävää tahoa pyydetään antamaan pieni tunnustus teknologian kehittäjälle.
Jaa, pitäisiköhän sitten peleissä jossa fsr on käytössä näykyä amd:n mainos? Ja nvidian sponsorointisopimukset ihan takuuvarmasti kieltäisi tämän, jolloin fsr:ää ei voi liittää peliin vaikka se olisi vielä helpompaa.
 
Ja ei kai kukaan voi suuttua, jos TM teknologiaa käyttävää tahoa pyydetään antamaan pieni tunnustus teknologian kehittäjälle.

Ja ei kellekkään paitsi papa-J voi olla niin tärkeää sen oman logon vilahtaminen latausruudussa.

Mutta kuluttajan kannaltahan tämä on hyvä. DLSS ei missään tapauksessa saa nousta täysin hallitsevaan "Must have" asemaan taikka peli on selvä. Intel ja AMD voi sen jälkeen pakata laukkunsa ja poistua GPU rintamalta joka kuluttajille olisi täysi katastrofi. Mallia voi katsoa vaikka historiasta mitä Intel teki kun pääsi kyseiseen asemaan CPU puolella.
 
Eikö se teknologia kehitetty televisioihin tjsp alunperin? Samsungin logot jokaisen puljun tilalle, että toivat tämän maailman kahdeksannen ihmeen tavallisten kuolevaisten keskuuteen.
 
Viimeksi muokattu:
Ja ei kellekkään paitsi papa-J voi olla niin tärkeää sen oman logon vilahtaminen latausruudussa.

Mutta kuluttajan kannaltahan tämä on hyvä. DLSS ei missään tapauksessa saa nousta täysin hallitsevaan "Must have" asemaan taikka peli on selvä. Intel ja AMD voi sen jälkeen pakata laukkunsa ja poistua GPU rintamalta joka kuluttajille olisi täysi katastrofi. Mallia voi katsoa vaikka historiasta mitä Intel teki kun pääsi kyseiseen asemaan CPU puolella.
Tuo on kyllä täysin totta. Tällä hetkellähän nvidian frame generation on se must have ominaisuus, mutta onneksi pian tulee FSR3 tasapainottamaan tilannetta.
 
Tuo on kyllä täysin totta. Tällä hetkellähän nvidian frame generation on se must have ominaisuus, mutta onneksi pian tulee FSR3 tasapainottamaan tilannetta.

Itse en näe että se vielä sellainen olisi. Hyvin pienen piirin kikotin tässä vaiheessa.
 
Itse en näe että se vielä sellainen olisi. Hyvin pienen piirin kikotin tässä vaiheessa.
Itse väitän sitä semmoiseksi ominaisuudeksi, että ne jotka sitä ovat kokeilleet eivät varmasti enää siitä halua luopua.
Jos olisi vaihtoehtona kaksi näytönohjainta joista toinen on 20% tehokkaampi ja toinen tukee kuvanluontia, niin valinta olisi helppo ja valitsisin heti sen 20% tehottomamman kortin.
 
Itse väitän sitä semmoiseksi ominaisuudeksi, että ne jotka sitä ovat kokeilleet eivät varmasti enää siitä halua luopua.
Jos olisi vaihtoehtona kaksi näytönohjainta joista toinen on 20% tehokkaampi ja toinen tukee kuvanluontia, niin valinta olisi helppo ja valitsisin heti sen 20% tehottomamman kortin.

Ei se ole mikään maaginen kikotin. Siinä on omat ongelmansa myös. Se merkittävin tietysti on sen aiheuttama lagi. Sitä ei välttämättä huomaa jossain 120FPS lukemissa, mutta alhaisemmilla freimeillä sen huomaa.
 
Ei se ole mikään maaginen kikotin. Siinä on omat ongelmansa myös. Se merkittävin tietysti on sen aiheuttama lagi. Sitä ei välttämättä huomaa jossain 120FPS lukemissa, mutta alhaisemmilla freimeillä sen huomaa.
En ole missään tilanteessa huomannut mitään lagia 4070 ti:llä enkä 4090:lla. Päinvastoin huomannut sen kuinka melkein tuplaa fps:n

Itse kyllä pidän sitä aika maagisena
 
Miksi ihmeessä AMD sitten sanoo, että onnistuu DLSS:n lisääminen jos vaan pyytää. Valehteleeko AMD sitten päin naamaa ja lupaa ei tipu, vaikka pyytää.

Edelleenkäön en usko, että asia on noin yksinkertainen, että vain tuosta olisi kiinni, kun kerran lupaavat luvan tippuvan pyytämällä.

Ja ei kai kukaan voi suuttua, jos TM teknologiaa käyttävää tahoa pyydetään antamaan pieni tunnustus teknologian kehittäjälle.
AMD antaa luvan omasta puolestaan, se ei ole AMD:n ongelma jos NVIDIAn ehdot (vaikka ne logot tai mitä tahansa) eivät sovi muiden sponsorisopimuspykälien kanssa yhteen - se on kehittäjän ja NVIDIAn asia sorvata tuki peliin niiden pykälien puitteissa.
 
En ole missään tilanteessa huomannut mitään lagia 4070 ti:llä enkä 4090:lla. Päinvastoin huomannut sen kuinka melkein tuplaa fps:n

Itse kyllä pidän sitä aika maagisena


When enabling DLSS Quality mode, we see what normally happens when frame rates increase. In the area we tested, scene FPS rose from 42 to 72 FPS, and that came with a decrease in latency from 64 to 47 ms. The game feels faster as you'd expect.

But when enabling frame generation, while scene FPS rose again to 112 FPS, latency increased to 63 ms. What this means is that despite the game having the visual smoothness of 112 FPS, the latency and responsiveness you're experiencing is more like playing the game at 40 FPS. You end up with smooth motion but a slow feel, which is hard to show on a video.
 
Mä ajattelen logo/dlss/fsr keissin niin, että kun otan rahaa sponsorilta ja lupaan priorisoida rahan antaneen tahon teknologiaa niin ihan vapaaehtoisesti jätän minimiin toisten tahojen samanlaisten teknologioiden integroinnin. Sponssin ulkopuoliset asiat patcheina julkaisu ja arvosteluikkunan ulkopuolella olettaen että tuote on menestys. Jos projekti ei ole supermenestys niin siirrytään seuraavan projektin pariin.

Jos ei toimi yllä olevalla tavalla niin alkaako sama sponsori uudestaan tai joku uusi sponsori sulle rahaa antamaan rahaa seuraavassa projektissa, kun jollekin muulle projektille sponssin antama raha tuottaa enemmän hyötyä?
 
Tuo on just sitä mistä Sampsakin viikkokatsauksessa puhui, että sitä pitäisi itse kokeilla eikä tuijotella testien numeroita.
Käytännössähän sitä eroa ei huomaa kun itse pelailee vaikka mittaamalla saadaankin latenssiin isoja eroja.
Toinen asia on se, että tuo testi on kohta vuoden vanha ja oma käsitykseni on että viiveitä on saatu huomattavasti parannettua, myös tuosta testistä puuttuu ajo pelkkä frame generation päällä ilman DLSS:ää mitä itse käytän, enkä käytä noita skaalaimia. Moni ei varmaan edes tiedä, että sen frame generationin voi kytkeä päälle myös natiiviresoluutiolla. Tässä nyt nopea oma testi natiiviresoluutiolla fg pois päältä ja fg päällä. En tiedä kuinka tarkka tuo keskimääräinen viive tuossa nvidian softassa on, mutta se nousi 30:stä vain 40ms kun fg:n kytki päälle ja fps nousi 62.

Näyttökuva 2023-08-30 082131.png
Näyttökuva 2023-08-30 082022.png
 
Toivottavasti FSR 3versio parantaa liiketerävyyttä, tässä Immortals of Aveumista tuore vertaus (FSR 2.x versio).

1693375537198.jpeg


Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.
 
Viimeksi muokattu:
Onhan tuo FSR aivan hirveän näköinen.

Sitä voi miettiä että olisiko nvidia tuhlannut piipinta-alaa kiihdytinominaisuuteen jonka voisi tehdä samalla tavalla ilman...
 
Harmi kun oli tuossa vaan zoomattu ja hidastettu. Miltä näyttää oikeasti pelatessa?

Mutta onhan se ollut muidenkin pelien kanssa että FSR Quality on ihan hyvä, mutta Performance alkaa olla jo selvästi huonompi kuin DLSS...
 
DLSS performance oli myöskin aika suttuista (hieman liioiteltuna toki) omaan silmään kun Warzonea pelailin. Quality oli sellainen joka oli vauhdissakin hyvä, 1440p resolla pelatessa (1080p:sta taisi skaalata jos en väärin muista).

Eli suorituskyvystä maksaa tietysti suhteessa laatuun, valitsee sitten kenen tekniikan hyvänsä, FSR tai DLSS.
 
Onhan tuo FSR aivan hirveän näköinen.

Sitä voi miettiä että olisiko nvidia tuhlannut piipinta-alaa kiihdytinominaisuuteen jonka voisi tehdä samalla tavalla ilman...

Tuossa Aveumissa dlss tekee myös artefakteja, tuossa ranteessa olevan aseen/amuletin vaihdossa, ei vain tuon kaliberin suttua. Näyttäisi sille, ettei peliengine anna siitä kunnolla liikevektoreita ja liike on todella haastava: Käden kiertoliike, jossa esiin tulee tavaraa, jota ei ollut edellisessä framessa. DLSS taitaa tuollaisissa tilanteissa painottaa rajusti enemmän skaalaamatonta kuvaa, eli taitaa vetää lähes alkuperäisellä resoluutiolla, eikä edes yritetä tehdä tarkempaa temporaalisen datan avulla.

Tietty tuo on sitä optimointityötä, jota tulee pikkuparannuksina ajanmyötä, kuten se haamukuvien väheneminen ja partikkeliefektien parantaminen julkaisu julkaisulta.
 
DLSS performance oli myöskin aika suttuista (hieman liioiteltuna toki) omaan silmään kun Warzonea pelailin. Quality oli sellainen joka oli vauhdissakin hyvä, 1440p resolla pelatessa (1080p:sta taisi skaalata jos en väärin muista).

Eli suorituskyvystä maksaa tietysti suhteessa laatuun, valitsee sitten kenen tekniikan hyvänsä, FSR tai DLSS.
Warzonessa (2) yleensä suositellaan FSR 2:n käyttöä ennemmin kuin DLSS:ää. Toki parempi ilman kumpaakaan. Ei nuo tekniikat kovin miellyttäviä tuon kaltaisessa pelissä ole, mutta toki jos muuten meinaa framet jäädä tosi alas niin parempi käyttää. Ekana kuitenkin tiputtelisin asetukset minimiin ja viimeisenä vasta nuo päälle.
 
Onhan tuo FSR aivan hirveän näköinen.

Sitä voi miettiä että olisiko nvidia tuhlannut piipinta-alaa kiihdytinominaisuuteen jonka voisi tehdä samalla tavalla ilman...
Kiihdyttimet tehtiin kauan ennean kuin kukaan keksi DLSS:ää, ei sen vuoksi (ja samat laskut voisi laskea ilman kiihdyttimiä, se on korkeintaan hitaampaa ilman niitä, ja niin kauan kuin DLSS pysyy suljettuna kukaan ei voi tietää paljonko)
 
Kiihdyttimet tehtiin kauan ennean kuin kukaan keksi DLSS:ää, ei sen vuoksi (ja samat laskut voisi laskea ilman kiihdyttimiä, se on korkeintaan hitaampaa ilman niitä, ja niin kauan kuin DLSS pysyy suljettuna kukaan ei voi tietää paljonko)
Tuo on vain sinun oma kuvitelmasi vailla mitään faktapohjaa. Voihan ne laskut laskea vaikka helmitaululla.
 
Tuo on vain sinun oma kuvitelmasi vailla mitään faktapohjaa. Voihan ne laskut laskea vaikka helmitaululla.
NVIDIA vaihteli itsekin DLSS 1.x:n aikaan pyöritettiinkö niitä tensoreilla vai CUDA-ytimillä, vasta 2.x:n myötä se vakiintui nykyisen kaltaiseksi ja DLSS 2.x on täysin eri tavaraa kuin 1.x:t.
 
Oli tuosta DLSS2:stä se eka versio Controllissa (1.9 tjsp), joka toimi shadereilla.
NVIDIA vaihteli itsekin DLSS 1.x:n aikaan pyöritettiinkö niitä tensoreilla vai CUDA-ytimillä, vasta 2.x:n myötä se vakiintui nykyisen kaltaiseksi ja DLSS 2.x on täysin eri tavaraa kuin 1.x:t.
Ja kumpikaan näistä väitteistä ei todista etteikö piirin suunnitteluvaiheessa (vuosia aikaisemmin) ole tulevaisuuden käyttöskenarioita suunniteltu ja testailtu.

Piirisuunnittelu ja piipinta-ala on niin järkyttävän kallista ettei kuluttajatuotteeseen ole mahdollista sisällyttää ominaisuuksia ilman tarkkoja visiota.
 
En tiedä kuinka tarkka tuo keskimääräinen viive tuossa nvidian softassa on, mutta se nousi 30:stä vain 40ms kun fg:n kytki päälle ja fps nousi 62.

Eli viive nousee 33% ja FPS nousee 66%. Ymmärrätkö että kolmanneksen nousu viiveeseen on jo aika merkittävä korotus. Normaalistihan se viive tuollaisella FPS nousulla laskisi varmaan tuon about kolmanneksen. Tuossa on lähtökohtana jo niin korkea FPS että tietenkään sitä ei enää noilla nopeuksilla sitä lägiä tunne, mutta sitten kun pyöritään siellä alle 60 ja halutaan FG:llä saada mukamas parempaa kokemusta niin sitten se alkaa tuntumaan.

Toki ihmisiä on erilaisia, toiset ei huomaa ja toiset huomaa sen heti. Vähän sama kuin vielä CRT kuvaputkien ja loisteputkien aikaan tietty herzi määrä ja loistevalaistus sai sen näytön välkkymään ihan helvetin pahasti omiin silmiin mutta ei kaikki sitä huomannu. Töissä monesti tuli tilanteita vastaan että näyttö välkkyy ja kysyin että miten voit työskennellä tuon kanssa niin eivät he kuulemma huomannu mitään ja vaikka nosti näytön herzejä jolloin välkkyminen loppui niin ei ne eroa huomannu.
 
Eli viive nousee 33% ja FPS nousee 66%. Ymmärrätkö että kolmanneksen nousu viiveeseen on jo aika merkittävä korotus. Normaalistihan se viive tuollaisella FPS nousulla laskisi varmaan tuon about kolmanneksen. Tuossa on lähtökohtana jo niin korkea FPS että tietenkään sitä ei enää noilla nopeuksilla sitä lägiä tunne, mutta sitten kun pyöritään siellä alle 60 ja halutaan FG:llä saada mukamas parempaa kokemusta niin sitten se alkaa tuntumaan.

Toki ihmisiä on erilaisia, toiset ei huomaa ja toiset huomaa sen heti. Vähän sama kuin vielä CRT kuvaputkien ja loisteputkien aikaan tietty herzi määrä ja loistevalaistus sai sen näytön välkkymään ihan helvetin pahasti omiin silmiin mutta ei kaikki sitä huomannu. Töissä monesti tuli tilanteita vastaan että näyttö välkkyy ja kysyin että miten voit työskennellä tuon kanssa niin eivät he kuulemma huomannu mitään ja vaikka nosti näytön herzejä jolloin välkkyminen loppui niin ei ne eroa huomannu.
Kyllä nyt itse olen viiveitten kohdalla aika tarkka, esimerkiksi perus 60fps on omasta mielestäni erittäin epämiellyttävää pelata juuri sen viiveen takia.
Jotenkin nyt noista viesteistä paistaa se, että et ole koko ominaisuutta itse testannut ja perustat mielipiteen vain sen mukaan mitä olet lukenut.
 
Kyllä nyt itse olen viiveitten kohdalla aika tarkka, esimerkiksi perus 60fps on omasta mielestäni erittäin epämiellyttävää pelata juuri sen viiveen takia.
Jotenkin nyt noista viesteistä paistaa se, että et ole koko ominaisuutta itse testannut ja perustat mielipiteen vain sen mukaan mitä olet lukenut.
Voi olla, että juuri omalla näytölläsi@60 fps on epämiellyttävän suuri viive, mutta jollain toisella 60 Hz-näytöllä se olisi sinullekin riittävän pieni. Mielestäni ei voi noin yleistää 60 fps:llä olevan liian suuri viive, koska näyttöjen välillä on niin suuria eroja.

Esim. Rtings:
Dell 60 Hz UHD-rutku, 3840 * 2160@60 Hz -> input lag 8,7 ms
"The Dell S2721QS has excellent low input lag, providing a responsive desktop and gaming experience."

vs.

Asus 27" 280 Hz-sähikäinen@60 Hz, 1920 * 1080@60 Hz -> 35,1 ms!
"Unfortunately, the 60Hz input lag is extremely high, making this a poor choice for console gamers."


Sanoit että FG:llä koneesi raportoima viive nousi vain 40 ms:iin. Tuo kuulostaa lähes pelikonsolimaiselta viiveeltä, mikä helposti tuntuisi alkuun häiritsevältä ajosimussa tai ammuskeluhipassa. Kaikkeen tietysti tottuu ja sopeutuu. Vertailun vuoksi kännykän sekuntikellon tuplaklikkaus (käynnistys ja het stop) etusormella otti aikaa ~45-vuotiaalta 60 ms.

Riippuu tietysti pelistä, henkilöstä, fps:stä ja viiveestä, että kannattaako valita nopeampi fps (FG) viiveen kustannuksella.
 

Liitteet

  • Screenshot_20230830-212301.png
    Screenshot_20230830-212301.png
    288,9 KB · Luettu: 19
  • Screenshot_20230830-212434.png
    Screenshot_20230830-212434.png
    251,8 KB · Luettu: 21
  • Screenshot_20230830-211725.png
    Screenshot_20230830-211725.png
    101,5 KB · Luettu: 18
Viiveen nousuhan oli siis vain 10 ms, ja mitattu täysin eri tavalla kuin esim. nuo Rtingsin sitaatit. Esim. tuolla 8.7 ms näytöllä ei edellä tehdyssä testissä tulisi kyseinen lukema. Luvut eivät siis ole keskenään vertailukelpoisia. Jos lähtötilanne on 30 ms ja nousu siitä vain 10 ms mutta fps lähes tuplaantuu, on se monelle varmasti siedettävä hinta maksaa sulavammasta kuvasta.
 
Viiveen nousuhan oli siis vain 10 ms, ja mitattu täysin eri tavalla kuin esim. nuo Rtingsin sitaatit. Esim. tuolla 8.7 ms näytöllä ei edellä tehdyssä testissä tulisi kyseinen lukema. Luvut eivät siis ole keskenään vertailukelpoisia. Jos lähtötilanne on 30 ms ja nousu siitä vain 10 ms mutta fps lähes tuplaantuu, on se monelle varmasti siedettävä hinta maksaa sulavammasta kuvasta.

Tuplaantuminen on kaukana kun nousua on 66%, siinä on vielä 33% jäljellä tuplaantumiseen. Ja 10ms viiveen lisäys 30ms ei ole ihan pieni, se on 33%.

Joten kyllä tää on aika perse edellä puuhun kiipeämistä kun fps nousee mutta myös viiveet nousee kun pitäisi käydä juurikin päinvastoin. FPS kun nousee niin viiveet tippuu.
 
Tuplaantuminen on kaukana kun nousua on 66%, siinä on vielä 33% jäljellä tuplaantumiseen. Ja 10ms viiveen lisäys 30ms ei ole ihan pieni, se on 33%.

Joten kyllä tää on aika perse edellä puuhun kiipeämistä kun fps nousee mutta myös viiveet nousee kun pitäisi käydä juurikin päinvastoin. FPS kun nousee niin viiveet tippuu.

Omaan silmään 66% fps nousu 33% viiveen nousulla vaikuttaa ehdottomasti hyvältä vaihtokaupalta etenkin yksinpeleissä joissa usein kehittäjät ovat jo valmiiksi optimoineet peliä grafiikoiden laadun suuntaan eikä korkea fps edellä. Niihin saa mukavasti lisää sulavuutta tuontasoisella fps nousulla. Nopeatempoisissa räiskinnöissä tai reaktionopeutta vaativissa moninpeleissä ei kukaan tätä ole suositellutkaan käyttämään.
 
Viiveen nousuhan oli siis vain 10 ms, ja mitattu täysin eri tavalla kuin esim. nuo Rtingsin sitaatit. Esim. tuolla 8.7 ms näytöllä ei edellä tehdyssä testissä tulisi kyseinen lukema. Luvut eivät siis ole keskenään vertailukelpoisia. Jos lähtötilanne on 30 ms ja nousu siitä vain 10 ms mutta fps lähes tuplaantuu, on se monelle varmasti siedettävä hinta maksaa sulavammasta kuvasta.
Hyvä tarkennus, etteivät ole vertailukelpoisia lukuja.
En niitä tarkoittanutkaan verrata keskenään. Nuo 30 ja 40 ms eivät enää liittyneet lainaamaani viestiin, vaan sitä edelliseen Dark82:n viestiin. Yritin erottaa eri asioita ylimääräisellä rivinvaihdolla.

Pääpointtini oli oikaista tuo, että Dark82:n liian viiveelliseksi moittima "perus 60 fps" voi tarkoittaa näytöstä riippuen 8,x-35 ms viivettä (Rtings). Mielestäni ei ole mikään "perus", jos kerran joillakin korkeataajuuspelinäytöillä input lag voi olla moninkertainen vs. rehellisellä 60 Hz IPS-näytöllä. Kaikesta päätellen @Dark82 :lla on yli 60 Hz-näyttö, eli hyvin mahdollisesti hänen viiveellinen 60 fps-kokeilunsa liittyy vain oman näyttönsä heikkoon toimintaan ei-natiivitaajuudellaan, eikä sitä silloin voi yleistää.

Vielä tuosta FG-vaihtokaupasta. Sanoit, että kolmasosan suurempi viive on monelle siedettävä hinta fps:n lähes tuplaantumisesta, eli sulavammasta kuvasta. @JiiPee tuossa jo korjasikin, että lähes 100 % olikin 66 % (66,7 %). Jatkan siihen, että sulavuudesta puhuttaessa 99 %-/1 % -minimi on oleellisempi lukema kuin keskimääräinen.

Viiveen kasvu:
40,4 / 30,1 -> +34,2 %

Sulavuuden paraneminen, eli minimit:
109 / 75 -> +45,3 % (kaukana lähes tuplaantumisesta)

Kolmantena pitäisi tarkastella frame timen heittelyä ja piikkejä, mutta niistä ei ollut tietoa. Omaa silmää häiritsee vähemmän oikeasti tasainen 60 fps kuin mikronäykkivä/taajuutta venyttelevä 90-120 fps.

Vaikka frame time ei menisi FG:n kanssa huonommaksi ja 45 % > 34 %, vaihtokaupan kannattavuus riippuu silti henkilöstä, pelistä, fps:stä ja viiveestä. Jos viive on jo valmiiksi lähellä siedettävän ylärajaa, heilahtaa se kolmasosan lisäviiveellä häiritsevän puolelle. Jos samaan aikaan fps oli jo valmiiksi ihan siedettävä, vaihtokauppa ei kannata. Mitä ilmeisimmin Dark82:n viive ei ollut valmiiksi lähellä siedettävän ylärajaa, joten hänelle vaihtokauppa kannatti.
 
Viimeksi muokattu:
Kolmantena pitäisi tarkastella frame timen heittelyä ja piikkejä, mutta niistä ei ollut tietoa. Omaa silmää häiritsee vähemmän oikeasti tasainen 60 fps kuin mikronäykkivä/taajuutta venyttelevä 90-120 fps.

Vaikka frame time ei menisi FG:n kanssa huonommaksi ja 45 % > 34 %, vaihtokaupan kannattavuus riippuu silti henkilöstä, pelistä, fps:stä ja viiveestä. Jos viive on jo valmiiksi lähellä siedettävän ylärajaa, heilahtaa se kolmasosan lisäviiveellä häiritsevän puolelle. Jos samaan aikaan fps oli jo valmiiksi ihan siedettävä, vaihtokauppa ei kannata. Mitä ilmeisimmin Dark82:n viive ei ollut valmiiksi lähellä siedettävän ylärajaa, joten hänelle vaihtokauppa kannatti.

Onko sulla G-sync tai freesync näyttö ja oot tarkistanu että se toimii? Ite en kyllä huomaa pahemmin pientä fps vaihtelua jos ei tipu alle 90 fps, tai ainkaan se ei ole kovin häiritsevää. Jonkin verarn tämä kyllä riippuu pelimoottorista, esim. deathloop ei ole sulavaa ellei ole lukittuna 120 fps, jonkinlainen frame pacing ongelma pelimoottorissa.

Mutta 60 fps ei kyllä ole millään tasolla miellyttävä pelattavaa ainakaan fps peleissä hiirellä, ehkä joku 3rd person seikkailu ohjaimella menee kun ei tule nopeaa liikuttelua.

No, hyvä että on vaihtoehtoja kaikille, niin voi mieleiset rajat laittaa PC-puolella.
 
Ilmeisesti aika hyvin onnistunut nvidian ensimmäinen konesali cpu. Tai ehkä ARMissa on taikaa? Virtatehokas ja nopea näyttää olevan. Konesalihommissa virtatehokkuus erittäin tärkeää, kun sähkö maksaa ja konesalin jäähdytys on myös hoidettava kustannustehokkaasti.

Jännä nähdä tuleeko nvidia jossain kohtaa astumaan isomminkin amd/intel varpaille cpu konesaliratkaisuissa vai jääkö nvidian arm cpu lähinnä gpu:n apuriksi.

As a quick introduction, the Grace CPU Superchip features two 72-core chips on a single board, amounting to 144 Arm Neoverse V2 cores. An NVLink-C2C interface connects the two chips, enabling a bidirectional bandwidth of up to 900 GB/s. Each processor has eight dedicated LPDDR5X packages for up to 1TB. In the other two corners, we have the EPYC 9654 with 96 Zen 4 cores and the Xeon Platinum 8480+ with 56 Golden Cove cores.
NwQ2jbRpDSTuU8UPubMhj-1024-80.jpg

 
Ilmeisesti aika hyvin onnistunut nvidian ensimmäinen konesali cpu.

Itte kyllä odottelisin kolmansien osapuolten tuloksia ennen bilehatun päähän laittoa. Onhan se nähty jo aiemmin esim. Altera Amperen kohdalla että sopivilla kuormilla se voittaa. Ehkä tuohon on ihan vahingossa lipsahtanut sellaiset 5 testiä joissa pärjäävät hyvin.
Lisäksi AMD:llä on heittää tuota vastaan myös Genoa-X ja Bergamo, eli jäädään odottelemaan laajempia testejä.


Bergamon kulutus noin 15% vähemmän tarjoten 20% enemmän suorituskykyä verrattuna Genoa.

Ja eihän toi ole vielä edes markkinoilla. Tuote on vasta sitten mahdollisesti hyvä kun se on oikeasti myynnissä. Onhan tässä ollut eräskin CPU jonka on luvattu pesevän kaikki ihan pystyyn mutta valmista ei ole tullut. Edellinen lupaus kuopattiin vähin äänin ja hiljattain kehuttiin uuden version tarjoavan vielä kovempaa kyytiä.
 
Itte kyllä odottelisin kolmansien osapuolten tuloksia ennen bilehatun päähän laittoa.

Ei mahda gamersnexus, io-tech tms. tehdä testiä grace-piiristä,... Onhan se myynyt hyvin ja kauppa käy edelleen todella kovaa.

Keskustelua nvidian viime kvartaalituloksesta: NVIDIA takoi ennätystuloksen tekoälybuumin siivittämänä

Tesla osti 10000 h100(ja oletettavasti grace cpu:t kaverina) klusterin: 10,000 NVIDIA H100 GPUs Power Tesla's $300 Million Supercomputer
 
Ilmeisesti aika hyvin onnistunut nvidian ensimmäinen konesali cpu. Tai ehkä ARMissa on taikaa? Virtatehokas ja nopea näyttää olevan. Konesalihommissa virtatehokkuus erittäin tärkeää, kun sähkö maksaa ja konesalin jäähdytys on myös hoidettava kustannustehokkaasti.

Jännä nähdä tuleeko nvidia jossain kohtaa astumaan isomminkin amd/intel varpaille cpu konesaliratkaisuissa vai jääkö nvidian arm cpu lähinnä gpu:n apuriksi.


NwQ2jbRpDSTuU8UPubMhj-1024-80.jpg

Nämä kuuluvat tuonne CPU-keskusteluihin. Täällä puhutaan näytönohjaimista.
 
AMD antaa luvan omasta puolestaan, se ei ole AMD:n ongelma jos NVIDIAn ehdot (vaikka ne logot tai mitä tahansa) eivät sovi muiden sponsorisopimuspykälien kanssa yhteen - se on kehittäjän ja NVIDIAn asia sorvata tuki peliin niiden pykälien puitteissa.

No eihän se AMD mitään lupaa anna, jos sitä ei saa sopimuksen puitteissa laittaa. Mikä lupa se semmonen on, että joo laittakaa vaan kunhan ette riko meidän pykäliä. Poliisikin voisi antaa luvan röystää pankki, kunhan ei riko lakia....

Kaiken näköisiä havokkeja yms. kolmannen osapuolten kikkuloita peleissä on paljonkin käytössä, ja niiden kehittäjien logot yleensä splash screenissä näkyy, koska se on YLEINEN käytäntö. NVIDIA logon näkyminen splash screenissä DLSS:n vuoksi ei eroa rtästä mitenkään. AMD nyt vaan "kummasti" haluaa juuri sen kieltää ilmeisesti sitten.

Tuo pykälä on todennäköisesti lisätty juuri sen että AMD tiesi sen, että NVIDIAn ehdoissa on mainita, että logon pitää näkyä, jos DLSS käytetään. Tällä tavoin saatiin "kätevästi" DLSS:n tuomista hankaloitettua sponssipeleissä.
 
No eihän se AMD mitään lupaa anna, jos sitä ei saa sopimuksen puitteissa laittaa. Mikä lupa se semmonen on, että joo laittakaa vaan kunhan ette riko meidän pykäliä. Poliisikin voisi antaa luvan röystää pankki, kunhan ei riko lakia....

Kaiken näköisiä havokkeja yms. kolmannen osapuolten kikkuloita peleissä on paljonkin käytössä, ja niiden kehittäjien logot yleensä splash screenissä näkyy, koska se on YLEINEN käytäntö. NVIDIA logon näkyminen splash screenissä DLSS:n vuoksi ei eroa rtästä mitenkään. AMD nyt vaan "kummasti" haluaa juuri sen kieltää ilmeisesti sitten.

Tuo pykälä on todennäköisesti lisätty juuri sen että AMD tiesi sen, että NVIDIAn ehdoissa on mainita, että logon pitää näkyä, jos DLSS käytetään. Tällä tavoin saatiin "kätevästi" DLSS:n tuomista hankaloitettua sponssipeleissä.
Vika ja syy on AMD:n, oli mikä oli :whistling:
Selvästikään AMD:n ehdot eivät estä DLSS:ää peleissä koska niitä AMD:n sponsoroimia pelejä missä on kummatkin on edelleen olemassa. Voi olla joitain pykäliä minkä vuoksi kehittäjän pitää neuvotella NVIDIAn kanssa miten homma toteuttaa, mutta se ei ole mikään AMD:n tehtävä rullata punaista mattoa kilpailijan poropietariteknologioille. Jos NVIDIA ei rajaisi teknologioitaan mustiksi poropietarilaatikoiksi vaan antaisi kilpailijoiden tukea niitä siinä mihin oma rauta taipuu saattaisi olla helpompaa saada sitä tukea peleihin sponsorista riippumatta.
 
Eihän Nvidia saa omaa logoaan pelin alkuun ilman rahan liikkumista sieltä pelintekijän suuntaan. Sama on myös AMD:llä. Tuon nyt luulis olevan aika itsestään selvä asia.
 
Vika ja syy on AMD:n, oli mikä oli :whistling:
Selvästikään AMD:n ehdot eivät estä DLSS:ää peleissä koska niitä AMD:n sponsoroimia pelejä missä on kummatkin on edelleen olemassa. Voi olla joitain pykäliä minkä vuoksi kehittäjän pitää neuvotella NVIDIAn kanssa miten homma toteuttaa, mutta se ei ole mikään AMD:n tehtävä rullata punaista mattoa kilpailijan poropietariteknologioille. Jos NVIDIA ei rajaisi teknologioitaan mustiksi poropietarilaatikoiksi vaan antaisi kilpailijoiden tukea niitä siinä mihin oma rauta taipuu saattaisi olla helpompaa saada sitä tukea peleihin sponsorista riippumatta.

Niin ja AMD ei ilmeisesti mitenkään iki maailmassa voisi tehdä yhtään mitään kyseenalaista tavoitellakseen kilpailuetua. :whistling:

Ai että se on joku punainen matto, että annetaan lupa muidenkin teknologioita pelissä käytettävien firmojen logojen näkyä jossain... Kummasti taitaa lisäksi tämä kielto koskea vain NVIDIA:aa. Kuten sanottu on täysin yleinen käytäntö mainita eri firmat/teknilogiat, joita peleissä käytetään. Sen estäminen jollain sponssiehdoilla on vähintäänkin epäilyttävää.

Ei sillä propietaryllä ole oikeastaan edes mitään tekemistä tämän asian kanssa. Ihan samanlailla niitä avointenkin tekniikoiden logoja noissa näytetään.
 
Viimeksi muokattu:
Eihän Nvidia saa omaa logoaan pelin alkuun ilman rahan liikkumista sieltä pelintekijän suuntaan. Sama on myös AMD:llä. Tuon nyt luulis olevan aika itsestään selvä asia.

Kyllä saa. DLSS esimerkiksi jos joku haluaa käyttää, niin saa käyttää vapasti, kunhan annetaan tunnustus siitä splash screenissä.
 

Statistiikka

Viestiketjuista
297 617
Viestejä
5 073 098
Jäsenet
81 349
Uusin jäsen
Jezpez

Hinta.fi

Back
Ylös Bottom