Virallinen: NVIDIA vs AMD (vs Intel) keskustelu- ja väittelyketju

  • Keskustelun aloittaja Keskustelun aloittaja Sampsa
  • Aloitettu Aloitettu
Nyt kannattaa herrojen googlettaa punalasien takana tekoäly ja mitä se edes on. Tässähän nyt vähän lastentarha meininki jos osa keskustelijoista ei edes ymmärrä mitä 2020 luvulla pystytään sen avulla tekemään.

Luulisi ainakin että käytettävistä teknologioista oltaisiin perillä alan ATK-foorumilla asiantuntijoiden toimesta tai ainakin avoimia sen suhteen että sinne tulevaisuudessa mennään. pelkällä pii kiekon suurennuksella tai nanometrien pienennyksellä ei tulla ratkaisemaan tulevaisuuden haasteitata.

Bladekillin kuvaa lainaten, sillä AI:lla voi saada jopa ihmeittä aikaan, jos vain lakkaa olemasta niin ahdasmielinen.
Tässä kohtaa se "tekoälyn" ymmärtämisen heikkous ei taida olla niissä keihin sen kohdistat. Ja edelleen aika löyhästi mennään jos esiopetetun neuroverkon pohjalta tehtävää arvontaa kutsutaan tekoälyksi, saati sitten matriisilaskuyksiköiden kutsuminen "tekoälykiihdyttimiksi"
 
Tässä kohtaa se "tekoälyn" ymmärtämisen heikkous ei taida olla niissä keihin sen kohdistat. Ja edelleen aika löyhästi mennään jos esiopetetun neuroverkon pohjalta tehtävää arvontaa kutsutaan tekoälyksi, saati sitten matriisilaskuyksiköiden kutsuminen "tekoälykiihdyttimiksi"

Olipa nykymuodossaan DLSS 2.0 mitä tahansa, niin se on kuitenkin osana nykypäivän kehittyvää grafiikkatoteutusta ja parhaimmillaan jopa hyvinkin tehokasta.

Se että siinä on heikkoutensa tai ongelmansa ei sen osuuttaa heikennnä tulevaisuuden teknologiana tai tee siitä suoraaan kuvanhuonnonnus tekniikkaa. Käytettyä tekoälyä se ei vähennä vaikka mainintoja trolliksi huuteletkin toimenkuvastasi riippumatta.

Ajatellaanpa tilanne jossa näytönohjaimen resurssit ei riitä huippeista nanometreistä riippumatta tuottamaan tarpeeksi nopeasti haluttua kuvaa. Nyt voidaan kärsiä paikallaan tai A.I:n turvin ennakkoon pelissä simuloida tilanteet, missä aina saadaan tuotettua riittävä/tarvittava informaatio. Ohhoh , ihmeellistä saatiin luotua kaikki tarvittavat bitit näytölle ja joskus jopa tarkemmin kuin suoraan renderöidyssä kuvassa tahi muuten alkeellisilla metodeilla tuotetussa kuvassa.
 
Tässä kohtaa se "tekoälyn" ymmärtämisen heikkous ei taida olla niissä keihin sen kohdistat. Ja edelleen aika löyhästi mennään jos esiopetetun neuroverkon pohjalta tehtävää arvontaa kutsutaan tekoälyksi, saati sitten matriisilaskuyksiköiden kutsuminen "tekoälykiihdyttimiksi"

Tämä muuten sattuu olemaan aika tarkalleen tekoälyn määritelmä wikipediassa.

"Tekoälyn sovelluksista suurin osa on koneoppimista. Koneoppiminen on tekoälyn osa-alue, jossa toimintaa ei ole ohjelmoitu valmiiksi."
 
Ajatellaanpa tilanne jossa näytönohjaimen resurssit ei riitä huippeista nanometreistä riippumatta tuottamaan tarpeeksi nopeasti haluttua kuvaa. Nyt voidaan kärsiä paikallaan tai A.I:n turvin ennakkoon pelissä simuloida tilanteet, missä aina saadaan tuotettua riittävä/tarvittava informaatio. Ohhoh , ihmeellistä saatiin luotua kaikki tarvittavat bitit näytölle ja joskus jopa tarkemmin kuin suoraan renderöidyssä kuvassa tahi muuten alkeellisilla metodeilla tuotetussa kuvassa.
Kuvasit juuri DLSS1.0:n toimintamekaniikan. DLSS2.0 ei toimi etukäteen simuloidun pelidatan pohjalta, vaan on pieni osa varsin tyypillistä mixed resolution TAA toteutusta.
 
Kuvasit juuri DLSS1.0:n toimintamekaniikan. DLSS2.0 ei toimi etukäteen simuloidun pelidatan pohjalta, vaan on pieni osa varsin tyypillistä mixed resolution TAA toteutusta.
Vilkaiseppas tuo kalvosetti läpi, niin ehkä ymmärrät, että siinä DLSS 2.0 inputtina on aika paljon muutakin kuin yksi matalaresoluutioinen kuva:


Jaaha. mielestäsi ihmiselle voi sanoa puhu kiinaa ja se alkaa puhua kiinaa. Kerrassaan mainio lähestyminen.
 
Mites kun AMD sai rapaa hinnoista ja näyttää että AIB RTX3080:tkin lähestyy tuota 1100€ hintalappua?
Hitaasti herää tukkurit tähän hintakilpailuun... Toki toivoisin että kilpailu käytäisiin toisinpäin :D
 
Jaaha. mielestäsi ihmiselle voi sanoa puhu kiinaa ja se alkaa puhua kiinaa. Kerrassaan mainio lähestyminen.
Kiinan puhuminen tuossa tapauksessa varmaan on kiinni käsketyn omasta subjektiivisesta kokemuksesta.

Miten kiina liittyy mihinkään?
 
Jaaha. mielestäsi ihmiselle voi sanoa puhu kiinaa ja se alkaa puhua kiinaa. Kerrassaan mainio lähestyminen.
Juuri tästähän koneoppimisessa on kyse, oikeastaan se kuinka ihminen oppii kieltä on aika hyvä esimerkki siitä kuinka vaikka sitten DLSS:ää voi opettaa peleillä.
 
  • Tykkää
Reactions: pau
Mites kun AMD sai rapaa hinnoista ja näyttää että AIB RTX3080:tkin lähestyy tuota 1100€ hintalappua?
Hitaasti herää tukkurit tähän hintakilpailuun... Toki toivoisin että kilpailu käytäisiin toisinpäin :D
Eikait amd saanut rapaa minkään strix uber mallin hinnoista vaan nimenomaan siitä, että hinnat alkaen 850€ vs 800€ ja sama homma taitaa olla vieläkin.

Nyt lisää pökköä pesään tulossa huomenna, kun saadaan 469€ alkaen 3060ti, johon amd:llä ei ole mitään vastinetta ja sama homma 3070 599€ kallis, mutta 6800 alkaen 700€ että kallista on amd puolella...

Ja mitään ei tällä hetkellä saa kunnolla mistään.
 
Juuri tästähän koneoppimisessa on kyse, oikeastaan se kuinka ihminen oppii kieltä on aika hyvä esimerkki siitä kuinka vaikka sitten DLSS:ää voi opettaa peleillä.
Muista nyt että ei tämmöstä ole olemassa tai tueta IO-Techissa, koska Radeon ei vielä tue tätä. Ehkä RDNA3:ssa voidaan tästä jotain puhua tai mainita.
 
Eikait amd saanut rapaa minkään strix uber mallin hinnoista vaan nimenomaan siitä, että hinnat alkaen 850€ vs 800€ ja sama homma taitaa olla vieläkin.

Nyt lisää pökköä pesään tulossa huomenna, kun saadaan 469€ alkaen 3060ti, johon amd:llä ei ole mitään vastinetta ja sama homma 3070 599€ kallis, mutta 6800 alkaen 700€ että kallista on amd puolella...

Ja mitään ei tällä hetkellä saa kunnolla mistään.
Kyllähän noi kaikki hinnat tuntuu nousevan, 3070:tki vaikka hyllytavaraa ni pikkuhiljaa hivuttautuu ylöspäin ja onhan noita yli tonnin 3080:aa ollut muitakin.
Pointti ei ollut varsinaisesti kumpi kalliimpi vaan siitä että voi vitun vittu nää elektroniikkavalmistajat on tajunnut hintakilpailun jotenkin nurinkurisesti :D
 
Tämä muuten sattuu olemaan aika tarkalleen tekoälyn määritelmä wikipediassa.

"Tekoälyn sovelluksista suurin osa on koneoppimista. Koneoppiminen on tekoälyn osa-alue, jossa toimintaa ei ole ohjelmoitu valmiiksi."
Se opetusosuus kyllä (mitä NVIDIA tekee itse) , mutta tuossa on kyse enää opetetun neuroverkon pohjalta tehtävistä arvauksista.
Koneoppimisessa sen tekoälytoteutuksen pitäisi myös oppia jotain, mikä pätee opetusosioon mutta ei kuluttajapään DLSS:ään.

Muista nyt että ei tämmöstä ole olemassa tai tueta IO-Techissa, koska Radeon ei vielä tue tätä. Ehkä RDNA3:ssa voidaan tästä jotain puhua tai mainita.
Lopeta nyt jo tuo trollaaminen, Radeoneilla ei ole mitään tekemistä asian kanssa ja vastaavat "tekoälykiihdyttimet" eli oikeasti matriisilaskuyksiköt löytyy myös AMD:lta CDNA:ssa. Niiden kutsuminen tekoälykiihdyttimiksi on vähän sama kuin sanoisi ihan perus laskuyksiköitä varjostinkiihdyttimiksi ihan vain koska ne soveltuvat siihen hommaan kivasti
 
Viimeksi muokattu:
Kyllähän noi kaikki hinnat tuntuu nousevan, 3070:tki vaikka hyllytavaraa ni pikkuhiljaa hivuttautuu ylöspäin ja onhan noita yli tonnin 3080:aa ollut muitakin.
Pointti ei ollut varsinaisesti kumpi kalliimpi vaan siitä että voi vitun vittu nää elektroniikkavalmistajat on tajunnut hintakilpailun jotenkin nurinkurisesti :D

Kilpailu hyvä, kartelli parempi, monopoli paras.
 
Kyllähän noi kaikki hinnat tuntuu nousevan, 3070:tki vaikka hyllytavaraa ni pikkuhiljaa hivuttautuu ylöspäin ja onhan noita yli tonnin 3080:aa ollut muitakin.
Pointti ei ollut varsinaisesti kumpi kalliimpi vaan siitä että voi vitun vittu nää elektroniikkavalmistajat on tajunnut hintakilpailun jotenkin nurinkurisesti :D
Kysynnän ja tarjonnan laki. Kysyntää on ja tarjontaa ei kun komponentteja ei saa halutusti, niin siitä on helppo vetää välistä.

Eikä hommaa helpota porukka jonka ainoa tarkoitus on vetää välistä. Tässä oli vähän aikaa sitten juttua jostain porukasta, joka oli onnistunut hankkimaan about 3500 uusimman mallin konsolia (jotka ovat loppu joka paikasta tällä hetkellä) ja kauppasivat niitä netissä toista tuhatta euroa kappale. Siinä alkaa kate olla kohdallaan. Tuollaisten mulkeroiden takia mekin maksamme nyt elektroniikasta liikaa
 
Kysynnän ja tarjonnan laki. Kysyntää on ja tarjontaa ei kun komponentteja ei saa halutusti, niin siitä on helppo vetää välistä.

Eikä hommaa helpota porukka jonka ainoa tarkoitus on vetää välistä. Tässä oli vähän aikaa sitten juttua jostain porukasta, joka oli onnistunut hankkimaan about 3500 uusimman mallin konsolia (jotka ovat loppu joka paikasta tällä hetkellä) ja kauppasivat niitä netissä toista tuhatta euroa kappale. Siinä alkaa kate olla kohdallaan. Tuollaisten mulkeroiden takia mekin maksamme nyt elektroniikasta liikaa
Juu törmäsin samaan juttuun, enkä ihmettele hintojen nousua, ei haittais vaikka ois ollut kalliimmat jo alusta alkaen niin ehkä tässä ois itelläkin jotain uutta rautaa hypisteltäväksi.
 
Nyt kannattaa herrojen googlettaa punalasien takana tekoäly ja mitä se edes on. Tässähän nyt vähän lastentarha meininki jos osa keskustelijoista ei edes ymmärrä mitä 2020 luvulla pystytään sen avulla tekemään.

Luulisi ainakin että käytettävistä teknologioista oltaisiin perillä alan ATK-foorumilla asiantuntijoiden toimesta tai ainakin avoimia sen suhteen että sinne tulevaisuudessa mennään. pelkällä pii kiekon suurennuksella tai nanometrien pienennyksellä ei tulla ratkaisemaan tulevaisuuden haasteitata.

Bladekillin kuvaa lainaten, sillä AI:lla voi saada jopa ihmeittä aikaan, jos vain lakkaa olemasta niin ahdasmielinen.
Jospa se tekoäly myös pelaa tulevaisuudessa ne pelit meidän puolesta...
 
Jospa se tekoäly myös pelaa tulevaisuudessa ne pelit meidän puolesta...

Neuroverkkopohjaisia botteja on jo pelien pelaamista varten. Löytyy retrosta dotaan. Osa on parempilaatuisia, osa ei niin. Esim tämä reilun vuoden takaa

DeepMind’s StarCraft 2 AI is now better than 99.8 percent of all human players


 
Pitkään duopolissa olleet yritykset voi sopimattakin valita peliteorian mukaan heidän kummankin hyödyn maksimointifunktion, jossa ei kilpailla 0-katteilla toisiaan vastaan vaan ennemmin kuluttajia. Tässä tapauksessa myydään niukkuutta kun ihmiset kuitenkin ostavat ennemmin tai myöhemmin korttinsa. Samalla saadaan hyvää mainosta kun kysyntä ylittää moninkertaisesti tarjonnan.

Jos mä vastaisin jomman kumman puljun strategiasta, niin ei mua välttämättä haittaisi jos tuotantokapasiteetti ei pysty tyydyttämään kysyntää heti. Ei tarvitse investoida tuotantolinjoihin niin paljoa ja tuotanto saadaan jaettua tasaisesti vuoden ympäri. Tuskin tuota löytyy osakkeenomistajille julkaistavista paketeista bullettina strategian kohdalla, mutta fiksua käytöstähän tuo on.
 
Ei kyse DLSS:stä eikä neuroverkosta vaan siitä, miten peräkkäisistä freimeistä onnistutaan rakentamaan dataa, mitä periaatteessa yhdessäkään niistä ei ole. Joskus värkkäilin kaukoputkeni kanssa Jupiterista kuvaa ja yksittäiset freimit näyttivät pääasiassa tältä:
jupi.jpg


Kun otin videota ja tämän käsittelin ohjelmalla, joka useista ruuduista yhdistelemällä (käsittääkseni jonkinlaista ylinäytteistämistä), niin sain lopputulokseksi:
11979816866_9a9153d090_o.jpg


Tosin tässäkin näkyy artefaktina erittäin rankat terävöittämiset.

En DLSS:n tekniikoihin ole perehtynyt, mutta hyvin voin uskoa usean freimin tuovan todellisia yksityiskohtia, jotka yhdestä yksittäisest puuttuvat. Tässä munkin kuvassa punainen pilkku oli käytännössä poissa näkyvistä, mutta ylinäytteistämällä useaa peräkkäistä ruutua se saatiin näkyviin. Pilvien muodoista puhumattakaan.


Yleisesti tämä ketju (ja vastaavat) kyllä ihmetyttää. En vain pysty ymmärtämään, miten joku voi tällaisista asioista ottaa näin pahasti kierroksia.
 
Yleisesti tämä ketju (ja vastaavat) kyllä ihmetyttää. En vain pysty ymmärtämään, miten joku voi tällaisista asioista ottaa näin pahasti kierroksia.
Näinhän se on, tuntuu että osaa kiinnostaa muiden korttivalinnat enemmän kuin omat.

Itsellä oli tällä näytönohjainkierroksella valittavina Nvidian ja AMD:n tuotteet, 6800XT vs 3080. Päädyin 3080 kolmesta syystä:
  • Nvidian halvempi Suomi-hinta.
  • DLSS. Tämä toimi yllättävän hyvin 2070-kortilla, joten hyvä syy pysyä samassa leirissä.
  • Henkilökohtainen huono kokemus 5700-sarjan ajuriongelmista.
  • (RTX:n tehokkuus verrattuna AMD).
Jos 6800XT olisi maksanut vaikka sen 100 euroa vähemmän, niin valinta olisi ollut selvä punaisen leirin eduksi.
 
Näinhän se on, tuntuu että osaa kiinnostaa muiden korttivalinnat enemmän kuin omat.

Itsellä oli tällä näytönohjainkierroksella valittavina Nvidian ja AMD:n tuotteet, 6800XT vs 3080. Päädyin 3080 kolmesta syystä:

Niimpä. Itsellä homma on kohtalon varassa. Useampi 3080 ja 6800xt tilauksessa, se mikä saapuu ensimmäisenä pääsee koneeseen.
 
Yleisesti tämä ketju (ja vastaavat) kyllä ihmetyttää. En vain pysty ymmärtämään, miten joku voi tällaisista asioista ottaa näin pahasti kierroksia.
Näitä väittelyketjuja on olemassa siksi, että joitakin korporaatioita tai niiden tuotteita fanittavat eivät paskoisi muita (asia)ketjuja.

Helpostihan näissä näkee kuka fanittaa ja mitä. Lopuille 99% jotka ketjuun eksyy, vaikutelma on toki outo ja herättää ihmetystä. Joskus kirjoitukset lähtee lapasesta.

Itse luen näitä sen vuoksi, että näissä on usein asiaakin mukana ja sattumoisin eri leirien korttien vertailu on juuri nyt melko relevantti asia, mihin täältä voi löytää vastauksia. Toki samalla pitää sitten skrollailla nuo puhtaat fanitukset (sekä tahalliset toisen tuotteen dumaamiset) ohitse.
 
Näitä väittelyketjuja on olemassa siksi, että joitakin korporaatioita tai niiden tuotteita fanittavat eivät paskoisi muita (asia)ketjuja.

Helpostihan näissä näkee kuka fanittaa ja mitä. Lopuille 99% jotka ketjuun eksyy, vaikutelma on toki outo ja herättää ihmetystä. Joskus kirjoitukset lähtee lapasesta.

Itse luen näitä sen vuoksi, että näissä on usein asiaakin mukana ja sattumoisin eri leirien korttien vertailu on juuri nyt melko relevantti asia, mihin täältä voi löytää vastauksia. Toki samalla pitää sitten skrollailla nuo puhtaat fanitukset (sekä tahalliset toisen tuotteen dumaamiset) ohitse.
Siis toki asiallinen väittely tästä on mielenkiintoista. Se, mitä en ymmärrä on henkilökohtaisuuksiin meneminen. Joskus tuntuu, että pelkkä nimimerkki on jollekin niin punainen vaate, että välittömästi kiihdytään nollasta sataan. Tällainen ei ole väittelyä.

Perusteltu keskustelu esimerkkeineen ja faktoihin tai edes uskottavahan mutuun pohjaavat mielipiteet on se, miksi tätä jaksan lukea.

Edit: Ja jos nyt minuun viittasit satunnaisella kävijällä, niin en tosiaan kirjoittele juurikaan, mutta lukenut olen kyllä jos en koko ketjua, niin ainakin suurimman osan.
 
Näitä väittelyketjuja on olemassa siksi, että joitakin korporaatioita tai niiden tuotteita fanittavat eivät paskoisi muita (asia)ketjuja.

Helpostihan näissä näkee kuka fanittaa ja mitä. Lopuille 99% jotka ketjuun eksyy, vaikutelma on toki outo ja herättää ihmetystä. Joskus kirjoitukset lähtee lapasesta.

Itse luen näitä sen vuoksi, että näissä on usein asiaakin mukana ja sattumoisin eri leirien korttien vertailu on juuri nyt melko relevantti asia, mihin täältä voi löytää vastauksia. Toki samalla pitää sitten skrollailla nuo puhtaat fanitukset (sekä tahalliset toisen tuotteen dumaamiset) ohitse.
Ihmiset saattavat kytkeä identiteettinsä mitä kummallisimpiin asioihin, esimerkiksi piirikortteihin. Objektiin kohdistuva implisiittinenkin arvostelu koetaan silloin ikään kuin hyökkäyksenä henkilöä itseään vastaan, ja tästä seuraa kummallisia defenssimekanismien ilmentymiä.
 
Yleisesti tämä ketju (ja vastaavat) kyllä ihmetyttää. En vain pysty ymmärtämään, miten joku voi tällaisista asioista ottaa näin pahasti kierroksia.
Olen samoilla linjoilla ja koneessa on 6800xt. DLSS on selvästi hieno menetelmä ja odotan innolla AMD:n vastinetta sille. Näillä uusilla korteilla tehoa on riittävästi eikä se ole nyt mitenkään välttämätön. Tulevat keski- ja matalamman kategorian kortit voisivat hyötyä siitä paljonkin ja itsekin arvostan jos sen kanssa saisi vaikka tehonkulutusta alemmas.
 
Mutta samaa mieltä, tästä DLSS:stä on turha jauhaa koska kyseessä on täysin niche-feature. Sille on reaalimaailman applikaatioissa hyötynsä murto-osassa caseja (se 0,0001% peleistä jotka sitä tukee, 8k ja vanhemmat kortit) eikä sitä toivonmukaan koskaan tarvitse pakosta käyttää. Kukaan ei mielestäni ole väittänyt että ominaisuus ei olisi missään tilanteessa hyödyllinen. Toivon kuitenkin että uudella genillä kenenkään ei tarvitse hetkeen tuota pakon edessä lyödä päälle ja ihan oikeasti läheskään kaikki vihreän leirin kaveritkaan ei liputa DLSS-puolesta :)
Katsellaan mitä tulevaisuus tuo tullessaan sen osalta, tekniikka yleistyy, mutta millä nimellä.

Todennäkäisesti NVIDIA joutuu ennenpitkää hyppäämään suljetun DLSS sijaan tukemaan avoimiarajapintoja, koska AMD on tuomassa omaan fidelityFX kittiinsä vastavan toiminnon avoimena rajapintana, joka toimii samalla toteutuksella sekä konsoleissa, että PC-puolella. Pelikehittäjien ei oikein kannata tukea useampaa eri tekniikkaa, joka tekee samaa jos yhdellä tekniikalla saa pelin toimimaan kaikkialla ja toisella vain NVIDIAN korteilla PC-puolella.

Näinhän periaatteessa kävi myös freesync tekniikan kanssa NVIDIA joutui ottamaan sen käyttöön myös omissa korteissaan. Kun Freesync levisi lähes joka monitoriin ja uhkasi tulla tilanne missä joka poika saa repeilemätöntä kuvanlaatua vain AMD korteilla, koska freesync monitoreita on käytössä valtavasti enemmän kuin kalliimpia g-sync monitoreja.
 
En DLSS:n tekniikoihin ole perehtynyt, mutta hyvin voin uskoa usean freimin tuovan todellisia yksityiskohtia, jotka yhdestä yksittäisest puuttuvat. Tässä munkin kuvassa punainen pilkku oli käytännössä poissa näkyvistä, mutta ylinäytteistämällä useaa peräkkäistä ruutua se saatiin näkyviin. Pilvien muodoista puhumattakaan.

Tosin sinulla on periaatteessa monta still kuvaa jotka yhdistetään tarkemmaksi yhdeksi kuvaksi. En DLSS tiedä mitään, mutta voisin kuvitella että helpompi piirrellä kuvaan jotain mitä sinne ei kuulu kun kyseessä on liikkuva kuva.
 
Todennäkäisesti NVIDIA joutuu ennenpitkää hyppäämään suljetun DLSS sijaan tukemaan avoimiarajapintoja, koska AMD on tuomassa omaan fidelityFX kittiinsä vastavan toiminnon avoimena rajapintana, joka toimii samalla toteutuksella sekä konsoleissa, että PC-puolella. Pelikehittäjien ei oikein kannata tukea useampaa eri tekniikkaa, joka tekee samaa jos yhdellä tekniikalla saa pelin toimimaan kaikkialla ja toisella vain NVIDIAN korteilla PC-puolella.
Voi olla että näin käy tai sitten ei. Nvidia tekoäly ja ylipäätään softateknologinen ylivoima on aivan murskaavaa kilpailuun nähden, joten ei ole mitään takeita että AMD:n vastaavat viritelmät pystyvät vuosiin tai edes koskaan haastamaan Nvidiaa.

Näinhän periaatteessa kävi myös freesync tekniikan kanssa NVIDIA joutui ottamaan sen käyttöön myös omissa korteissaan.
Joku hertsien synkkaus ja AI renderöinti on sama kuin vertaisi polkupyörän ja avaruussukkulan operointia.

Kun Freesync levisi lähes joka monitoriin ja uhkasi tulla tilanne missä joka poika saa repeilemätöntä kuvanlaatua vain AMD korteilla, koska freesync monitoreita on käytössä valtavasti enemmän kuin kalliimpia g-sync monitoreja.
? Freesynkkiä löytyy muutamia poikkeuksia lukuunottamatta lähinnä SER-jäte pirkkamonitoreista, mutta jos mitään oikeata gaming ruutua kunnon spekseillä hakee niin melkein kaikissa on Gsync.
 
? Freesynkkiä löytyy muutamia poikkeuksia lukuunottamatta lähinnä SER-jäte pirkkamonitoreista, mutta jos mitään oikeata gaming ruutua kunnon spekseillä hakee niin melkein kaikissa on Gsync.
Oliko tämä nyt tahallinen provo/trolli?

Tiedät varmaan että suurin osa näytöistä on G-Sync Compatible joka on Nvidian käyttämä nimi Freesyncille?
 
näytönohjaimissa voitais hyvin mennä eri valmistajien yksinoikeuspeleihin kuten konsoleillakin. Olisi pelejä jotka toimisi vain DLSS päällä ja pelejä jotka toimisi vainRadeonin vastaava yksinoikeustekniikka päällä. Jokainen voisi ostaa sen näyttiksen joka tarjoaa parempaa pelattavaa ja aina olisi pelit varmatoimisia, eikä tarvisi miettiä artifakteista tai ettei peli pyöri kunnolla. Konsolipelit tietysti satais AMDn laariin, mutta nvidiallakin on aika paljon niitä TWIMTP tms nimikkeitä.

tätähän nvidia on jo pitkään yrittänyt ajaa, mutta AMD ei ole lähtenyt tuohon mukaan. Pitäisikö tuohon mennä?
 
näytönohjaimissa voitais hyvin mennä eri valmistajien yksinoikeuspeleihin kuten konsoleillakin. Olisi pelejä jotka toimisi vain DLSS päällä ja pelejä jotka toimisi vainRadeonin vastaava yksinoikeustekniikka päällä. Jokainen voisi ostaa sen näyttiksen joka tarjoaa parempaa pelattavaa ja aina olisi pelit varmatoimisia, eikä tarvisi miettiä artifakteista tai ettei peli pyöri kunnolla. Konsolipelit tietysti satais AMDn laariin, mutta nvidiallakin on aika paljon niitä TWIMTP tms nimikkeitä.

tätähän nvidia on jo pitkään yrittänyt ajaa, mutta AMD ei ole lähtenyt tuohon mukaan. Pitäisikö tuohon mennä?
Onko sulla jotain näyttöä tuolle väitteellesi vai ihan lämpimiksesi lätiset?
 
näytönohjaimissa voitais hyvin mennä eri valmistajien yksinoikeuspeleihin kuten konsoleillakin. Olisi pelejä jotka toimisi vain DLSS päällä ja pelejä jotka toimisi vainRadeonin vastaava yksinoikeustekniikka päällä. Jokainen voisi ostaa sen näyttiksen joka tarjoaa parempaa pelattavaa ja aina olisi pelit varmatoimisia, eikä tarvisi miettiä artifakteista tai ettei peli pyöri kunnolla. Konsolipelit tietysti satais AMDn laariin, mutta nvidiallakin on aika paljon niitä TWIMTP tms nimikkeitä.

tätähän nvidia on jo pitkään yrittänyt ajaa, mutta AMD ei ole lähtenyt tuohon mukaan. Pitäisikö tuohon mennä?
On kyllä huonoin idea mitä olen kuullut pitkään aikaan...
 
Onko sulla jotain näyttöä tuolle väitteellesi vai ihan lämpimiksesi lätiset?
Onhan noita lukuisia Nvidian yksinoikeustekniikoita jo olemassa näytön virkistystaajuuden synkronoimisesta alkaen, aina yksittäisiin hiusanimaatioihin jne.
 
On kyllä huonoin idea mitä olen kuullut pitkään aikaan...
Älä suoraan tuomitse. Saatais laadukkaampia pelejä, kun olisi paremmin optimoitu raudalle, pelit valmistuisi lyhyemmässä ajassa. Kuluttajalle olisi helpompi valinta konetta hankkiessa kun olisi selvä pelivalikoima. Ei siinä pelkkää huonoa ole.

tämähän ei missään nimessä ollut mikään 100% trollaus, vaan enemmän keskustelun herätys. Nyt on jauhettu kuitenkin useampi kymmenen sivua samasta asiasta, niin voisihan tuoltakin kannalta asiaa miettiä.
 
Viimeksi muokattu:
Onhan noita lukuisia Nvidian yksinoikeustekniikoita jo olemassa näytön virkistystaajuuden synkronoimisesta alkaen, aina yksittäisiin hiusanimaatioihin jne.
Ja mikään noista ei estä pelaamasta mitään peliä AMD raudalla?

Ja eikös uudet G-sync moduulit tue myös VESA Adaptive Synciä, jolloin niiden pitäisi toimia myös AMD:lla? Esim. Alienware AW3420DW taitaa sisältää G-sync moduulin ja toimii myös AMD Freesyncillä?
 
Älä suoraan tuomitse. Saatais laadukkaampia pelejä, kun olisi paremmin optimoitu raudalle, pelit valmistuisi lyhyemmässä ajassa. Kuluttajalle olisi helpompi valinta konetta hankkiessa kun olisi selvä pelivalikoima. Ei siinä pelkkää huonoa ole.

tämähän ei missään nimessä ollut mikään 100% trollaus, vaan enemmän keskustelun herätys. Nyt on jauhettu kuitenkin useampi kymmenen sivua samasta asiasta, niin voisihan tuoltakin kannalta asiaa miettiä.
Ja tämähän on jo olemassa: Sitä kutsutaan konsoliksi.
 
Ja mikään noista ei estä pelaamasta mitään peliä AMD raudalla?

Ja eikös uudet G-sync moduulit tue myös VESA Adaptive Synciä, jolloin niiden pitäisi toimia myös AMD:lla? Esim. Alienware AW3420DW taitaa sisältää G-sync moduulin ja toimii myös AMD Freesyncillä?
Taisi olla että kaikissa marraskuun 2019 jälkeen tulleissa g-sync näytöissä toimii myös adaptive sync/ freesync.
 
tätähän nvidia on jo pitkään yrittänyt ajaa, mutta AMD ei ole lähtenyt tuohon mukaan. Pitäisikö tuohon mennä?

Ei missään tapauksessa. Pikemminkin nvidian täytyisi ymmärtää että silloin kun pelataan pelikentällä jossa se ei ole ainoa pelaaja, niin olisi parempi tehdä kikottimet standardien kanssa ja avoimena. Se että kaikki tekee omia suljettuja kikottimia jarruttaa kehitystä. Tai jos on haluton tekemään yhteistyötä, niin sitten on parempi siirtyä pelaamaan kentälle jossa yhteistyötä ei tartte tehdä.

Esim. nyt tää DLSS kikotin, sen nvidia voisi muuttaa aivan hyvin avoimeksi tai ylipäätään olisi voinut heti julkaista sen avoimena. Se tuli jokatapauksessa puskista AMD:lle, joten heillä olisi edelleen etulyöntiasema siinä ja todennäköisesti koko kikotin olisi jo paljon laajemmin tuettu.

Mutta suljettuna pelintekijät hyvin nihkeästi alkaa sitä käyttämään ilman lahjontarahaa nvidialta. Kohta myös Intel pukkaa samalle pelikentälle ja jos esim. Intel ja AMD kykenee paremmin tekemään yhteistyötä ja kehittämään vastaavan avoimen kikottimen niin on täysin selvää että DLSS tulee häviämään ja nvidia joutuu joka tapauksessa tukemaan sitä avointa ratkaisua.


EDIT: Ja sitten kun tuosta saatavuudesta on tapeltu niin:

amyxi5vw10361.jpg


Onko leikkiraha tehtaat taas viemässä kaikki kortit kuitenkin vaikka puhuttiin että nää ei olis hyviä kortteja leikkirahan valmistukseen...
 
Viimeksi muokattu:
EDIT: Ja sitten kun tuosta saatavuudesta on tapeltu niin:

amyxi5vw10361.jpg


Onko leikkiraha tehtaat taas viemässä kaikki kortit kuitenkin vaikka puhuttiin että nää ei olis hyviä kortteja leikkirahan valmistukseen...

Kuvassa Taiwanilainen ilma-kryptolämpöpumppu lämmittämässä covid/flunssapotilaita.
 
Voi olla että näin käy tai sitten ei. Nvidia tekoäly ja ylipäätään softateknologinen ylivoima on aivan murskaavaa kilpailuun nähden, joten ei ole mitään takeita että AMD:n vastaavat viritelmät pystyvät vuosiin tai edes koskaan haastamaan Nvidiaa.


Joku hertsien synkkaus ja AI renderöinti on sama kuin vertaisi polkupyörän ja avaruussukkulan operointia.


? Freesynkkiä löytyy muutamia poikkeuksia lukuunottamatta lähinnä SER-jäte pirkkamonitoreista, mutta jos mitään oikeata gaming ruutua kunnon spekseillä hakee niin melkein kaikissa on Gsync.

Freesyncillä taidettiin viitata adaptive syncciin joka on tänä päivänä käsittääkseni sama. Melkein kaikissa ei todellakaan ole g-sync mutta ne saattaa tuurilla olla g-sync compatible eli testattu että toimii g-syncin kanssa yhteen. Ei mun lompsalla ollut ainakaan mitään saumaa hakea oikeaa g-syncciä jossa ois se rauta näytössäkin, mutta tää compatible on testattu jo.

Niimpä. Itsellä homma on kohtalon varassa. Useampi 3080 ja 6800xt tilauksessa, se mikä saapuu ensimmäisenä pääsee koneeseen.

Itsellähän kävi tuossa sellainen että kyllästyin molempien valmistajien korttien odotteluun ja vaikka olen pyrkinyt pitämään Amd:n puolia keskustelussa niin RTX3090 lähti postiin kun verkkiksen outletissa oli Tuffia 1 kappale tarjolla.
Toivonmukaan ton tason kortilla ei tartte hetkeen DLSS koskea ;) Kaipa yleinen mielipide raytracingista kuitenkin alkoi tykyttää otsalohkossa vaikka en sitä itse koekaan mitenkään mullistavana juttuna, onpahan sitten paremmat valmiudet siihenkin jos siihen mennään, Radeonilla kun se olisi nykytiedon valossa jäänyt siihen 60fps hujakoille 1440p:llä. Hintataso alkaa olla noissa 6800xt ja 3080-lapuissakin jo sitä luokkaa että 3090, vaikka senkin hinnat noussut, oli suht helppo perustella itselle, enää kolmannes lisää vrt strix white.
 
Freesyncillä taidettiin viitata adaptive syncciin joka on tänä päivänä käsittääkseni sama. Melkein kaikissa ei todellakaan ole g-sync mutta ne saattaa tuurilla olla g-sync compatible eli testattu että toimii g-syncin kanssa yhteen. Ei mun lompsalla ollut ainakaan mitään saumaa hakea oikeaa g-syncciä jossa ois se rauta näytössäkin, mutta tää compatible on testattu jo.



Itsellähän kävi tuossa sellainen että kyllästyin molempien valmistajien korttien odotteluun ja vaikka olen pyrkinyt pitämään Amd:n puolia keskustelussa niin RTX3090 lähti postiin kun verkkiksen outletissa oli Tuffia 1 kappale tarjolla.
Toivonmukaan ton tason kortilla ei tartte hetkeen DLSS koskea ;) Kaipa yleinen mielipide raytracingista kuitenkin alkoi tykyttää otsalohkossa vaikka en sitä itse koekaan mitenkään mullistavana juttuna, onpahan sitten paremmat valmiudet siihenkin jos siihen mennään, Radeonilla kun se olisi nykytiedon valossa jäänyt siihen 60fps hujakoille 1440p:llä. Hintataso alkaa olla noissa 6800xt ja 3080-lapuissakin jo sitä luokkaa että 3090, vaikka senkin hinnat noussut, oli suht helppo perustella itselle, enää kolmannes lisää vrt strix white.

No suosittelen nyt sitä DLSS:ää edes testaamaan, niin ei tarvi muiden kuulopuheiden ja 800% zoomattujen still kuvien perusteella väitellä. ;)

Esim. siinä ilmasessa bright memory RT benchmarkissa on DLSS 2.0 tuki, jos ei yksikään DLSS 2.0 peli kiinnosta.
 
No suosittelen nyt sitä DLSS:ää edes testaamaan, niin ei tarvi muiden kuulopuheiden ja 800% zoomattujen still kuvien perusteella väitellä. ;)

Esim. siinä ilmasessa bright memory RT benchmarkissa on DLSS 2.0 tuki, jos ei yksikään DLSS 2.0 peli kiinnosta.
Eiköhän se testattua tule juu, tällä hetkellä pelit ei kuitenkaan houkutelleet, toivonmukaan jotain tulevaisuudessa tulee joku jonka kirjastoonkin hyväksyy. Tietty ehkä vois tota minecraft rtxää käydä ihmettelemässä kans, siinä tuskin dlss:kään voi mennä kovin pahasti huti :)

Edit: Ei oo kylläkään pelkästään zoomattujen stillkuvien perusteella väitelty, kyllä noita videoita tuli aiheesta tarkasteltua, joskin zoomillahan ne erot paremmin tuli siinäkin esille
 
Eiköhän se testattua tule juu, tällä hetkellä pelit ei kuitenkaan houkutelleet, toivonmukaan jotain tulevaisuudessa tulee joku jonka kirjastoonkin hyväksyy. Tietty ehkä vois tota minecraft rtxää käydä ihmettelemässä kans, siinä tuskin dlss:kään voi mennä kovin pahasti huti :)

Edit: Ei oo kylläkään pelkästään zoomattujen stillkuvien perusteella väitelty, kyllä noita videoita tuli aiheesta tarkasteltua, joskin zoomillahan ne erot paremmin tuli siinäkin esille

Joo minecraftissa ilmeisesti hyvin toimiva DLSS toteutus. Tosin se RTX versio on erillinen maksullinen versio.

No ei niistä videoistakaan pysty sitä ihan oikeasti näkemään, mille se näyttää siinä silmien edessä, koska YouTube laatu.
 
Joo minecraftissa ilmeisesti hyvin toimiva DLSS toteutus. Tosin se RTX versio on erillinen maksullinen versio.

No ei niistä videoistakaan pysty sitä ihan oikeasti näkemään, mille se näyttää siinä silmien edessä, koska YouTube laatu.
Hmm eiks se minecraft Rtx beta oo ilmainen? Mikäs hiton maksettu mainos se tällane on josta pitää vielä käyttäjänki maksaa.
 
Ja mikään noista ei estä pelaamasta mitään peliä AMD raudalla?

Ja eikös uudet G-sync moduulit tue myös VESA Adaptive Synciä, jolloin niiden pitäisi toimia myös AMD:lla? Esim. Alienware AW3420DW taitaa sisältää G-sync moduulin ja toimii myös AMD Freesyncillä?

Ei estäkään, mutta selkeitä askelia siihen suuntaan on nähty jo useita. Olisihan se mielenkiintoista, kun tuo uskallettais viedä maaliin asti.

Ei missään tapauksessa. Pikemminkin nvidian täytyisi ymmärtää että silloin kun pelataan pelikentällä jossa se ei ole ainoa pelaaja, niin olisi parempi tehdä kikottimet standardien kanssa ja avoimena. Se että kaikki tekee omia suljettuja kikottimia jarruttaa kehitystä. Tai jos on haluton tekemään yhteistyötä, niin sitten on parempi siirtyä pelaamaan kentälle jossa yhteistyötä ei tartte tehdä.

Mutta suljettuna pelintekijät hyvin nihkeästi alkaa sitä käyttämään ilman lahjontarahaa nvidialta. Kohta myös Intel pukkaa samalle pelikentälle ja jos esim. Intel ja AMD kykenee paremmin tekemään yhteistyötä ja kehittämään vastaavan avoimen kikottimen niin on täysin selvää että DLSS tulee häviämään ja nvidia joutuu joka tapauksessa tukemaan sitä avointa ratkaisua.
Tottakai standardiratkaisut tulee aina voittamaan tuollaiset rajaavat ratkaisut jos vain on kilpailua Ja jos ei aleta rajaamaan esim juuri pelejä tietylle raudalle.
 
Standardit on hyviä, muttei ole sanottua että kenen määräämänä sellainen tuo parhaan lopputuloksen. Standardin tarkoitus on tehdä asioiden hoitamisesta mutkattomampaa, muttei ole pakosti niin että vaikka Applen mikä vaan standardi heidän alustallaan on mieleisin tai parhaan lopputuloksen tuottava ratkaisu kehittäjän näkökulmasta. Standardin suosion nostattamiseksi siinä pitää olla tarpeeksi järkeä ja tähän vastaavat kehittäjät; jos ei vastakaikua tule niin jotain on varmaan pielessä, kuten useammat Nvidian viritykset ovat osoittautuneet olevan. Eipä Radeon-tiimin luomat grafiikkakirjastot nekään taida mainittavan suosittuja koskaan olleet (esim. TressFX).

Iso firma voi muskeleillaan koittaa määrittää mikä olisi seuraava standardi, mutta sen pitää tulla vastauksena kehittäjien tarpeisiin tai tarjota jotain mullistavaa. En usko että nykyinen Nvidian RTX-viritelmä (esim. tämmöinen ohjelmointiohjelma löytyy Googlella kuin OptiX) tähtää lopulta muuhun kuin siihen, että heidän tavallaan toteutettuna säteenseuranta pyörii GeForcella parhaiten, eli en usko että Nvidia välittää avussaan mitä tarjoaa kehittäjille siitä millainen suorituskyky on millä tahansa muulla raudalla. Tuollainen standardointi on aika turhaa kun on kilpailua, sillä suuri ostajakunta ei standardista hyödy ja samalla tärkeimpänä seikkana kehittäjä asetetaan tiukkaan paikkaan. Lopulta käy vain niin kuten monesti aiemmin PC-saralla ettei standardia hyödynnä kukaan ja se kuopataan.

Muistakaamme ettei aina ole niinkään että suljettu standardi olisi huono, kyllä sellainenkin voi saada kehittäjiltä kiitosta eikä tarvita edes lahjontaa sen hyödyntämiseksi. Lopputulos on sitten asiakkaan käsissä arvioitavana että miellyttääkö ja oliko mahdollinen lisäkustannus tämän hedelmän saamiseksi sen arvoinen. Applen ekosysteemi on se helpoin esimerkki näin tietotekniikan saralla.

MUOK. täsmennys
MUOK2. asiavirhe
 
Viimeksi muokattu:
Jos että käytä DLSS olette kyllä melko pihalla näin suoraan sanotusti! En voi ymmärtää käyttäjää joka menee ja ostaa ylivertaisen tuotteen verrattuna "vastaavaan" kilpailijan tuotteeseen. Sitten prossesoi niin että ei käytä edes näitä ylivertaisia ominaisuuksia vaan kaartaa niitä kuin ruttoa! Ihmettelen vain suuresti tätäkin tapausta taas en voi käsittää vain mitenkään miten tälläiseen pisteeseen joutuu!
 

Statistiikka

Viestiketjuista
259 358
Viestejä
4 505 446
Jäsenet
74 386
Uusin jäsen
Juize

Hinta.fi

Back
Ylös Bottom