Virallinen: NVIDIA vs AMD (vs Intel) keskustelu- ja väittelyketju

  • Keskustelun aloittaja Keskustelun aloittaja Sampsa
  • Aloitettu Aloitettu
Unelmatilannehan olisi se, että koko ajan tulisi AAA-pelejä, jotka ei pyöri kunnolla sillä kovimmallakaan raudalla. Potkisi näyttispuljuja eteenpäin, eikä tekemään "suunnitellusti vanhenevia" tuotteita kuten RTX 3000-sarjan säälittävät muistikapasiteetit tai RX6000-sarjan hidas RT-toteutus
Eiköhän se AMD:llä ollut enemmän sitä, että konsolipiirien aikataulu painoi päälle ja jonkinlainen rt piti saada. Kun kiireellä tehdään, niin tulos harvoin on optimaallinen
 
Unelmatilannehan olisi se, että koko ajan tulisi AAA-pelejä, jotka ei pyöri kunnolla sillä kovimmallakaan raudalla. Potkisi näyttispuljuja eteenpäin, eikä tekemään "suunnitellusti vanhenevia" tuotteita kuten RTX 3000-sarjan säälittävät muistikapasiteetit tai RX6000-sarjan hidas RT-toteutus
Ei pyöri kunnolla ultralla/asetukset tapissa voisi olla paremmin sanottu, se että saa asetuksia laskemalla menemään on jees, mutta hyvä olisi jos pelit puskisivat rajoja.

Rtx 3090 on ihan jees muistikapasiteetti.
 
Ongelma on edelleen siinä että nykyraudassa ei nopeus riitä.
Ei se ole aiemmissakaan sukupolvissa uusimman raudan suorituskyky riittänyt kaikkiin peleihin 4K resoluutiolla. Tuntuu, että kovasti yritetään niputtaa raudan riittämättömyys täysin samalle viivalle, jos se kerran ei 3090 pyöri kaikki nupikat kaakossa natiivina RT ON 4K. 3080/3090 tarvitsee varmasti vähemmän asetusten heikentämistä siitä ultralta alaspäin, kuin Amd tuotteet tässä sukupolvessa ja aika isolla erotuksella. Vaikkei asetukset sitten enää tapissa olekaan niin peli on kuitenkin suurella erolla edelleen näyttävämpi.

RT suorituskyvyn sivuuttaminen tässä sukupolvessa kuullostaa suhteellisen järjettömältä. Ei taida juuri merkittävämpiä julkaisuja enää tulla ilman RT ominaisuuksia ja vanhempien julkaisujen pelaamiseen ei edes tarvita tämän sukupolven rasterointikykyä vaan hommat voi hoidella pääsääntöisesti vanhemmillakin näytönohjaimilla, etenkin jos 4K resoluutioon ei ole tarvetta.

Omalla kohdalla vasta parituntia CB2077 takana strix 3090 oc vesillä 4K RT ON, kaikki tapissa paitsi RT ei ole psycholla, DLSS balanced 55fps noin silmämääräisesti keskimäärin. Pelissä varmaan tulee vaativampia kohtia jossain edempänä ja pitää sitten punnita pitääkö jotain asetuksia hieman karsia fps:n alttarilla.
 
Rauhoittukaa! Hajaantukaa! Ei täällä mitään uutta ja ihmeellistä ole tapahtumassa.

Muistan, kun joskus takavuosina (2002!) odoteltiin DX9 -shaderefektejä kuin kuuta nousevaa, ja silmät kiiluen tuijoteltiin liekki- ja kipinäefektejä, joskos shadereilla oltaisiin nekin saatu 'luonnollisiksi'.

DX10 tuli ja meni Windows Vistan myötä vähän huomaamatta, eikä siinä käsittääkseni mitään erityistä grafiikan osalta tullutkaan.

DX11 ja DX 12 taas ovat tuoneet grafiikkapuolelle paljonkin lisää, viimeisimpänä DX12 ultimate tuon raytracingin.
Kyllä ne RT-toteutukset sieltä tulevat vielä valtavirtaan, vaikka vähän aikaa vielä siihen meneekin. Parin vuoden päästä näitä kahinoita ei paljon muistetakaan, kun joka pelissä RT-efektit ovat vähintään valittavissa.

Ja silloin ehkä aletaan väittelemään DX13:n ominaisuuksista (kai sekin joskus tulee, vaikka en ole kuullut siitä vielä mitään).
 
Ei se ole aiemmissakaan sukupolvissa uusimman raudan suorituskyky riittänyt kaikkiin peleihin 4K resoluutiolla. Tuntuu, että kovasti yritetään niputtaa raudan riittämättömyys täysin samalle viivalle, jos se kerran ei 3090 pyöri kaikki nupikat kaakossa natiivina RT ON 4K. 3080/3090 tarvitsee varmasti vähemmän asetusten heikentämistä siitä ultralta alaspäin, kuin Amd tuotteet tässä sukupolvessa ja aika isolla erotuksella. Vaikkei asetukset sitten enää tapissa olekaan niin peli on kuitenkin suurella erolla edelleen näyttävämpi.

RT suorituskyvyn sivuuttaminen tässä sukupolvessa kuullostaa suhteellisen järjettömältä. Ei taida juuri merkittävämpiä julkaisuja enää tulla ilman RT ominaisuuksia ja vanhempien julkaisujen pelaamiseen ei edes tarvita tämän sukupolven rasterointikykyä vaan hommat voi hoidella pääsääntöisesti vanhemmillakin näytönohjaimilla, etenkin jos 4K resoluutioon ei ole tarvetta.

Omalla kohdalla vasta parituntia CB2077 takana strix 3090 oc vesillä 4K RT ON, kaikki tapissa paitsi RT ei ole psycholla, DLSS balanced 55fps noin silmämääräisesti keskimäärin. Pelissä varmaan tulee vaativampia kohtia jossain edempänä ja pitää sitten punnita pitääkö jotain asetuksia hieman karsia fps:n alttarilla.
DLSS balanced renderöi pelin 1080p resoluutiolla ja silti on vain 55fps 2000€ näytönohjaimella ja asetukset ei ole edes tapissa...
Kuten sanoin nykyraudassa ei nopeus riitä...
 
DLSS balanced renderöi pelin 1080p resoluutiolla ja silti on vain 55fps 2000€ näytönohjaimella ja asetukset ei ole edes tapissa...
Kuten sanoin nykyraudassa ei nopeus riitä...
Niin eli pitäisi ostaa amd, jossa ei ainakaan riitä tai jättää pelaamatta? En ymmärrä logiikkaa välillä.
 
DLSS balanced renderöi pelin 1080p resoluutiolla ja silti on vain 55fps 2000€ näytönohjaimella ja asetukset ei ole edes tapissa...
Kuten sanoin nykyraudassa ei nopeus riitä...
Mihin ei riitä? Pelaamiseen? Hyvin tuntuu riittävän ja konsoleilla myös kelpaa alemmatkin fps massoille. Laitetaan ensin se peli pelattavaksi ja sen jälkeen ihmetellään graafista loistoa/fps järjestystä eri laitteiden ja alustojen kanssa.
 
Niin eli pitäisi ostaa amd, jossa ei ainakaan riitä tai jättää pelaamatta? En ymmärrä logiikkaa välillä.
Mitä sinä nyt selität? Kysehhän oli säteenjäljityksen relevanssista nykyraudalla. Jos nopeinkaan kortti ei ole tarpeeksi nopea, ei minun mielestä sillä säteenjäljitysnopeudella ole NIIN suurta merkitystä tämän sukupolven korteilla.
 
Mitä sinä nyt selität? Kysehhän oli säteenjäljityksen relevanssista nykyraudalla. Jos nopeinkaan kortti ei ole tarpeeksi nopea, ei minun mielestä sillä säteenjäljitysnopeudella ole NIIN suurta merkitystä tämän sukupolven korteilla.
Miten ei ole tarpeeksi nopea. Mikä on tarpeeksi nopea? Kuten sanoin aiemmin mulla pyörii ihan jees rt psycho dlss quality 3440x1440 ja peli näyttää hyvältä. On tää mulle tarpeeksi nopea tähän peliin.
 
Hardware unboxed on Amd kannattaja niin luonnollisesti se vähän saattaa vaikuttaa.
Samasta syystä myös Amd kannattajat foorumeilla häntä suosii.
Täälläkin varmaan löytyy tutut nimet häntä puolustamassa.
Mulle ihan saama kannustakoon mitä kannustaa ihminen seki vaan on, mutta vähän paikoin näkyy turhan pahasti läpi.

Tässä vertailun vuoksi techpowerupin testipelilista, 5 peliä enemmän ja 8 samaa peliä. Strange brigade tuskin kiinnostaa ketään ja Anno 1880 pelaajamääräkin on aika pieni.

Anno 1880
Assassin's Creed Odyssey
Battlefield V
Borderlands 3
Civilization VI
Control
Death Stranding
Detroit Become Human
Devil May Cry 5
Divinity Original Sin II
DOOM Eternal
F1 2020
Far Cry 5
Gears 5
Hitman 2
Metro Exodus
Project Cars 3
Red Dead Redemption 2
Sekiro: Shadows Die Twice
Shadow of the Tomb Raider
Star Wars: Jedi Fallen Order
Strange Brigade
The Witcher 3: Wild Hunt
Strange brigade kiinnosti niin hemmetisti joitakin arvostelijoita kun AMD oli siinä todella vahvoilla, sittemmin homma muuttui Nvidian ajureilla ja kappas.. katosi pois tiettyjen arvostelijoiden listalta..

Mielenkiintoisesti tollanen Paskin World war Z vai mikä nyt oli roikkuu joidenkin testaajien listalla vain koska pyörähtää Amd.lla luonnollisesti paremmin.
Kyllä näissä väliin on niin räikeesti huomattavissa tarkoitushakuisuuttakin.
Onneksi on useita paikkoja jotka testailee..
 
Rauhoittukaa! Hajaantukaa! Ei täällä mitään uutta ja ihmeellistä ole tapahtumassa.

Muistan, kun joskus takavuosina (2002!) odoteltiin DX9 -shaderefektejä kuin kuuta nousevaa, ja silmät kiiluen tuijoteltiin liekki- ja kipinäefektejä, joskos shadereilla oltaisiin nekin saatu 'luonnollisiksi'.

Tuo on juuri sitä mitä muistelin uusista hienouksista. Esitellään uusi DX, joku peli tukee sitä, tappellaan miten lippulaiva y pyörittää sitä paremmin, mitä x. Sitten kun pelejä alkaa oikeasti tulla ulos, niin kortit on vaihtunut pariin kertaan ja molemmat lippulaivat onkin täysin tuhnuja. Futureproof ostokset näytönohjaimissa uusien ominaisuuksien puolesta ovat lähes aina epäonnistuneet.

DX12 on nyt 5.5v vanha ja vasta viime sivulla oli, miten joku saitti ei testaa tarpeeksi DX11:lla, jossa AMD driver overhead näkyy paremmin ja samalla huudetaan, miten uusinta uutta olevaa säteenseurantaa ei painoteta tarpeeksi arvioinneissa. Kai tämä on sitä iän tuomaa kyynisyyttä, kun on pelannut pc:llä jo amiga/pc tappeluiden aikana. Vähän liian monta kertaa on tullut nähtyä uuden raudan hypetys ja miten softa tulee rajusti perässä ja on aina ollut vaativampaa, mitä on ajateltu.

Jos nyt mennään vanhalla kaavalla, niin tuo 2v aikana 4 merkittävää säteenseuranta julkaisua onkin 20 lisää seuraavan 2v aikana. Valtaosa peleistä on yhä ilman säteenseurantaa, tai se tulee siihen AAA räiskintään, jossa feature kytketään pois päältä, kun pelituntuma on parempi isommalla fps lukemalla. Lähinnä rooli/hiippailu/avoin pelimaalima tapauksissa siitä taitaa tulla kestävää iloa, kun maisemia ehtii ihastellakkin. Toki Ampere on kovempi ja DLSS tuki tulee aika moneen AAA räiskintään, niin pohja on parempi. Silti 4000 sarjan tullen porukka vaihtaa siihen ja hehkutaa miten viimein voi nauttia säteenseurannasta kunnolla, kun tehoa alkaa olla ja pelejäkin alkaa viimein löytymään.

Itse kuitenkin ehdin koskea vain muutamaan säteenseurannalla varustettuun peliin ennen seuraavaan sukupolveen vaihtoa. Joten saatavuus/rasterointi/hinta edellä tulee mentyä.
 
Mitä sinä nyt selität? Kysehhän oli säteenjäljityksen relevanssista nykyraudalla. Jos nopeinkaan kortti ei ole tarpeeksi nopea, ei minun mielestä sillä säteenjäljitysnopeudella ole NIIN suurta merkitystä tämän sukupolven korteilla.
Muutamissa uudemmissa peleissä edes RT OFF 6900XT nopeus ei riitä 4K 60fps (vaikkapa io revikasta WD). Eli ilmeisesti 3090 on ainoa kortti jolla voi pc pelaamista harrastaa ja sekään ei ihan jokaisessa pelissä kyllä riitä. Noin niinkuin logiikkasi mukaan.
 
Mitä sinä nyt selität? Kysehhän oli säteenjäljityksen relevanssista nykyraudalla. Jos nopeinkaan kortti ei ole tarpeeksi nopea, ei minun mielestä sillä säteenjäljitysnopeudella ole NIIN suurta merkitystä tämän sukupolven korteilla.
Aika komiasti se RT on pyörähdellyt...
Toki jos joku haluaa +100fps niin asia on eri.
Mutta eikö +60fps ole tarpeeksi nopeaa?
 
Totuus satuttaa
Mikä totuus? Että HWU:n Steve tekee jatkuvasti kaikkensa sen eteen että nvidia näyttäisi huonommalta kuin (mukamas) onkaan?

Nyt ihan oikeasti, eikö täällä osata kirjoittaa vai mikä ihmisiä vaivaa. @knz0 heittäny taas sellaset salaliittosetit ilmoille, että jos tekstin lukee kuten se on kirjoitettu (joka on knz0:n mukaan vissiin väärä tapa toimia?) niin jää trumppikin kakkoseksi harhaisuudessaan.
 


Okei HWU osalta tästäkin vois olla periaatteessa kyse, on mielestäni myös hassua että jätettiin koko RT ja DLSS pois CP2077 vertailusta, koska kyllä, siinä RT ihan oikeasti näyttää ihan helvetin hyvältä. Mutta kuten olen aiemminkin sanonut, en ole kummankaan leirin fanboy, syistä X ja vanhemmat pelit olisin halunnut Radeonin ehkä ennemmin mutta kun niitäkään ei saanut kaupasta niin koneessa hurraa nyt RTX 3090. Vielä on aika kalliit raytracing-tunnit cyberpunkkiin kun ehtinyt ehkä tunnin pelailemaan, mutta viimeistään tässä vaiheessa ostoksen perustelu itselle onnistui :)
 
Okei HWU osalta tästäkin vois olla periaatteessa kyse, on mielestäni myös hassua että jätettiin koko RT ja DLSS pois CP2077 vertailusta
Et katsonut videota? Siinähän sanottiin useaan kertaan että huomenna tulee oma video jossa käsitellään pelkästään noita nvidia eksklusiivisia ominaisuuksia. Prosentuaalisesti aika paljon näkyvyyttä.

Edit: kyseessä on sen verran iso julkaisu, että useammalla videolla käsittely on bisnesnäkökulmastakin aika fiksu menettelytapa. Myös tämä jako on IMO varsin järkevä (määrällinen/laadullinen tarkastelu omiin videoihin).
 
Viimeksi muokattu:
Niin selvästi AMD kannattaja kun testasi myös Radeoneilla. Jos olisi neutraali testaisi vain Geforceilla ja RT/DLSS päällä. Ja koska Radeonit ei tuossa pelissä RT/DLSS tue ei niitä saa testata.

Vai miten se nyt meni?
 
No kyllä mun mielestä on aika oleellista kuluttajana miettiä sitä tuotteen elinkaarta, ja ominaisuuksien riittävyyttä omaan käyttöön, edes sinne 1-2 vuoden päähän, kun on uudesta näyttiksestä kyse. Se on sitte eri juttu, jos on jotain 2v vanhaa käytettyä ostamassa.

Se nyt in aika pirun selvää, että RT tulee olemaan 1-2v säteellä huomattavasti isommassa roolissa, kun mitä se on just nyt ja 2v menneisyydessä. Toki se tulee olemaan vaan yksi lisöoptio, eikä mikään pakollinen juttu, mutta silti se on saatavilla aika useassa pelissä, mitä ensi vuonnakin julkaistaan. Ei voida enää puhua mistään tech demosta.

Kylläkyllä. Tekstini lopussa tuosta kirjoitinkin, että kyllä kuluttajan kannattaa katsoa tulevaisuuteen korttia valitessa, ja RT on varmasti merkittävämpi vuosi vuodelta, mutta joidenkin puheet "ensi vuoden lähes kaikissa AAA-peleissä on RT" haiskahtaa roskalta. Ja sitten on AA-pelitkin jota osa pelaa. Mutta jokainen arvottakoon tulevaisuuden merkityksen itse.

Toki jos joku haluaa +100fps niin asia on eri.
Mutta eikö +60fps ole tarpeeksi nopeaa?

60fps on täysin pelattava varmasti suurimman osan mielestä, mutta kyllä itseäni vituttaisi pelata 60fps (ei kaikki namiskat edes tapissa) joka ei koskaan tuo täysin sujuvaa pelikokemusta, kun on maksanut +800€ kortista. Mutta eihän sille mitään voi. Ja upea peli tuo on jopa high-asetuksilla. Oikeat säädöt sisään, FPS-mittari OFF ja lets go.
 
Et katsonut videota? Siinähän sanottiin useaan kertaan että huomenna tulee oma video jossa käsitellään pelkästään noita nvidia eksklusiivisia ominaisuuksia. Prosentuaalisesti aika paljon näkyvyyttä.

Edit: kyseessä on sen verran iso julkaisu, että useammalla videolla käsittely on bisnesnäkökulmastakin aika fiksu menettelytapa. Myös tämä jako on IMO varsin järkevä (määrällinen/laadullinen tarkastelu omiin videoihin).
Tuo kohta meni kyllä ohi, voi olla kun töiden ohessa pyöri
 
Aika komiasti se RT on pyörähdellyt...
Toki jos joku haluaa +100fps niin asia on eri.
Mutta eikö +60fps ole tarpeeksi nopeaa?

Pelikohtaista toki, mutta kyllä se 60fps on tarpeeksi nopea yleensä. Siihen vaan ei tahdo päästä nykyraudalla kuin 1080p resolla.
Esimerkiksi Gamers Nexus testien mukaan Cyberpunkissa 3080 jää alle 60fps keskivarvolle ja low menee lähellä 30fps 4k/DLSS Performance (eli 1080p reso käytännössä)
Kaikki pelit ei varmasti ole Nvidian sponsoroimia eli ei voida laskea sen varaan että DLSS tulee löytymään kaikista.

1440p resolle ei 3080 oikein riitä Cyberpunkkiin säteenjäljitys päällä. 4k/DLSS Quality ~42fps avg. (renderöintiresoluutio 1440p)
 
Pelikohtaista toki, mutta kyllä se 60fps on tarpeeksi nopea yleensä. Siihen vaan ei tahdo päästä nykyraudalla kuin 1080p resolla.
Esimerkiksi Gamers Nexus testien mukaan Cyberpunkissa 3080 jää alle 60fps keskivarvolle ja low menee lähellä 30fps 4k/DLSS Performance (eli 1080p reso käytännössä)
Kaikki pelit ei varmasti ole Nvidian sponsoroimia eli ei voida laskea sen varaan että DLSS tulee löytymään kaikista.

1440p resolle ei 3080 oikein riitä Cyberpunkkiin säteenjäljitys päällä. 4k/DLSS Quality ~42fps avg. (renderöintiresoluutio 1440p)

cp2077:sta pelanneena ennemmin otan tässä pelissä ultra karkit kera säteenseurannan versus ilman. Sehän on pc pelaamisen suola, että saa pelata pelejä, jotka ihan tosissaan laittaa raudan hikoilemaan. dlss on kova juttu tässä pelissä. Toki niitä asetuksia voi rukata alaspäinkin, jos välittää enemmän fps:sta kuin silmäkarkista.
 
Pelikohtaista toki, mutta kyllä se 60fps on tarpeeksi nopea yleensä. Siihen vaan ei tahdo päästä nykyraudalla kuin 1080p resolla.
Esimerkiksi Gamers Nexus testien mukaan Cyberpunkissa 3080 jää alle 60fps keskivarvolle ja low menee lähellä 30fps 4k/DLSS Performance (eli 1080p reso käytännössä)
Kaikki pelit ei varmasti ole Nvidian sponsoroimia eli ei voida laskea sen varaan että DLSS tulee löytymään kaikista.

1440p resolle ei 3080 oikein riitä Cyberpunkkiin säteenjäljitys päällä. 4k/DLSS Quality ~42fps avg. (renderöintiresoluutio 1440p)

Tuo 60fps jää haaveeksi natiivina ihan ilman että RT on mukana kuvioissa. Mitenkäs sitten tehdään 4K ruutujen omistajien keskuudessa? Jätetään peli ostamatta ja pelataan ehkä joskus ensi tai sitä seuraavan sukupolven arkkitehtuureilla?
 

Liitteet

  • gjALNezhoBLrgWYAmDXtrn-970-80.png
    gjALNezhoBLrgWYAmDXtrn-970-80.png
    89,2 KB · Luettu: 35
Tuo 60fps jää haaveeksi natiivina ihan ilman että RT on mukana kuvioissa. Mitenkäs sitten tehdään 4K ruutujen omistajien keskuudessa? Jätetään peli ostamatta ja pelataan ehkä joskus ensi tai sitä seuraavan sukupolven arkkitehtuureilla?
Ei käytetä Ultra asetuksia?
 
Noniin, nyt saatiin perjantaiksi loistavat draamakuviot:



Nvidia ei siis jatkossa lähetä enää AMDUn.. HWunboxedille FE-kortteja johtuen HWunboxedin toimituksen rasterointifokuksesta.

Onhan tuo varsin typerä liike ollut HWU:lta jo hetken aikaa, vähätellään raytracingia ja myös sitä dlss:ää vaikka omat mielipiteet nyt ei pitäisi testeihin vaikuttaakaan, ainakin jos meinaa puolueeton olla.

Kyllä ainakin itseäni kiinnostaa nähdä revikoissa myös ne RT numerot, onhan noita pelejä jo jonkin verran joista tuki sille löytyy.
 
Onhan tuo varsin typerä liike ollut HWU:lta jo hetken aikaa, vähätellään raytracingia ja myös sitä dlss:ää
Ei ne kyllä ole DLSS:ää vähätelleet, muuten kuin pelituen osalta. Esim. ihan otsikosta ”Nvidia DLSS in 2020: Stunning results” ja itse artikkeli alkaa sanoilla ”this could be a game changer”. Vissiin olis jotain toisia ylistyssanoja pitäny käyttää?
..

Kyllä ainakin itseäni kiinnostaa nähdä revikoissa myös ne RT numerot, onhan noita pelejä jo jonkin verran joista tuki sille löytyy.
Mistä revikoista noi susta nyt niin kovasti puuttuu?
 


Mää pelailemassa ilman tekoälyä ja ilman säteitä 2020-luvulla.

:sidea:

Melkonen kuvanhuononnus ja FPS:n heikennin ja säteiden väärentäjä. AMD:n nenän edestä taisi juna juuri mennä ohi. Pasianssia kyllä pyörittää joten ei hätää, kannattaa hankkia.

Pelataan sitten kaikilla herkuilla tulevia AAA-pelejä seuraavassa sukupolvessa.
 
Kyllähän tuo DLSS välillä hajoaa tuossa Cyberpunkissa, pahin esimerkki varmaan se ykkösaktin interludessa oleva lyhyt helikopterilento, siinä oli selvää häntimistä. 99% ajasta kuitenkin toimii hyvin (varmaan 6-8h ehdin pelailla eilen sitä) ja paljon mieluummin RT+DLSS, kuin natiivi ilmam RT:tä.
 


Mää pelailemassa ilman tekoälyä ja ilman säteitä 2020-luvulla.

:sidea:

Melkonen kuvanhuononnus ja FPS:n heikennin ja säteiden väärentäjä. AMD:n nenän edestä taisi juna juuri mennä ohi. Pasianssia kyllä pyörittää joten ei hätää, kannattaa hankkia.

Pelataan sitten kaikilla herkuilla tulevia AAA-pelejä seuraavassa sukupolvessa.

Lopeta jo tuo trollaus.

Esiopetetun neuroverkon pohjalta tehty skaalaus yhdistettynä TAA:han ei ole "tekoälyä", vaikka miten monta kertaa sitä toistelet.

ps. Täysin samat "tekoäly"laskut voidaan laskea kumman tahansa raudalla. NVIDIA on toki sulkenut DLSS:n vain itselleen, mutta itse tekniikassa ei ole mitään sellaista ettei sitä voisi laskea AMD:nkin raudalla.
pps. Täysin samat säteet voidaan laskea kumman tahansa raudalla. CDPR on toki kytkenyt ne toistaiseksi pois päältä AMD:lta, mutta niissä ei ole mitään sellaista, mitä ei voisi AMD:n korteilla tehdä.
 
Lopeta jo tuo trollaus.

Esiopetetun neuroverkon pohjalta tehty skaalaus yhdistettynä TAA:han ei ole "tekoälyä", vaikka miten monta kertaa sitä toistelet.

ps. Täysin samat "tekoäly"laskut voidaan laskea kumman tahansa raudalla. NVIDIA on toki sulkenut DLSS:n vain itselleen, mutta itse tekniikassa ei ole mitään sellaista ettei sitä voisi laskea AMD:nkin raudalla.
pps. Täysin samat säteet voidaan laskea kumman tahansa raudalla. CDPR on toki kytkenyt ne toistaiseksi pois päältä AMD:lta, mutta niissä ei ole mitään sellaista, mitä ei voisi AMD:n korteilla tehdä.
:speak:

Alustoilla ei siis mielestäsi ole mitään eroa? Pukinkonttiin AMD:tä kannattaa laittaa perheen pienemmille cyberpunkkia varten?
 
Alustoilla ei siis mielestäsi ole mitään eroa? Pukinkonttiin AMD:tä kannattaa laittaa perheen pienemmille cyberpunkkia varten?
En minä niin sanonut, vaan korjasin virheellisiä väittämiäsi.

Eri alustoilla on tietenkin eroja monessakin asiassa, mutta tällä hetkellä näytönohjaimet ovat lähes ominaisuuspariteetissa. Direct3D-puolella AMD on edellä Tiled Resources- (Tier 4 vs Tier 3) ja Sampler Feedback (Tier 1 vs Tier 0.9) -ominaisuuksissa, joiden lisäksi AMD:lla on 4-bittiä laajemmat virtuaalimuistiavaruudet per resurssi ja per prosessi (44bit vs 40bit) ja Stencil Reference Value from Pixel Shader -ominaisuus uupuu NVIDIAlta täysin. NVIDIA on taas edellä View Instancing -ominaisuudessa (Tier 1 vs Tier 3).

Softapuolelta löytyy sitten enemmän eroja ja tässäkin tapauksessa erot ovat siellä softapuolella. AMD:lla on tapana tehdä niistä avointa lähdekoodia kenen tahansa hyödynnettäväksi, kun NVIDIA harrastaa enemmän vain itselleen suljettuja kuten DLSS.
NVIDIA on toki myös räätälöinyt DLSS:n suorituksen matriisilaskimille sopivaksi, jolloin se suoritus on nopeampaa tensoriytimillä, mutta mitään sellaisia laskuja siinä ei ole, mitä AMD:n raudalla ei voisi laskea (minkä lisäksi AMD:lla on toki omat matriisilaskimensa, järeämpiäkin vielä kuin NVIDIAn, mutta ne löytyvät ammattilaispuolelta missä niille on ihan kunnolla käyttöä). Osa DLSS-versioista suoritettiin jopa NVIDIAlla ihan vain CUDA-ytimillä.

Ja tietenkin eri jutut toimivat eri nopeuksilla eri arkkitehtuureilla, kaikissa niistä on vahvuuksia ja heikkouksia.

Punkinkonttiin voi ihan yhtä hyvin heittää AMD:n kuin NVIDIAnkin näytönohjaimen jos sellaisen sattuu saamaan, kummankaan suorituskyky ei riitä Cyberpunkille kuitenkaan ilman erilaisia kompromisseja, ihan sama mitä rautaa koneessa on. Peli on kuitenkin ihan yhtä hyvä tai huono riippumatta siitä kumman valmistajan kortilla sitä pelaa, tällä hetkellä NVIDIAlla saa enemmän karkkia päälle mutta niiden karkkien päälle laittaminen taas vaatii tekemään kompromisseja muualla. Kunhan CPDR saa aikaiseksi kytkeä säteenseurannan päälle AMD:llakin saadaan yhtä paljon karkkia päälle, mutta aivan yhtä taatusti käyttäjä joutuu tekemään kompromisseja niilläkin.
 
Niin eli pitäisi ostaa amd, jossa ei ainakaan riitä tai jättää pelaamatta? En ymmärrä logiikkaa välillä.

Itse pelaan peliä ultralla ja 4k, variable rendering min 80% (Radeon 6800). Ei ainakaan vielä ole kaivannut mihinkään muutosta ja hyvin pyörii. Lucys bar on tällä hetkellä menossa ja tuntuu sielläkin pyörivän hyvin. Katsotaan sitten kun tulee joku isompi räiskintä osuus pitääkö tiputtaa variable resoluutiota alemmaksi.

Peli näyttää hienolta ja skarpilta näinkin eikä kaipaa RT efektejä sinällään.
 
Viimeksi muokattu:
En minä niin sanonut, vaan korjasin virheellisiä väittämiäsi.

Eri alustoilla on tietenkin eroja monessakin asiassa, mutta tällä hetkellä näytönohjaimet ovat lähes ominaisuuspariteetissa. Direct3D-puolella AMD on edellä Tiled Resources- (Tier 4 vs Tier 3) ja Sampler Feedback (Tier 1 vs Tier 0.9) -ominaisuuksissa, joiden lisäksi AMD:lla on 4-bittiä laajemmat virtuaalimuistiavaruudet per resurssi ja per prosessi (44bit vs 40bit) ja Stencil Reference Value from Pixel Shader -ominaisuus uupuu NVIDIAlta täysin. NVIDIA on taas edellä View Instancing -ominaisuudessa (Tier 1 vs Tier 3).

Softapuolelta löytyy sitten enemmän eroja ja tässäkin tapauksessa erot ovat siellä softapuolella. AMD:lla on tapana tehdä niistä avointa lähdekoodia kenen tahansa hyödynnettäväksi, kun NVIDIA harrastaa enemmän vain itselleen suljettuja kuten DLSS.
NVIDIA on toki myös räätälöinyt DLSS:n suorituksen matriisilaskimille sopivaksi, jolloin se suoritus on nopeampaa tensoriytimillä, mutta mitään sellaisia laskuja siinä ei ole, mitä AMD:n raudalla ei voisi laskea (minkä lisäksi AMD:lla on toki omat matriisilaskimensa, järeämpiäkin vielä kuin NVIDIAn, mutta ne löytyvät ammattilaispuolelta missä niille on ihan kunnolla käyttöä). Osa DLSS-versioista suoritettiin jopa NVIDIAlla ihan vain CUDA-ytimillä.

Ja tietenkin eri jutut toimivat eri nopeuksilla eri arkkitehtuureilla, kaikissa niistä on vahvuuksia ja heikkouksia.

Punkinkonttiin voi ihan yhtä hyvin heittää AMD:n kuin NVIDIAnkin näytönohjaimen jos sellaisen sattuu saamaan, kummankaan suorituskyky ei riitä Cyberpunkille kuitenkaan ilman erilaisia kompromisseja, ihan sama mitä rautaa koneessa on. Peli on kuitenkin ihan yhtä hyvä tai huono riippumatta siitä kumman valmistajan kortilla sitä pelaa, tällä hetkellä NVIDIAlla saa enemmän karkkia päälle mutta niiden karkkien päälle laittaminen taas vaatii tekemään kompromisseja muualla. Kunhan CPDR saa aikaiseksi kytkeä säteenseurannan päälle AMD:llakin saadaan yhtä paljon karkkia päälle, mutta aivan yhtä taatusti käyttäjä joutuu tekemään kompromisseja niilläkin.
1607711197584.png


Toivotaan että tuo tuleva AMD:n DLSS vastike tuohon 2020 luvun AAA pelien huutoon vastaa.

Vastaava Nvidialla on jo toisessa sukupolvessa menossa ja kyllä siellä muutaman bitcoinin edestä on jyllätty vaihtoehtoja parhaan kuvan saavuttamiseen jokaiseen tilanteeseen.

Mutta jäämme odottamaan. Itse en kyllä nykyvalossa uskaltasi suositella AMD:tä Cyberpunkkiin mutta toimituksessa tiedetään näistä paremmin.
 
Itse pelaan peliä ultralla ja 4k, variable rendering min 80% (Radeon 6800). Ei ainakaan vielä ole kaivannut mihinkään muutosta ja hyvin pyörii. Lucys bar on tällä hetkellä menossa ja tuntuu sielläkin pyörivän hyvin. Katsotaan sitten kun tulee joku isompi räiskintä osuus pitääkö tiputtaa variable resoluutiota alemmaksi.
Ja rt oli ultralla?
 
Maksimissa mihin sen saa (eli ei ole julkkarissa tuettuna).
Niin vastasin aiemmassa kommentissani väitteeseen, että nykyraudalla ei riitä tehot pyörittää rt:tä, joka toimii hienosti nvidialla, mutta vähemmän hienosti amd:lla (tai ei vaan toimi Cyberpunkissa vielä). En ottanut kantaa siihen pyöriikö peli yleensä.
 
1607711197584.png


Toivotaan että tuo tuleva AMD:n DLSS vastike tuohon 2020 luvun AAA pelien huutoon vastaa.

Vastaava Nvidialla on jo toisessa sukupolvessa menossa ja kyllä siellä muutaman bitcoinin edestä on jyllätty vaihtoehtoja parhaan kuvan saavuttamiseen jokaiseen tilanteeseen.

Mutta jäämme odottamaan. Itse en kyllä nykyvalossa uskaltasi suositella AMD:tä Cyberpunkkiin mutta toimituksessa tiedetään näistä paremmin.
Tuossa lainauksessa, mistä se ikinä sitten onkaan, on sellainen pieni ongelma että siinä puhutaan ihan mitä sattuu.

AMD ei ole julkaissut mitään DLSS:n kaltaista teknologiaa, se on ihan totta. Sillä on kuitenkin työn alla SuperResolution-teknologia joka on vastaava ja sen kehitystyössä on mukana tiettävästi mm. MS, joka on demonnut omaa superresoluutiotekniikkaansa jo ajat sitten käytännössäkin.

Jos "4K image qualityllä" viitataan 4K-resoluution kaikki karkit päällä, niin siihen ei pysty yhtään mikään näytönohjain. Sillä hetkellä kun DLSS otetaan käyttöön, laskee resoluutio, eikä se vastaa lopullista vaikka paikoin lähelle pääseekin. Ja myös Cyberpunkissa DLSS:ssä on laatuongelmia mm. moirén kanssa.

Jos taas sillä viitataan 4K-resoluutioon ilman RT:tä mutta muuten maksimein, niin siihen pystyy sekä AMD:n että NVIDIAn näytönohjaimet. NVIDIA on toki nopeampi, mutta molemmilla on kaksi näyttistä jotka pääsevät selvästi yli 30 FPS:n ja nolla jotka pääsisivät 60 FPS:ään (tai edes 50 FPS:ään) (esim https://cdn.mos.cms.futurecdn.net/P8puKi6gmoPRWztv9JLWdF.png )

Millä tapaa se peli muuttuu huonommaksi, jos sitä pelaa muulla kuin NVIDIAn grafiikkapiiriä käyttävällä näytönohjaimella?
 
Tuossa lainauksessa, mistä se ikinä sitten onkaan, on sellainen pieni ongelma että siinä puhutaan ihan mitä sattuu.

AMD ei ole julkaissut mitään DLSS:n kaltaista teknologiaa, se on ihan totta. Sillä on kuitenkin työn alla SuperResolution-teknologia joka on vastaava ja sen kehitystyössä on mukana tiettävästi mm. MS, joka on demonnut omaa superresoluutiotekniikkaansa jo ajat sitten käytännössäkin.

Jos "4K image qualityllä" viitataan 4K-resoluution kaikki karkit päällä, niin siihen ei pysty yhtään mikään näytönohjain. Sillä hetkellä kun DLSS otetaan käyttöön, laskee resoluutio, eikä se vastaa lopullista vaikka paikoin lähelle pääseekin. Ja myös Cyberpunkissa DLSS:ssä on laatuongelmia mm. moirén kanssa.

Jos taas sillä viitataan 4K-resoluutioon ilman RT:tä mutta muuten maksimein, niin siihen pystyy sekä AMD:n että NVIDIAn näytönohjaimet. NVIDIA on toki nopeampi, mutta molemmilla on kaksi näyttistä jotka pääsevät selvästi yli 30 FPS:n ja nolla jotka pääsisivät 60 FPS:ään (tai edes 50 FPS:ään) (esim https://cdn.mos.cms.futurecdn.net/P8puKi6gmoPRWztv9JLWdF.png )

Millä tapaa se peli muuttuu huonommaksi, jos sitä pelaa muulla kuin NVIDIAn grafiikkapiiriä käyttävällä näytönohjaimella?

Näin se tilanne näyttää puhtaan rasteroinnin osalta, mutta heti kun otetaaan nämä ns. 'tekoäly / kehittyneet functiot' käyttöön niin vastaavalla suorituskyvyllä / laadulla ollaan AMD:llä 20FPS tai pelikyvytön vs. Nvidian 80-100FPS ja laatu näyttää hyvältä.

Mistä tämä suorituskyky/laatu ero sitten syntyy jos ei sieltä tulevaisuuden tekniikoista / A.I kehityksistä kerta alustat on hyvinkin samanlaisia. AMD voisi mielestäsi vain painaa nappia ja hypätä samaan lopputulokseen kaiken kerrotun jo toteaman mukaan?

Miksi siis ei näin tehdä jos alusta on tasoissa ja eroja ei ole? voiko olla että siellä A.I tasolla voi tehdä jotain muutakin kuin typeriä matriisi laskuja?
 
Tuossa lainauksessa, mistä se ikinä sitten onkaan, on sellainen pieni ongelma että siinä puhutaan ihan mitä sattuu.

AMD ei ole julkaissut mitään DLSS:n kaltaista teknologiaa, se on ihan totta. Sillä on kuitenkin työn alla SuperResolution-teknologia joka on vastaava ja sen kehitystyössä on mukana tiettävästi mm. MS, joka on demonnut omaa superresoluutiotekniikkaansa jo ajat sitten käytännössäkin.

Jos "4K image qualityllä" viitataan 4K-resoluution kaikki karkit päällä, niin siihen ei pysty yhtään mikään näytönohjain. Sillä hetkellä kun DLSS otetaan käyttöön, laskee resoluutio, eikä se vastaa lopullista vaikka paikoin lähelle pääseekin. Ja myös Cyberpunkissa DLSS:ssä on laatuongelmia mm. moirén kanssa.

Jos taas sillä viitataan 4K-resoluutioon ilman RT:tä mutta muuten maksimein, niin siihen pystyy sekä AMD:n että NVIDIAn näytönohjaimet. NVIDIA on toki nopeampi, mutta molemmilla on kaksi näyttistä jotka pääsevät selvästi yli 30 FPS:n ja nolla jotka pääsisivät 60 FPS:ään (tai edes 50 FPS:ään) (esim https://cdn.mos.cms.futurecdn.net/P8puKi6gmoPRWztv9JLWdF.png )

Millä tapaa se peli muuttuu huonommaksi, jos sitä pelaa muulla kuin NVIDIAn grafiikkapiiriä käyttävällä näytönohjaimella?

Perustuiko se ms:n demo nvidian algoritmeihin vai muistanko ihan väärin?
 
Tossa on vuodelta 2018 Microsoftin super-resolution demoa 15 minuutin kohdalla jonka toteutuksessa NVIDIA oli auttanut jollain tasolla.


DirectML-super-sampling.jpg
 
Näin se tilanne näyttää puhtaan rasteroinnin osalta, mutta heti kun otetaaan nämä ns. 'tekoäly / kehittyneet functiot' käyttöön niin vastaavalla suorituskyvyllä / laadulla ollaan AMD:llä 20FPS tai pelikyvytön vs. Nvidian 80-100FPS ja laatu näyttää hyvältä.

Mistä tämä suorituskyky/laatu ero sitten syntyy jos ei sieltä tulevaisuuden tekniikoista / A.I kehityksistä kerta alustat on hyvinkin samanlaisia. AMD voisi mielestäsi vain painaa nappia ja hypätä samaan lopputulokseen kaiken kerrotun jo toteaman mukaan?

Miksi siis ei näin tehdä jos alusta on tasoissa ja eroja ei ole? voiko olla että siellä A.I tasolla voi tehdä jotain muutakin kuin typeriä matriisi laskuja?
Ei pidä paikkaansa. DLSS:n päälle kytkeminen tarkoittaa heti, ettei kuvanlaatu ole vastaavalla tasolla objektiivisesti. Subjektiivisesti kuka tahansa voi olla mitä mieltä tahansa, mutta sitä omaa mielipidettä ei voi yleistää kaikkia koskevaksi.

Joka arkkitehtuurissa on omia vahvuuksiaan ja omia heikkouksiaan. Suorituskykyeroa tulee mm. säteenseurantaraudasta, joka on NVIDIAlla jonkin verran tehokkaampaa, mutta käytännössä peleissä ei puhuta tuollaisista mainitsemistasi eroista samalla resoluutiolla, ei edes lähelle, vaan RX 6800 XT on siellä 2080 Ti / 3070 -maisemissa ja vähän päälle (pari pathtracing poikkeusta erikseen)

Mitä laatueroa mahdat nyt tarkoittaa? Säteenseuranta on keinotekoisesti toistaiseksi kytketty pois päältä AMD:lta, mutta CDPR on kytkemässä senkin käyttöön kunhan ehtivät. Muita laatueroja ei ole, ellet puhu DLSS:stä mihin liittyen kts yllä.

Ei ole mitään ihmeen "A.I.-tasoa". Koko se mistä olet jauhanut tekoälynä pyörii NVIDIAn tensoriyksiköiksi kutsutuissa matriisilaskimissa. Niissä ei ole mitään sen kummempaa erikoista, kuin että ne suorittavat tietyntyyppisiä laskuja nopeammin, kuin geneeriset yksiköt, ja moni tekoälyyn liittyvä lasku soveltuu laskettaviksi niillä nopeasti. AMD on lähestynyt kuluttajaraudassa asiaa toiselta kantilta ja tehnyt yksinkertaisesti samassa käytössä hyödyllisistä INT4- ja INT8-tarkkuuksista erittäin nopeita (8:1 ja 4:1) geneerisissä laskuyksiköissään, palvelinpuolella laskentaraudassa taas NVIDIAa järeämmin matriisilaskimin.

Sulla on nyt niin pahasti terminologia hukassa. Lue vaikka intro tuosta kirjasta:
Se valmiiksi koulutettu neuroverkko on nimenomaan se tekoäly, joka hoitaa kuvan rekonstruktion isommalle resoluutiolle saamansa informaation pohjalta.
Kuten sanoin, aika löyhillä mennään jos yksinkertaista esiopetettua neuroverkon suorittamista kutsutaan tekoälyksi. Sen neuroverkon opetus- ja oppimisprosessi on toki asia ihan erikseen, mutta tuo pyöritettävä neuroverkko ei opi eikä sitä opeteta.
 
Esiopetetun neuroverkon pohjalta tehty skaalaus yhdistettynä TAA:han ei ole "tekoälyä", vaikka miten monta kertaa sitä toistelet.

ps. Täysin samat "tekoäly"laskut voidaan laskea kumman tahansa raudalla. NVIDIA on toki sulkenut DLSS:n vain itselleen, mutta itse tekniikassa ei ole mitään sellaista ettei sitä voisi laskea AMD:nkin raudalla.
pps. Täysin samat säteet voidaan laskea kumman tahansa raudalla. CDPR on toki kytkenyt ne toistaiseksi pois päältä AMD:lta, mutta niissä ei ole mitään sellaista, mitä ei voisi AMD:n korteilla tehdä.


Summalilen kommenteista:

AMD punalasit väittää;
Softalla ei tässä tapauksessa voidaa vaikuttaa asiaan? eli ns. nykymaailmassa softan kehitys on turhaa. Esim. oppiva softa mikä kehittää itseään ei pysty kehittymään 2020 luvulla nopeuttamaan omaa toimintaasa? jopa viemään omat haasteensa suoraan matriisiin ratkaistavaksi? ... tätä matriisia voidaaan rakentaa matriisin päälle vaikka loputtomiin, mutta ollaan vs. 1.0 ns munat padassa ja ei voida hyväksyä että kilpailija on ehkä mennyt tässä 1M astettta pidemmälle. Jopa tätä voidaan viedä maatriisi tasolle? ohooo. ehkä tästä voidaan viedä matriisi matriisi tasolle ja se matriisi x10 tasolle.

Noh ei meikällä riitä tähän aivot mutta itse veisin sen oppivaksi jos riittäisi aivoja. Hauska aihe ja Nvidian mainos tekoälystä on varmasti puppua kun IO-Techistä luin.
 
Kuten sanoin, aika löyhillä mennään jos yksinkertaista esiopetettua neuroverkon suorittamista kutsutaan tekoälyksi. Sen neuroverkon opetus- ja oppimisprosessi on toki asia ihan erikseen, mutta tuo pyöritettävä neuroverkko ei opi eikä sitä opeteta.
Tätä keskustelua kun on pidempään seurannut, niin ketjun kirjoittajilla tuntuu olevan outo käsitys tekoälystä ja mitä se on. Suurimmaksi osaksi viime vuosien öyhötys AI:sta ja tekoälystä on lähinnä huvittavaa. Tekoälyä on ollut kaikessa tekniikassa useita useita vuosikymmeniä käytössä ja se on ollut osa joka päiväistä elämää kuluttajilla. Mikään tietotekniikka ei toimi ilman tekoälyä.. Tekoäly on vanhempi keksintö kuin transistori.

Eri asia täysin on itse oppiva koneäly, mikä taasen on yksi vielä lapsen kengissä oleva osa-alue.
 
Tätä keskustelua kun on pidempään seurannut, niin ketjun kirjoittajilla tuntuu olevan outo käsitys tekoälystä ja mitä se on. Suurimmaksi osaksi viime vuosien öyhötys AI:sta ja tekoälystä on lähinnä huvittavaa. Tekoälyä on ollut kaikessa tekniikassa useita useita vuosikymmeniä käytössä ja se on ollut osa joka päiväistä elämää kuluttajilla. Mikään tietotekniikka ei toimi ilman tekoälyä.. Tekoäly on vanhempi keksintö kuin transistori.

Eri asia täysin on itse oppiva koneäly, mikä taasen on yksi vielä lapsen kengissä oleva osa-alue.
Olet sinänsä täysin oikeassa, mutta tässä nykypäivän kontekstissa ainakin itsellä on ollut se käsitys, että kyky mukautua uuden tiedon pohjalta on yksi perusedellytyksiä tekoälylle (tarkoittaen sitä, mihin tekoälyllä nykypäivänä tyypillisesti viitataan)
 
Olet sinänsä täysin oikeassa, mutta tässä nykypäivän kontekstissa ainakin itsellä on ollut se käsitys, että kyky mukautua uuden tiedon pohjalta on yksi perusedellytyksiä tekoälylle (tarkoittaen sitä, mihin tekoälyllä nykypäivänä tyypillisesti viitataan)
Ajat muuttuu ja toiset muuttuu dinosauruksiksi, mutta onhan tuossa tämän aiheen osalta sanottava, että tuossa NVIDIAn skaalaimessa on perusedellytykset nykypäivän kontekstissa puhua koneoppivasta tekoälystä, se ei vaan opi enää. Jos miettii miten koneoppiminen toimii, niin joku ihminen aina määrittelee ne parametrit millä opetus toimii ohjaten lopputuloksen haluttuun pisteeseen. Sen paremmin tutustumatta DLSS toimintaan tarkemmin, niin siinä on ajettu sisään dataa ja joku on tehnyt määrittelyä taustalla kunnes järjestelmä on alkanut tuottaa haluttuja tuloksia. Sen jälkeen niillä tiedoilla on rakennettu skaalain, joka päättelee tuloksen opetetun tiedon perusteella. Mielestäni väittely asiasta on aika turhaa, ja käytössä tekoäly, joka käyttää koneoppimisen tuottamia tuloksia. Tarkempia faktoja toiminnasta ei taida olla edes tarjolla.

Totta kai siellä vedetään PR täysin yli ja tehdään asiasta jotenkin hohdokasta ja muutoin glorifoidaan asiaa. Se toimii hyvin kun miettii lähtökohtia, toisille se riittää ja toisille ei. Joka tapauksessa tekoälyllä se on toteutettu kuten myös AMD skaalain tulee olemaan, koska muutoinhan se ei voisi edes toimia. AI:lla revittely taasen on kieltämättä aika väsynyttä, mutta näköjään toimii markkinoilla.
 
Vastaiskuna tekoälyttömille voisi tietenkin voisi markkinoida algoritmeja myös ihmisälyllä tehdyiksi :)

Lähinnä varmaan alphago, alphazero ja alpha star voisivat olla lähempänä tekoälyä. Nehän ovat oppineet pelin tyhjästä ja jatkavat oppimista pelaamalla. Mutta ei nekään ole älykkäitä. Osaavat vain yhtä peliä todella hyvin ja oppivat siinä paremmaksi edelleen.
 
On tämä jotenki kurjaa. Viimeiset 20 sivua pelkästään sitä että nvidialla on kuvanhuononnustekniikka joka on täysin turha ja sit kuitenki kilpailijalta on tulossa samanlainen. Jos kerran täysin huono ja huonontaa vain kuvaa niin miksi ihmeessä se maailman paras firma lähtee tuohon mukaan?
Hauska huomata että kun kyse on nvidiasta niin joka toinen kirjoittaja huutelee kuvanhuononnus sanalla, mut sit kun kyse on super resolution kikkareesta niin äänensävy onki että kyseessä on maailmaa mullistava tekniikka
 
On tämä jotenki kurjaa. Viimeiset 20 sivua pelkästään sitä että nvidialla on kuvanhuononnustekniikka joka on täysin turha ja sit kuitenki kilpailijalta on tulossa samanlainen. Jos kerran täysin huono ja huonontaa vain kuvaa niin miksi ihmeessä se maailman paras firma lähtee tuohon mukaan?
Hauska huomata että kun kyse on nvidiasta niin joka toinen kirjoittaja huutelee kuvanhuononnus sanalla, mut sit kun kyse on super resolution kikkareesta niin äänensävy onki että kyseessä on maailmaa mullistava tekniikka
Mikä ihmeen maailman paras firma? Ei maailman paras firma tee yhtä ainutta näyttistä tai muutakaan komponenttia :bored:
Ainakin minä olen sanonut superresoluutiosta että odotan sen olevan ihan samaan tapaan kuvanhuononnustekniikka kuin DLSS:kin.
 
On tämä jotenki kurjaa. Viimeiset 20 sivua pelkästään sitä että nvidialla on kuvanhuononnustekniikka joka on täysin turha ja sit kuitenki kilpailijalta on tulossa samanlainen. Jos kerran täysin huono ja huonontaa vain kuvaa niin miksi ihmeessä se maailman paras firma lähtee tuohon mukaan?
Hauska huomata että kun kyse on nvidiasta niin joka toinen kirjoittaja huutelee kuvanhuononnus sanalla, mut sit kun kyse on super resolution kikkareesta niin äänensävy onki että kyseessä on maailmaa mullistava tekniikka
Lainaa toki jotain tälläistä viestiä.
 

Uusimmat viestit

Statistiikka

Viestiketjuista
259 410
Viestejä
4 506 991
Jäsenet
74 395
Uusin jäsen
amer

Hinta.fi

Back
Ylös Bottom