Virallinen: NVIDIA vs AMD (vs Intel) keskustelu- ja väittelyketju

  • Keskustelun aloittaja Keskustelun aloittaja Sampsa
  • Aloitettu Aloitettu
RTX 4060 Ti on noin 188 neliömilliä, RTX 3060 on 276 neliömillimetriä ja tuo pienempi on 40% nopeampi kortti. Ja tuo vie vähän vähemmän virtaa joten jäähyn ja virransyötön tarvitsee olla vähän vähmmän jykevä, josta saadana muutama dollaria per kortti halvennettua hintaa myös ja se noissa halppispään korteissa on merkittävä ero.

Parempi vertaus RTX 4060 ti:lle on kyllä esim. RTX 3060 ti, joka on ~saman tehoinen ja laukaisussa saman hintainen, nyt toki käytännössä halvempi. Sen pinta-ala on 392mm^2, eli kutakuinkin tuplat seuraavan sukupolven vastineesta. RTX 3070 taas on samalla piirillä, mutta vähemmän leikattuna, minkä takia siinä on enemmän potkua. :hmm:

Tosin veikkaan kyllä että RTX 4060 ti:n tapauksessa on menty asiakkaiden arvioitu maksukyky edellä.
 
On mutta samalla piikiekkojen hinnat on räjähtäneet taivaisiin näillä tiheämmillä nodeilla.

Esim tsmc kiekkojen hinta N7 vs N5 on luokkaa 9000usd vs 19000usd

Tarkkoja hintoja tuskin kukaan julkisesti tietää ja tuskin on tommosia hintoja enää kun N5 ei ole enää edes sitä kuuminta hottia. Valmistusprosessi kun kypsyy niin se myös halpenee.

EDIT: Tässä jotain arvioita
6NSxig2VyGqCoGN7EuQQuK-970-80.png


Että onhan toi sun 19k$ hiukan yläkanttiin ellet sitten sotkenu N3 nodeen.
 
Viimeksi muokattu:
On mutta samalla piikiekkojen hinnat on räjähtäneet taivaisiin näillä tiheämmillä nodeilla.

Esim tsmc kiekkojen hinta N7 vs N5 on luokkaa 9000usd vs 19000usd
Olisiko tästä mustaa valkoisella jossain? Kuulostaa aika villiltä hinnannousulta.
 
Parempi vertaus RTX 4060 ti:lle on kyllä esim. RTX 3060 ti, joka on ~saman tehoinen ja laukaisussa saman hintainen, nyt toki käytännössä halvempi. Sen pinta-ala on 392mm^2, eli kutakuinkin tuplat seuraavan sukupolven vastineesta. RTX 3070 taas on samalla piirillä, mutta vähemmän leikattuna, minkä takia siinä on enemmän potkua. :hmm:

Tosin veikkaan kyllä että RTX 4060 ti:n tapauksessa on menty asiakkaiden arvioitu maksukyky edellä.

Piirinä ei ole. RTX 4060 Ti ja RTX 3060 käyttävät molemmat 106-piirin täyttä versiota. Molemmat valmistajat ovat nimenneet korttinsa 1-2 nimeä "liian ylös" verrattuna viimesukupolveen (paria nopeinta korttia ja RX 7600 lukuunottamatta) ja erityisesti nVidian hinnoittelu nyt on lähtenyt aivan käsistä
 
Piirinä ei ole. RTX 4060 Ti ja RTX 3060 käyttävät molemmat 106-piirin täyttä versiota. Molemmat valmistajat ovat nimenneet korttinsa 1-2 nimeä "liian ylös" verrattuna viimesukupolveen (paria nopeinta korttia ja RX 7600 lukuunottamatta) ja erityisesti nVidian hinnoittelu nyt on lähtenyt aivan käsistä

Joo mutta pointti oli että jos noi prosessien hinnat pitää paikkansa, vähän vanhemmalla prosessilla saisi ~tuplasti isomman piirin kuin mitä RTX 4060 ti:ssä on. Toki piirin koko kasvattaisi virheiden määrää, mutta toisaalta vanhemmalla prosessilla pitäisi olla parempi saanto, joten sen vaikutus ei välttämättä ole suuri.
 
Joo mutta pointti oli että jos noi prosessien hinnat pitää paikkansa, vähän vanhemmalla prosessilla saisi ~tuplasti isomman piirin kuin mitä RTX 4060 ti:ssä on. Toki piirin koko kasvattaisi virheiden määrää, mutta toisaalta vanhemmalla prosessilla pitäisi olla parempi saanto, joten sen vaikutus ei välttämättä ole suuri.
Jos saman tehoiset 4060ti ja 3060ti ovat kooltaan 1x ja 2x sekä piirien hintaero taulukon ~30% (2023), niin kumpi on kalliimpi valmistaa samoilla saannoilla?
 
Pitäisikö sinun pikkuhiljaa hyväksyä se että me kaikki pelaajat halutaan omia asetuksiamme, toiset ostaa korttinsa koska haluaa pelinsä pelattavan Ultralla, toiset tyytyy halvempiin ja ehkä ottavat kiitollisina vastaan skaalaustekniikat, vaikkei ne täydellisiä olekaan. Alkaa pikkuhiljaa huvittamaan, että jatkuvasti täytyy kritisoida muiden tapaa pelata ja ajatuksia visuaalisista asetuksistaan peleistä. Jos joku haluaa kaikki kiillot päälle peliinsä, ja on valmis maksamaan siitä, antaa mennä vaan. Ei sillä ole mitään väliä, onko se ultra-asetus sinusta tai minusta turhaa vai ei. Loppujen lopuksi saat jollain mopokortilla saman pelifiiliksen kuin se maksimit vaativa koska sitä se pelaaminen subjektiivisesti on, täysin yksilöllinen kokemus. Jokaisella on siihen omat vaatimuksensa.

Minä en hyväksy sitä kun täällä annetaan ihmisille aivan väärä kuva mitä uusien pelelen pelaamiseen tarvitaan raudalta.
Vähän väliä että peli X tarvii vaikka 12GB VRAMia tai sen ja sen näytönohjaimen tai prossun, vaikka tämä on ihan täys vale.

Kun kaikki riippuu että mikä reso, mitkä grafiikka asetukset, pitääkö olla RT hommat päällä vai ei ja sitten mikä on se fps raja mikä itelle on se minimi mikä vielä tuntuu OK:lta.

Tosin samaa "valehtelua" tekee iso tekki media, mutta se on sen takia että saadaan porukka ostamaan uutta rautaa.
Mutta miksi sitä eri käyttäjät täällä toitottaa onkin sitten se mielenkiintoinen kysymys. Että miksi näin pitää toimia ?

Täällä ollut jatkuvasti sitä että maalitolppia siirretään miten se oman agendan ja raudan mukaan sopii.
Kuten RTX 2000 korttien julkaisun aikaa ensin paasattiin että ei pysty pelaamaan jollei ole 200fps ruudussa.
Sitten kun RTX 2080 Ti riitti RT peleissä juuri ja juuri 60fps:n, niin yks kaks 60fps olikin ihan riittävä fps lukema.
 
Minä en hyväksy sitä kun täällä annetaan ihmisille aivan väärä kuva mitä uusien pelelen pelaamiseen tarvitaan raudalta.
Vähän väliä että peli X tarvii vaikka 12GB VRAMia tai sen ja sen näytönohjaimen tai prossun, vaikka tämä on ihan täys vale.

Kun kaikki riippuu että mikä reso, mitkä grafiikka asetukset, pitääkö olla RT hommat päällä vai ei ja sitten mikä on se fps raja mikä itelle on se minimi mikä vielä tuntuu OK:lta.

Tosin samaa "valehtelua" tekee iso tekki media, mutta se on sen takia että saadaan porukka ostamaan uutta rautaa.
Mutta miksi sitä eri käyttäjät täällä toitottaa onkin sitten se mielenkiintoinen kysymys. Että miksi näin pitää toimia ?

Täällä ollut jatkuvasti sitä että maalitolppia siirretään miten se oman agendan ja raudan mukaan sopii.
Kuten RTX 2000 korttien julkaisun aikaa ensin paasattiin että ei pysty pelaamaan jollei ole 200fps ruudussa.
Sitten kun RTX 2080 Ti riitti RT peleissä juuri ja juuri 60fps:n, niin yks kaks 60fps olikin ihan riittävä fps lukema.

En nyt ymmärrä miten tekstiseinäsi liittyi mitenkään siihen mitä sanoin.
Vai agendoja...kuulostaa kyllä erikoisen katkeralta. Tyhmiä pelaajia, maalitolppien siirtelyä, testisivujen agendoja?
Seuraatko ollenkaan mitään testisivuja maailmalla vai mihin tämä mieletön yleistys testaajien agendoista perustuu?

Melkoista.

Arvostelijoista:
1. Kukaan ei sano että säteenseurantaa on pakko käyttää. Itseäni esimerkiksi se ei juurikaan kiinnosta, joten poimin testeistä tiedot tehoista ilman sitä.
2. Kukaan ei sano että fps on oltava 200 jotta kortti on hyvä. Ja jos joku sellaisesta on haaveillut, niin sehän on jokaisen ihan henkilökohtainen valinta?
3. Arvostelijat testailee monesti eri asetuksilla kortteja, onko tämäkin mennyt ohi? Ei niitä aina maksimilla vedellä, moni sivu antaa kattavastikin tuloksia eri asetuksilla. Mutta on HYVÄ, että testaajat näyttää kuinka muistirohmuja pelit voi olla, totta hemmetissä haluan nähdä senkin puolen. Eli kuinka kortti suoriutuu maks. asetuksilla.

Pidät kaikkia muita pelaajia itseäsi tyhmempinä, en oikein muuten käsitä noita vuodatuksia. Ylimielistä.
 
Viimeksi muokattu:
En nyt ymmärrä miten tekstiseinäsi liittyi mitenkään siihen mitä sanoin.
Vai agendoja...kuulostaa kyllä erikoisen katkeralta. Tyhmiä pelaajia, maalitolppien siirtelyä, testisivujen agendoja?
Seuraatko ollenkaan mitään testisivuja maailmalla vai mihin tämä mieletön yleistys testaajien agendoista perustuu?

Melkoista.

Arvostelijoista:
1. Kukaan ei sano että säteenseurantaa on pakko käyttää. Itseäni esimerkiksi se ei juurikaan kiinnosta, joten poimin testeistä tiedot tehoista ilman sitä.
2. Kukaan ei sano että fps on oltava 200 jotta kortti on hyvä. Ja jos joku sellaisesta on haaveillut, niin sehän on jokaisen ihan henkilökohtainen valinta?
3. Arvostelijat testailee monesti eri asetuksilla kortteja, onko tämäkin mennyt ohi? Ei niitä aina maksimilla vedellä, moni sivu antaa kattavastikin tuloksia eri asetuksilla. Mutta on HYVÄ, että testaajat näyttää kuinka muistirohmuja pelit voi olla, totta hemmetissä haluan nähdä senkin puolen. Eli kuinka kortti suoriutuu maks. asetuksilla.

Pidät kaikkia muita pelaajia itseäsi tyhmempinä, en oikein muuten käsitä noita vuodatuksia. Ylimielistä.

En minä mitään katkera ole enkä mitään muutakaan.
Olen vaan tuonut esille aina välillä että uusinta uutta ei tarvitse olla että pystyy vanhalla raudalla pelaamaan oikein hienosti. Joutuu vaan monessa tapauksessa luopumaan ULTRASTA pelin asetuksissa.
Ja kyllä täällä on maalitolppia siirrettty oman agendan tai raudan mukaan milloin kenenkin toimesta. Et selvästi ole tätä seurannut tarpeeksi pitkään. Tuo RTX 2000 esimerkki on täältä napattua silloin kun ne tulivat markkinoille (se tuli ensimmäisenä mieleeni jostain syystä).
Enkä pidä itseäni fiksuna tai muita tyhminäkään.

Ja toki pitää kortit testata myös MAX asetuksillakin, mutta aika vähiin jäänyt nuo matalempien asetusten testailut näillä suuremmilla tekki testaajilla. Usein parhaimmat testit löytyneet kaikilta pieniltä tahoilta tubesta... paitsi niissä usein jos setti on ylikellotettu kerrotaan vaan prossun kellot mutta muut tärkeät asiat jätetään mainitsematta.
Isoimmat kun keskittyy tyhmästi vaan fps taulukoihin mikä ei loppu viimeksi kerro mistään mitään, mitä olen täällä yrittänyt pitkään jauhaa ja se on varmaan myös monia ärsyttävänyt.
Mutta FPS lukemat myy, ei se että onko peli minkälainen oikeasti pelata kyseisellä raudalla.

Siksi tuntuu että Nvidia ja AMD keskittyy näihin frame gen juttuihin, vaikka ovat jo paperilla typeriä hommia. Että saadaan paljon fps ilman korkeitten fps hyötyjä.
Ehkä olen noita kohtaa liian kriittinen kun en ole vielä päässyt itse testaamaan niitä, mutta se nähdään kun itsekkin pääsen niiden kanssa leikkimään.

Mitä tulee muuten noihin skaalaimiin (XeSS, FSR ja DLSS) niin saahan niitä käyttää mielin määrin en minä sitä vastaan ole. Mutta sitä olen kun tämä määrätty porukka täällä ylistää DLSS aivan turhaan. Kun kyllä se on hyvä 4K:lla (siis kuvanlaatu) mutta ei matalemmilla tarkuuksilla ja sen fps buusti on aina vaan surkeampi mitä vanhempiin tai hitaampiin kortteihin mennään.
FSR 4K:lla on myös ihan hyvä vaikka ei ole DLSS veroinen, mutta ihan turhaa täällä Nvidia lauma syyttää milloin ketäkin kun DLSS ei tulee peliin X.
DLSS tasan tarkkaan yleistyisi paljon nopeampaa jos Nvidia politiikka ei olis sitä mitä se nyt ikävä kyllä on. Eli ihme lisenssi ehtoja, rajataan määrättyä rautaa aina ulos ja tämmöstä.

Ja rehellisesti sanottuna oma agendani tai enemmänkin tavoitteeni ollut tässä jo vuosia näyttää mihin vanha rauta pystyy jos sille antaa mahdollisuuden. Eli yritän että porukka ei turhaan menisi ostamaan sitä uutta rautaa, varsinkin nykyään kun näytönohjainten hinnat ovat taivaissa eli pitäisi boikotoida eli jättää ne kortit vaan kauppoihin niin kyllä ne hinnat siitä tippuisivat.

-----------------------------------------------------

Ja asiasta toiseen :)
Tässä teille purtavaa eli tässä lähdin testaamaan Nvidia ja AMD ajureita monelta vuodelta että pitääkö tarina paikkaansa että Nvidian ajurit ovat paremmat kuin AMD:n.
Ja testi kuulostaa hemmetin tylsältä, mutta tulipa törmättyä kaikkeen mielenkiintoiseen.
Peleiksi otin testiin AC Valhalla, Far Cry 6, Forza Horizon 5, Shadow of the Tomb Raider ja WWZ, eli eri AAA-pelejä eri vuosilta joista löytyy omat benchmarkkaus toiminnot.

Korteiksi otin GTX 1080 ja RX 580:n.
GTX 1080:lla lähdettiin ajureiden kohdalta vuodesta 2016 ja päädyttiin vuoteen 2023.
RX 580:llä vuorostaan vuodesta 2017 -> 2023.
Otin joka vuodelta vuoden viimeiset ajurit paitsi AMD:lta en voinut vuodelta 2019 ottaa viimeisiä kun lataus linkit oli alhaalla joten 19.12.3 sijaan piti ajaa testit 19.12.1 ajureilla.

AMD ajuri puoli oli kautta linjan aika tylsää, mitä nyt Forza Horizon 5 toimi hiukan paremmin 2021 ajureilla kuin 2022 tai 2023 ajureilla.
Mutta Nvidia ajuri puoli olikin sitten hyvin mielenkiintoista.

Ensinnäkin AC Valhalla (2022 peli) toimi vuoden 2016 ajureilla mutta kasalla grafiikka häröilyä.

2023-08-31 09-54-32.mp4_snapshot_01.30_[2023.08.31_10.00.10].jpg

Vuoden 2017 ajureilla ei ongelmia, mutta sitten jostain syystä vuoden 2018 ajureilla ei peli enää toiminutkaan. Mutta 2019 ja siitä eteenpäin taas toimi.
Mutta oudosti pelin FOV on GTX 1080:lla aivan eri ajureista viis kuin RX 580:llä. Eli Nvidia jättää jostain syystä paljon peliä piirtämättä.

ACValhalla.mp4_snapshot_00.05_[2023.09.06_14.54.07].jpgACValhalla.mp4_snapshot_00.29_[2023.09.06_14.53.58].jpgACValhalla.mp4_snapshot_01.00_[2023.09.06_14.53.51].jpg

Asian oltava bugi ajureissa tai pelissä kun se esiintyi kaikilla testatuilla ajureilla.

Sitten Shadow of the Tomb Raider (2018) oli myös outo tapaus Nvidia ajureiden kanssa.
Eli peli toimi 2016 ajureilla, mutta ei 2017 tai 2018 ajureilla. Sitten 2019 eteenpäin kaikki toimi kuten kuuluikin.
Tämä varmaan johtuu DLSS tai XeSS päivityksistä, mutta se on outoa että 2016 ajureilla toimi :hmm:

Ja lisää Nvidia outouksia eli WWZ (2019) vuoden 2016 ajureilla peli oli nopeampi kuin 2017, 2018 tai 2019 ajureilla. Vasta vuoden 2020 ajureilla päästiin takaisin 2016 tasolle ja itseasiassa ohikin.
Mutta viimeisen kolmen vuoden ajureilla kummallakaan en huomannut mitään outouksia eli ajuri puoli ihan yhtä hyvä kummassakin leirissä.

Tässä vielä linkki itse videoon aiheesta kaikkine fps taulukkoineen ja gameplay pätkineen:

Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.
 
Noista vanhoista ajureista sen verran, että jos ja kun on testattu uusimmalla päivityksellä Windowsista, niin se saattaa rikkoa noita vanhempia ajureita. 2016 ajuri kun on tehty melko erilaiselle Windowsin buildille kuin 2023 ajuri. Eli jos asentaisi nuo 2016 ajuri vuoden 2016 Windowsille niin saattaisivatkin toimia oikein
 
Sekin on suhteellista mitä pidetään vanhana rautana... Ennen vanhaan sai päivittää melkein kerran vuodessa, nykyään kun pc pelit on konsolien armoilla niin kehitys on hidastunut huomattavasti.
Tuo oma 6800 XT tuntuu jo ikivanhalta kortilta kun on koneessa ollut kohta 3 vuotta.

Mutta edelleenkään ei mitään järkevää päivitystä samalla rahalla saa (659€ maksoi julkaisun aikaan tuo). Käytännössä 7800 XT maksaa lähes saman ja tehot on myös melkein täysin samat. (Oikeastihhan tuon kortin olisi pitänyt olla 7700 XT)
 
Mutta mitä merkitystä sillä on mihinkään ?
Ei yli 1000€ kortteja osta kuin pari hassua prosenttia pelaaja kunnasta.
Edelleen eniten myydyt kortit löytyy hinta luokasta 100 - 400€ jossa Nvidialla ei ole kuin pahasti rampautettuja kortteja. Mitkä tosin tuntuvat myyvän yllättävänkin hyvin... vissiinkin ihan vaan Nvidia brändin takia.
Kun miksi muuten 190€ maksava GTX 1650 olisi Steam tilastojen ykkönen ?

Juu sigun mukaan sinulla on RTX 4090 ja selvästi pitää yrittää kaikille kuten itsellesi perustella miksi se oli hemmetin hyvä ostos ja kaikki Nvidia jutut on niin hienoa.
Mutta sivistäs hiukan itseäsi ja testailes vähän hehkuttamaas DLSS:ää vanhemmilla (tai reilusti RTX 4090 hitaammilla) korteilla ja tulet äkkiä huomaamaan että kappas että ei se olekkaan niin hieno juttu oikeasti.

Ensinnäkin se alkaa antamaan FPS buustia kunnolla vasta 1920x1080 resolla, mutta siinä kohtaa kuva on semmoista puuroa ettei sitä voi katsoa hullukaan.
Ja sitten tämä säteenseuranta, mikä loppuviimeksi ei paranna grafiikoita juuri yhtään ja monessa tapauksessa rumentaa vaan pelejä kun ovat rasteroinnin päälle liimattuja RT effectejä. Mutta sitä käytettäessä tulee hemmetin moinen fps penalti.
Joten miksi sitä pitäis käyttää ?
Vaikuttaa enemmänkin että se on keino yrittää myydä vaan uutta ja "hienoa" kallista rautaa porukalle mitä ne eivät välttämättä edes tarvisikaan.

Kyllä se on tulevaisuus, mutta se ei ole vielä täällä vuosiin. Nyt se on enemmänkin tyhmiltä rahat pois juttu.

RT kun jätetään kuvioista pois niin uutuus pelitkin tarvitsevat yllättävän vähän GPU poweria loppuviimeksi. Esimerkiksi vanha kunnon GTX 1080 pyöritteli pelejä oikein kivasti kun tuossa suorittelin ajuri testejä AMD vs Nvidia.
Toki kaikissa peleissä ei voi käyttää enää ULTRAAAAAA, mutta pykälää alaspäin grafiikka asetukissa niin jopas tarjosi vielä mukavan pelikokemuksen.
Ja noin 99% peleistä et huomaa eroa onko ULTRAt käytössä vai pykälää alemmat asetukset. Joillakin on vaan pakkomielle että asetukset pitää olla tapissaan.

Lopuksi vielä että FSR menee melkein samaankastiin DLSS:n kanssa että sen hyödyllisyys on vähän niin ja näin.
Mutta sen etu ja hyödyllisyys tulee siitä että se toimii kaikkien korttejen kanssa kun ovat vaan vähintään GTX 600- tai HD 7000-sarjalaisia.
Eli FSR mahdollistaa että ei tarvi vanhaa ikäloppukorttia välttämättä vielä heittää SERiin vaan FSR käyttämällä pystyt vielä pelaamaan uusia pelejä. Vaikkakin näyttävät FSR päällä... no aika hirveiltä.

XeSSikin tuossa yleistyy jatkuvasti että kohta sitä voi käyttää FSR tavoin vanhojen korttejan kanssa.... paitsi että AMD korteilla se ei ole omissa testeissäni tuonut FPS lisää juuri ollenkaan. Mutta Intelin ja Nvidian korteilla se toimii kuten kuuluukin.

Mutta suosittelen tulemaan sieltä nurkasta RTX 4090 seurasta pois ja katsomaan miten asiat maailmassa oikeasti ovat näiden kohdalta... eli sen ison kuvan.
Ja ehkä hokaat miksi Nvidia saa paljon paskaa niskaansa.
Sekä miksi on tyhmää puolustella Nvidiaa ja haukkua open source linjalla olevia AMD ja Inteliä.

Pidätkö meitä high end tuotteita köyttäviä jotenkin tyhmänä vai mitä... Kyllä varmasti jokainen sinun nimeämä "NVIDIA fanikin" tietää, että ei ole pakko pelata ultra-asetuksilla ja että skaalaimet toimii parhaiten isommilla resoilla, ja RT ei ole pakollista yms.

Sillä nyt ei ole mitään merkitystä, jos (niin uskomattomalta se ehkä sinusta voi kuulostaakin) HALUAA pelata ultra-asetuksilla, isolla resolla, RT-päällä ja käyttää skaalaimia.

Minun ei tarvitse todistella itselleni eikä kenellekään mitään. Tiedän aivan hyvin mitä olen ostanut ja mihin hintaan, ja olen saanut siitä irti juurikin sen, mitä olen hakenut. Ei ole hetkeäkään kaduttanut tms.

Sinulla itsellä se tuntuu olevan hirveä tarve todistaa, että kaikkien pitäisi pelata budjettikoneilla, ja jättää kaikki raskaat asetukset pois päältä, ja kaikki muu on tyhmyyttä ja vääryyttä.
 
Jos tämä huhu pitää paikkansa, että Switch 2 käyttää peleissään mahdollisesti DLSS:a ja Frame generointia, niin saattapaapi tulevaisuudessa aika isoon prosenttiin pelejä tulla tuki.


Jos deveillä on edes pieni epäilys, että tekisivät Switch portin jossain vaiheessa, niin DLSS implementointi otetaan varmaan mukaan kuvioihin jo suunnitteluvaiheessa.
 
Jos tämä huhu pitää paikkansa, että Switch 2 käyttää peleissään mahdollisesti DLSS:a ja Frame generointia, niin saattapaapi tulevaisuudessa aika isoon prosenttiin pelejä tulla tuki.


Jos deveillä on edes pieni epäilys, että tekisivät Switch portin jossain vaiheessa, niin DLSS implementointi otetaan varmaan mukaan kuvioihin jo suunnitteluvaiheessa.

Miten paljon tintento pelejä on portattu PC:lle?

EDIT: Niin ja käsittääkseni tintenton rauta on ollut melko kevyttä suhteutettuna muuhun.
 
Pidätkö meitä high end tuotteita köyttäviä jotenkin tyhmänä vai mitä... Kyllä varmasti jokainen sinun nimeämä "NVIDIA fanikin" tietää, että ei ole pakko pelata ultra-asetuksilla ja että skaalaimet toimii parhaiten isommilla resoilla, ja RT ei ole pakollista yms.

Sillä nyt ei ole mitään merkitystä, jos (niin uskomattomalta se ehkä sinusta voi kuulostaakin) HALUAA pelata ultra-asetuksilla, isolla resolla, RT-päällä ja käyttää skaalaimia.

Minun ei tarvitse todistella itselleni eikä kenellekään mitään. Tiedän aivan hyvin mitä olen ostanut ja mihin hintaan, ja olen saanut siitä irti juurikin sen, mitä olen hakenut. Ei ole hetkeäkään kaduttanut tms.

Sinulla itsellä se tuntuu olevan hirveä tarve todistaa, että kaikkien pitäisi pelata budjettikoneilla, ja jättää kaikki raskaat asetukset pois päältä, ja kaikki muu on tyhmyyttä ja vääryyttä.

No eikös se kuulosta aika fanittamiselta kun jatkuva hehkutus menossa kaikesta mitä Nvidia tekee ja samaan aikaan kilpailijat haukutaan lyttyyn ilman oikeaa kunnon syytä ? Vai onko se muka perusteltu syy ettei se ole markkinoiden ykkönen ?
Ja hyvä sinulle kun olet ostanut RTX 4090 mitä se nyt nykyään maksaakaan :thumbsup:

Mutta oikeasti kannattaa tutustua miten nämä kaikki FSR, DLSS ym. toimii muulla kuin sillä high end raudalla, niin näet että eivät ne niin mahtavia olekkaan niiden high end korttien ulkopuolella.
Että ne juuri jäävät ulkopuolelle kenelle nuo skaalaus hommat olisivat hyödyllisimmät.
Kun RTX 4090, RTX 3090, RTX 4080, RX 7900 ym. high end korteissa kyllä poweria löytyy riittävästi ilmankin noita skaalaimia.

Sama nyt nämä frame gen jututkin että high end korteilla saadaan kovempia fps, mutta hitaammilla antaa kovempia fps ja samalla kuitenkin huonomman pelikokemuksen kun itse peli tuntuma heikkenee (kuulemma kun en ole itse päässyt vielä testaamaan).
Ja oli Nvidialta todella paska teko jättää edellisen sukupolven high end kortit ulos DLSS 3.0:stä kuten RTX 3080 ja RTX 3090:n.

Ja muuten en yritä saada kaikista mitään budjetti pelaajia vaan auttaa niitä joilla ei ole rahaa ostella noita nykyisiä high end kortteja tai ylipäätään rautaa.
Kun prossu puolellakin kun AMD pääsi Intelin rinnalle niin siihen loppui se hintojen polkeminen ja kuluttajan kaveria näytteleminen.

Mutta se on ollut AMD:ssa hyvä että se tuo melkein kaikki nämä uudet hommat aina kaikille.
Nytkin tuon FSR 3.0:n frame genillä ja onkin kiva päästä sitä testaamaan eri ikäisillä Nvidia ja AMD korteilla (niin ja Intelin kortilla) että onko siitä oikeasti mitään iloa. Mutta veikkaisin että EI.
Jos siinä on sama juttu kuin Nvidia DLSS 3.0 frame genin kanssa mitä käy input lagille jos "aloitus" fps eivät ole tarpeeksi korkeat.

Ja vielä yks juttu. Eli jos Nvidia haluais DLSS leviävän kuin kulovalkea, niin ensin mäkeen ne tyhmät lisenssi ehdot ja sitten sama juttu mitä Intel teki XeSSin kanssa.
XeSS toimii kaikilla korteilla valmistajasta viis. Mutta Intelin korteilla se toimii hiukan paremmin kiitos laitteisto kiihdytyksen.
 
Jos tämä huhu pitää paikkansa, että Switch 2 käyttää peleissään mahdollisesti DLSS:a ja Frame generointia, niin saattapaapi tulevaisuudessa aika isoon prosenttiin pelejä tulla tuki.


Jos deveillä on edes pieni epäilys, että tekisivät Switch portin jossain vaiheessa, niin DLSS implementointi otetaan varmaan mukaan kuvioihin jo suunnitteluvaiheessa.
Toisaalta en usko, että PC:llä tarvii skaalaimiin sotkeutua jos joku Nintendon peli tulisikin PC:lle. Saa nähdä onko uuden Nintendon tehot lähellekkään nykyisiä muita konsoleita, veikkaan ettei ole. Mutta hyvä uutinen Nintendo-pelaajille, saattaa noilla tekniikoilla saada edes vähän parempaa kuvalaatua uusiin peleihin.
 
Miten paljon tintento pelejä on portattu PC:lle?

EDIT: Niin ja käsittääkseni tintenton rauta on ollut melko kevyttä suhteutettuna muuhun.

Tarkoitin kylläkin juuri toisin päin. Aika monesta AAA peleistä on kuitenkin tehty jälkeenpäin switch portti, niin siitä näkökulmasta DLSS olisi varmaan hyvä ottaa mukaan jo ennen Switch portin tekemistä, jos edes on etäisesti se suunnitteilla.
 
Pieni kysymys olisi, ja tämä lienee parempi paikka, eikä tarvitse uutta ketjua tehdä.

Vastasin tänne, että "RTX 2080 ei ole enää nykyaikana niin hyvä":

Sitten asia jäi vaivaamaan minua, vaikka hain nopeasti techpowerupista tuon vertailutiedon, ja mietin, että RTX 2080 on vain 1st gen RT, DLSS 3 ei toimi, takuuta ei ole enää, jne..


Siellä lukee:
Based on TPU review data: "Performance Summary" at 1920x1080, 4K for 2080 Ti and faster.

Tuo ei ole kuitenkaan 2080 Ti tai nopeampi ja aika hyvän muistini varassa muistelen, että RTX 3070 oli samaa nopeusluokkaa julkaisun aikoihin..

--

Kysymys siis on: onko RTX 2000-sarja oikeasti vanhentunut noin huonosti? Onko suorituskyky laskenut kautta linjan , vai onko uudet pelioptimoinnit vaan jätetty tekemättä?

Näyttää siltä, että 300€ RX 6750 XT (400€ - 50€ cashback - 50€ pelikoodi) vielä voittaa tuon ei-niin-vanhan tonnin näytönohjaimen.

Ollaanko oikeasti tässä, että parjattu RTX 4060 Ti ja uutuudet on tehoissa entisten huippujen tasolla, vaikka niitä dissattiin täysillä youtubessa julkaisun aikoihin? Muistan, kuin Jayz2Cents sai hirveää palautetta, kun ylisti tuota näytönohjainta ja se arvostelu vedettiin pois.

Ja vielä pakollinen: vanhenevatko AMD:n näytönohjaimet paremmin?

Tässä on nyt vain yksi lähde, mutta nykyaikana suurimpien arvostelujen ollessa youtube-pohjaisia, en lähde katsomaan kymmentä videota ja kirjoittamaan muistiinpanoja saadakseni vertailudataa.
 
Kysymys siis on: onko RTX 2000-sarja oikeasti vanhentunut noin huonosti? Onko suorituskyky laskenut kautta linjan , vai onko uudet pelioptimoinnit vaan jätetty tekemättä?

Näyttää siltä, että 300€ RX 6750 XT (400€ - 50€ cashback - 50€ pelikoodi) vielä voittaa tuon ei-niin-vanhan tonnin näytönohjaimen.
RTX2000-sarjan julkaisusta tulee tässä kuussa täyteen 5 vuotta ja välissä on ehtinyt tulla jo uuden sukupolven pelikonsolitkin ja osa uusista peleistä on niin raskaita, että uusilla konsoleillakin dipataan 720p resoluution tuntumaan ja siitä skaalataan sitten ylöspäin. Kehitys kehittyy ja pikku hiljaa kaikki rauta vanhenee käsiin, puoli vuosikymmentä on ihan kunnioitettava elinkaari PC-komponentilla.
 
Onhan julkaisutahtikin hidastunut. 700, 900 ja 1000-sarjan ensimmäiset kortit julkaistiin n. 3 vuoden sisään, mutta kolmen viime julkaisun välillä melkein 5 vuotta. Eli suurempi harppaus mallien välillä olisikin suotavaa.

Se on sitten eri, onko tämä huono vai hyvä asia.
 
RTX2000-sarjan julkaisusta tulee tässä kuussa täyteen 5 vuotta ja välissä on ehtinyt tulla jo uuden sukupolven pelikonsolitkin ja osa uusista peleistä on niin raskaita, että uusilla konsoleillakin dipataan 720p resoluution tuntumaan ja siitä skaalataan sitten ylöspäin. Kehitys kehittyy ja pikku hiljaa kaikki rauta vanhenee käsiin, puoli vuosikymmentä on ihan kunnioitettava elinkaari PC-komponentilla.

Juurikin tämä. 00-luvulla 5 vuotta vanha näyttis olisi käytännössä ollut peruna.
 
Hyvä pätkä nvidiasta ja konealgoritmien tilanteesta. Podcast summaa miten päädyttiin AI boomiin ja mahdolliset tulevaisuuskenaariot raudasta palveluihin. Miksi laitoin tähän ketjuun niin esittävät hyvän argumentin miksi nvidia on vaikea lyödä tuolla markkinalla. Pääasiassa konesali gpu juttua vaikka yksi ulottuvuus on integrointi missä löytyy nvidia gpu, nvidia cpu ja nvidia verkkokortti(nvlink+mellanox) samasta pömpelistä.

Yksittäiset piirit tai pömpelit eivät enää ole mittari millä tuotteita ostetaan. Softalla ja konesalitason optimoinneilla on merkittävä vaikutus siihen mikä tuote on hyvä. Ilmeisesti kehityksen kärjessä olevat kielimallit opetetaan 10000+ gpu klusterilla. Nvidiallahan on avaimet käteen ratkaisu missä tulee 256gpu:ta(+cpu:t) samaan muistiavaruuteen kytkettynä nvlink:lla ja noita 256gpu:n klustereita kasataan yhteen infinibandin avulla. Data liikkuu todella nopeasti ja iso yhteinen muistiavaruus helpottaa ohjelmiston kirjoittamista.

Käyvät podcastissa läpi myös karhuskenaariot eli tavat jotka podcastin vetäjien mielestä voisivat suistaa nvidian turmioon.

Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.


Mielenkiinnolla odotan millon amd alkaa mlperffiin julkaisemaan tuloksia. mlperf on aika relevantti, joskin piru on yksityiskohdissa. Valmistajat optimoivat viimeisen päälle mlperf:ia. Ei voi olettaa samaa suorituskykyä ei optimoiduilta kuormilta,... Toisaata mlperf kuormat ovat relevantteja AI hommissa.

Osassa kuormista saatu suorituskyky tuplattua hopperille paremmin optimoidulla softall versus edellinen nvidian mlperf ajo.


Intelin kiihdyttimet ihan ok. osalla kuormista
 
Viimeksi muokattu:
Nvidiallahan on avaimet käteen ratkaisu missä tulee 256gpu:ta(+cpu:t) samaan muistiavaruuteen kytkettynä nvlink:lla ja noita 256gpu:n klustereita kasataan yhteen infinibandin avulla. Data liikkuu todella nopeasti ja iso yhteinen muistiavaruus helpottaa ohjelmiston kirjoittamista.

Järkevät yritykset ei itseään aja tuollaiseen vendor lock/blackbox systeemiin. Sitä on äkkiää hankintaloukussa josta on todella vaikea päästä pois. On kusiset ajat edessä kun siihen on itsensä ensin ajanut. Se valmistaja kun voi sitten laskuttaa ihan mitä huvittaa ja miten huvittaa.

Historia on osoittanut että kaikki imperiumit tuppaa kaatumaan omaan mahdottomuuteensa aina jossain vaiheessa. Ei se tartte kuin sen että Papa J saa jonkin päähän pinttymän miten jotkut asiat on tehtävä, jota muut vierastaa.
Hyvänä esimerkkinä Nokia ja "eihän nyt kukaan näyttöjä halua lääppiä"

Vendor lockit ja blackboxit, jolla tiellä nvidia siis tukevasti on, ovat erittäin huonoja asioita. Silloin kun laitevalmistaja vastaa niin raudasta kuin softasta, alkaa kunnon perseily ja asiakkaan poraaminen kakkoseen minkä kerkeää. Mallia voi katsoa vaikka applesta kun ei puhelimeen voi edes näyttöä vaihtaa kuin valtuutettu huolto koska ne pitää parittaa. Taikka John Deer joka blokkasi 3rd party GPS majakoiden toiminnan softapäivityksellä. Taikka oliko se BMW joka koitti alkaa periä vuosimaksua istuimenlämmitin fyytsöristä. Esimerkkejä on vaikka kuinka ja paljon.

miksi nvidia on vaikea lyödä tuolla markkinalla.

Vaikea on nvidiaa lyödä ainakaan markkinointi slidejen kekseliäisyydessä. Verrataan GPU vs GPU laskentatehoa singlecore CPU laskentaan. :D

F5u6LLuXgAAxQ9n
 
Hyvä pätkä nvidiasta ja konealgoritmien tilanteesta. Podcast summaa miten päädyttiin AI boomiin ja mahdolliset tulevaisuuskenaariot raudasta palveluihin. Miksi laitoin tähän ketjuun niin esittävät hyvän argumentin miksi nvidia on vaikea lyödä tuolla markkinalla. Pääasiassa konesali gpu juttua vaikka yksi ulottuvuus on integrointi missä löytyy nvidia gpu, nvidia cpu ja nvidia verkkokortti(nvlink+mellanox) samasta pömpelistä.

Yksittäiset piirit tai pömpelit eivät enää ole mittari millä tuotteita ostetaan. Softalla ja konesalitason optimoinneilla on merkittävä vaikutus siihen mikä tuote on hyvä. Ilmeisesti kehityksen kärjessä olevat kielimallit opetetaan 10000+ gpu klusterilla. Nvidiallahan on avaimet käteen ratkaisu missä tulee 256gpu:ta(+cpu:t) samaan muistiavaruuteen kytkettynä nvlink:lla ja noita 256gpu:n klustereita kasataan yhteen infinibandin avulla. Data liikkuu todella nopeasti ja iso yhteinen muistiavaruus helpottaa ohjelmiston kirjoittamista.

Käyvät podcastissa läpi myös karhuskenaariot eli tavat jotka podcastin vetäjien mielestä voisivat suistaa nvidian turmioon.

Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.


Mielenkiinnolla odotan millon amd alkaa mlperffiin julkaisemaan tuloksia. mlperf on aika relevantti, joskin piru on yksityiskohdissa. Valmistajat optimoivat viimeisen päälle mlperf:ia. Ei voi olettaa samaa suorituskykyä ei optimoiduilta kuormilta,... Toisaata mlperf kuormat ovat relevantteja AI hommissa.

Osassa kuormista saatu suorituskyky tuplattua hopperille paremmin optimoidulla softall versus edellinen nvidian mlperf ajo.


Intelin kiihdyttimet ihan ok. osalla kuormista

Grace Hopperit, Intelin GPU-laskentapiirit ym. eivät ole näytönohjaimia vaan laskentapiirejä. Niissä ei ole edes näyttöliittimiä.
Siirtäkää tällainen keskustelu CPU-puolelle tai tehkää näille oma ketju.
 
Framechacer kertoi viimeisimmällä videollaan, että AMD prosessorilla toimii sekä Nvidian ReBar että AMD:n SAM. Mutta olisiko täällä tietoa, miksi Intelin prosessorilla toimii vain ReBar, eikä AMD:n vastine?
 
Johtunee ihan siitä että AMD:n prossu + AMD:n näyttis = Smart Access Memory ja muut kutsuu samaa tekniikkaa Resizable Bariksi.
 
Johtunee ihan siitä että AMD:n prossu + AMD:n näyttis = Smart Access Memory ja muut kutsuu samaa tekniikkaa Resizable Bariksi.
Olet aivan oikeassa, mutta kyse ei ollut terminologiasta, vaan siitä ettei AMD näytönohjaimella toimi ReBar tai SAM jos käytössä on Intel prosessori :D Mietin siis onko rajoitteena Intel vai AMD
 
Eikö se muka toimi? Laitat biosista Above 4G Decodingin ja Resizable Barin päälle? Pikaisella googletuksella ainakin tulee tuloksia että "it works just the same".
 
Eikö se muka toimi? Laitat biosista Above 4G Decodingin ja Resizable Barin päälle? Pikaisella googletuksella ainakin tulee tuloksia että "it works just the same".
Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.

Tästä oman "tietoni" sain. Joku AMD näyttiksen ja Intelin prosessorin omaava voinee vahvistaa asian? Itselläni on AMD prosessori, niin ei tietoa miten homma oikeasti toimii tai toimiiko
 
Olet aivan oikeassa, mutta kyse ei ollut terminologiasta, vaan siitä ettei AMD näytönohjaimella toimi ReBar tai SAM jos käytössä on Intel prosessori :D Mietin siis onko rajoitteena Intel vai AMD
Onhan tuo siis faktuaalisesti toiminut
Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.


videossa pelkkiä amd:n kortteja rebar testissä ja yhtenä cpuna intel.
 
Onhan tuo siis faktuaalisesti toiminut
Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.


videossa pelkkiä amd:n kortteja rebar testissä ja yhtenä cpuna intel.

Todella hyvä lähde. Mikähän frame chacherilla sitten on ongelmana. Aika loppuun kuitenkin hän yleensä osaa laitteensa virittää, niin en osannut edes epäillä tuota kommenttia. Kiitos linkistä
 
Onhan tuo siis faktuaalisesti toiminut
Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.


videossa pelkkiä amd:n kortteja rebar testissä ja yhtenä cpuna intel.


harmi kun tuossa ei ollut yhden chipletin prossua AMD:ta.
 
Grace Hopperit, Intelin GPU-laskentapiirit ym. eivät ole näytönohjaimia vaan laskentapiirejä. Niissä ei ole edes näyttöliittimiä.
Siirtäkää tällainen keskustelu CPU-puolelle tai tehkää näille oma ketju.
Yritin keskittyä gpu aspektiin postauksessa. Nvidian ai-juttu lähempänä gpu kuin cpu. Sama cuda koodi toimii kaikissa nvidian gpu-piireissä. CPU tällä hetkellä lähinnä toimii apupiirinä, joka syöttää konesali gpu:ta/cudaa ja tarjoaa lisää nopeaa muistia(nvlinkin läpi)

Podcasti varsin mielenkiintoinen, kun siinä käytiin läpi miten cuda ja gpu:t päätyivät nykytilanteeseen missä nvidialla on melkoinen etumatka etenkin softapuolella. En olisi tuota alkanut postaamaan ellei podcast olisi ollut erityisen kiinnostava ja gpu vetoinen.
 
Viimeksi muokattu:
Virallinen DLSS-tuki tulossa Starfieldiin tulevissa päivityksissä, ajankohta ei tiedossa.

 
Tarkoitin kylläkin juuri toisin päin. Aika monesta AAA peleistä on kuitenkin tehty jälkeenpäin switch portti, niin siitä näkökulmasta DLSS olisi varmaan hyvä ottaa mukaan jo ennen Switch portin tekemistä, jos edes on etäisesti se suunnitteilla.
Switch != Switch 2 riippumatta siitä pitävätkö huhut ja vuodot paikkaansa. Eli sillä mitä Switch 2 tukee tai ei tue ei ole merkitystä tässä kohtaa portteja tehdessä, Switch ei DLSS:ää pyöritä.
Asiaa sivuten FSR2:sta käytetään Switchillä tälläkin hetkellä.
 
Näin pitkäaikaisena Nvidian ostajana olen tyytyväinen radeonin valintaan, vaihdoin 7800XT:hen. Minulla oli huonoja muistoja R9 380:sta, jonka jälkeen vaihdoin leiriä....mutta tuosta jo paljon aikaa. Adrenalin on mukavan selkeästi tehty ja kellottelut ja säätelyt sen kautta kävi ongelmitta. Selvästi suunniteltu palvelemaan loppukäyttäjää niin, ettei lisäsoftia (esim. afteburner) tarvitse asennella. Onhan tuossa varmaan bloattia joka lähtöön kun tungettu ihan kaikki mahdollinen mutta missäpä softissa ei nykyään olisi.

Vastakkainasettelua pitäisi kai tässä ketjussa tehdä, mutta oli mukava huomata miten Radeon tänä päivänä istuu omassa koneessa. Olen yksi niistä, joita skaalaustekniikat kiinnostaa, ainakin jonkin verran ja AMD:n ilmoitus FSR3:sta oikeastaan oli viimeinen niitti ostopäätökselle. Siihen toki auttoi 4070:n ja 4070 ti:n korkea hinta. Eli toisin kun moni sanoo tämän 7800 XT-julkaisusta (verraten 6800xt:hen), oli tämä hyvä taktinen peliliike AMD:lta. Juuri minunlainen ostajakunta varmaan tätä korttia nyt kovasti hommaa.

Ehkä taas jossain kohtaa hyppään Nvidiaan takaisin, mutta nyt tyytyväisenä tällä kortilla. Timespyssa sain alikellotellen rikki 20k helposti ja jäähykin on hiljainen ja tehokas (Hellhound) :tup:
Rtp2J4Fy6n.png
 
Tässä markkinatilanteessa tuo 7800xt on ihan hyvä valinta, mutta silti se on lievä pettymys. Kyseessähän on pitkälti vähävirtaisempi 6800 xt. Hintaa olisi saanut olla n. 150 € vähemmän.
 
Tässä markkinatilanteessa tuo 7800xt on ihan hyvä valinta, mutta silti se on lievä pettymys. Kyseessähän on pitkälti vähävirtaisempi 6800 xt. Hintaa olisi saanut olla n. 150 € vähemmän.
7800 XT on nimestään huolimatta "pykälää matalamman luokan" kortti ja sen suositushintahan oli sen 120€ pienempi veroineen (jenkeissä $150 pienempi)
Nykyhinta on ok verrokki kun miettii mitä itse ostaa, mutta ei silloin kun mietitään mihin firman pitäisi hinnoitella uusi sukupolvi julkaisussa.
 
Tässä markkinatilanteessa tuo 7800xt on ihan hyvä valinta, mutta silti se on lievä pettymys. Kyseessähän on pitkälti vähävirtaisempi 6800 xt. Hintaa olisi saanut olla n. 150 € vähemmän.
No sama tilanne se on 4070:n ja 4070 ti:n kanssa, 4070 ti oli tähtäimessäni mutta en millään saanut perusteltua itselleni sen hommaamista nykyhinnalla ja vieläpä 12gb muistilla. Ei siis tässä tilanteessa Amd:lla ole syytä liikoja hintoja pudottaa, vaan laskivat että minunlaiseni katsoo seuraavaa vaihtoehtoa. Ja laittoivat hinnan palvelemaan nykytasoa. On myös fiksua markkinointia nyt julkaista 7800 XT vaikka se ei eroakaan paljoa 6800 XT, koska Nvidian korttien hintavuuteen saatiin iskettyä näin "uudella" kortilla, ja samalla julkaisten FSR3:aa ynm. Eli korttimyyntiin saatiin potkua julkaisulla, oli se sitten miten hyvin perusteltua tai ei, verraten 6800 ja 6800xt:hen.

Kaikkien korttien hinnat on liian korkeat, minkäs sille mahtaa (ellei käytettyä metsästä).
 
Redditissä joku testaillu, miten tensor coret käytössä DLSS:n kanssa.

Käyttöaste keskimäärin, hitaammalla polling ratella, vaan muutaman prosentin luokkaa per Frame, mutta sitten tiheämmällä polling ratella saatiinkin esiin 90% käyttöastepiikkejä, jotka kestää vaan joitain mikrosekunteja.

"Correction, when bringing the resolution of the report way, way up it became clear that the tensor cores were averaging low numbers, but were actually just completing the upscale very quickly, then sitting idle. When looking at dlss balanced with a much higher pollling interval, it actually hits a peak usage of 90%. That said, the upscaling process takes ~100-200 microseconds, averaging around 20% usage. So the conclusion of overkill probably still stands, but at least it's using the performance"


Eli kovassa käytössä ne tensori coret on. Eihän tästä toki selviä se, kuinka nopeasti samat toimenpiteet saataisiin tehtyä ihan shader coreilla vs nuo tensorit, mutta kyllä tuolla havaittavaa hyötyä varmasti saadaan.

Nyt kun NVIDIA vaan jossain vaiheessa julkaisi DLSS:n avoimena, shadereilla ajettavana versiona, niin voisi vertailla.
 
No sama tilanne se on 4070:n ja 4070 ti:n kanssa, 4070 ti oli tähtäimessäni mutta en millään saanut perusteltua itselleni sen hommaamista nykyhinnalla ja vieläpä 12gb muistilla. Ei siis tässä tilanteessa Amd:lla ole syytä liikoja hintoja pudottaa, vaan laskivat että minunlaiseni katsoo seuraavaa vaihtoehtoa. Ja laittoivat hinnan palvelemaan nykytasoa. On myös fiksua markkinointia nyt julkaista 7800 XT vaikka se ei eroakaan paljoa 6800 XT, koska Nvidian korttien hintavuuteen saatiin iskettyä näin "uudella" kortilla, ja samalla julkaisten FSR3:aa ynm. Eli korttimyyntiin saatiin potkua julkaisulla, oli se sitten miten hyvin perusteltua tai ei, verraten 6800 ja 6800xt:hen.

Kaikkien korttien hinnat on liian korkeat, minkäs sille mahtaa (ellei käytettyä metsästä).
Mites se nyt ottaa kun ostin 3070 kortin 2021 se maksoi 1020€ ja nyt kun ostin gigantin tarjouksesta 4070 ti niin hinta oli se 820€
 
No mutta oi niitä aikoja, ne oli kyllä sitten erikoiset. Toivottavasti tämä AI juttu nyt ei oikeasti johda samanlaiseen tilanteeseen

1694805202482.png


Linkkasinkin tarjouksiinkin muuten, että proshopista saa 630e 4070 Asus Dualia. Siinä olisi ainakin itsellä vähän jo pohtimista kumman ottaa, 7800xt vai tuollainen
 
No mutta oi niitä aikoja, ne oli kyllä sitten erikoiset. Toivottavasti tämä AI juttu nyt ei oikeasti johda samanlaiseen tilanteeseen
Tuskin johtaa samankaltaiseen tilanteeseen kuin mitä kryptojen kanssa kävi. Puutetta nvidian osalta on konesalipiireistä. Konesalipiireissä pulmakohta ei ole piirien tuotantomäärä vaan CoWoS paketointi. Tuota paketointia ei käytetä nvidian pelipiireissä. Pelipiirit ja konesalipiirit niin kovin erilaisia että vaikea nähdä AI boomin vaikuttavan pelipiirien tuotantoon/myyntimääriin mitenkään merkittävästi.
 
Tuskin johtaa samankaltaiseen tilanteeseen kuin mitä kryptojen kanssa kävi. Puutetta nvidian osalta on konesalipiireistä. Konesalipiireissä pulmakohta ei ole piirien tuotantomäärä vaan CoWoS paketointi. Tuota paketointia ei käytetä nvidian pelipiireissä. Pelipiirit ja konesalipiirit niin kovin erilaisia että vaikea nähdä AI boomin vaikuttavan pelipiirien tuotantoon/myyntimääriin mitenkään merkittävästi.
Tosin se on ihan kylmä fakta että myös pelikortteja menee AI-käyttöön eikä se edes rajoitu NVIDIAn ohjaimiin.
 

Statistiikka

Viestiketjuista
297 668
Viestejä
5 074 410
Jäsenet
81 358
Uusin jäsen
DonCapone

Hinta.fi

Back
Ylös Bottom