Virallinen: NVIDIA vs AMD (vs Intel) keskustelu- ja väittelyketju

  • Keskustelun aloittaja Keskustelun aloittaja Sampsa
  • Aloitettu Aloitettu
Hiukka surrealistisista fiiliksistä huolimatta vastattakoon tähän vielä. Surrealismi tulee siis siitä, että kyse ei ole tulkinnasta vaan ihan perusasiasta nimeltä luetun ymmärtäminen.

Jos listataan kaksi asiaa, joista ensimmäinen nimetään vapaaehtoiseksi ja toisen kohdalla sanotaan, että jos on valinnut tehdä sen ensimmäisen vaihtoehdon niin tätä toista asiaa ei tarvitse tehdä, niin kyseessä on luontainen joko-tai -rakenne. Jos teet yhden, niin toista ei tarvitse tehdä.


Huoh. Ensinnäkin tuo on julkaistu MIT lisenssillä. Eli saa käyttää ihan miten lystää, kunhan lisenssin teksti säilyy koodissa. Joten koko banneriosa on ihan optionaalinen.

Ynnä sen rakenne on:

Jos haluat käyttää, niin voit käyttää latausruudussa, ja/tai optioissa, lopputeksteissä, about sivulla jne.

Jos valitsit käyttää, niin voit alla olevat bannerit ja termit voi jättää pois optiovalikosta.

Oman tulkinnan mukaan tuo lukee, että jos ET pistänyt infoa/mainosta muualle, niin on määritelty miten option kuuluisi näkyä optiovalikossa.

Ynnä itse käytetyn lisenssin takia nuokin ovat suosituksia, ei pakollisia. Muuten ei olisi kyseessä MIT lisenssi, jolla tuo on julkaistu.
 
Ihmiset tilaa päät märkänä 7800xt:tä 600eurolla. Miksi?
50e kalliimmalla irtoaa 4070 nvidia dlss:n kanssa ja 100w pienemmällä virrankulutuksella. Ajattelin että itsekin olisi voinu kokeilla tuota, mutta käytännössä täysin 4070 tehoinen kortti ja samaan hintaan, niin ei mennyt ostoskoriin
 

Liitteet

  • Screenshot_20230906_165806_Chrome.jpg
    Screenshot_20230906_165806_Chrome.jpg
    300,2 KB · Luettu: 108
Ihmiset tilaa päät märkänä 7800xt:tä 600eurolla. Miksi?
50e kalliimmalla irtoaa 4070 nvidia dlss:n kanssa ja 100w pienemmällä virrankulutuksella. Ajattelin että itsekin olisi voinu kokeilla tuota, mutta käytännössä täysin 4070 tehoinen kortti ja samaan hintaan, niin ei mennyt ostoskoriin

Joo ei AMD tällä 7800xt hinnoilla hirveästi kilpaile. Mutta DLSS ei kyllä kovin monessa pelissä tarvitse noilla korteilla, kun pelaa QHD -resoluutiolla. Kourallisessa pelejä on raskaat säteenseurannat, jossa tarvetta skaalaimille.

Paitsi jos joku uskoo että DLSS on keskimäärin natiivia parempi, itselläni oli Nvidian kortti ja monta peliä tuli testattua, moirea, shimmeröintiä, ei siis natiivia parempi keskimäärin, tosin ei juuri perässäkään :) Jossain peleissä TAA voi paskoa enempi. En törmännyt niihin itse, mutta ilmeisesti niitäkin on.
 
Joo ei AMD tällä 7800xt hinnoilla hirveästi kilpaile. Mutta DLSS ei kyllä kovin monessa pelissä tarvitse noilla korteilla, kun pelaa QHD -resoluutiolla. Kourallisessa pelejä on raskaat säteenseurannat, jossa tarvetta skaalaimille.

Paitsi jos joku uskoo että DLSS on keskimäärin natiivia parempi, itselläni oli Nvidian kortti ja monta peliä tuli testattua, moirea, shimmeröintiä, ei siis natiivia parempi keskimäärin. Jossain peleissä TAA voi paskoa enempi. En törmännyt niihin itse, mutta ilmeisesti niitäkin on.
Joo, siis itsellä myös aina rt ja dlss pois, mutta jos 4k:lla pelaisi voisi olla tarpeellinen. Tai tulevaisuudessa ehkä 2k:kin.

Toivotaan että hinnat tästä jatkavat laskuaan, mutta ei nvidia ainakaan aloita hintojen polkua tästä julkaisusta, melkeinpä päinvastoin
 
Toivotaan että hinnat tästä jatkavat laskuaan, mutta ei nvidia ainakaan aloita hintojen polkua tästä julkaisusta, melkeinpä päinvastoin
Suomen hinnat antaa vähän väärän kuvan tilanteesta. Jenkeissä joitain 7800 XT:n AIB malleja (Hellhound, Gigabyte Gaming OC) saa samaan 499 USD hintaan kuin AMD:n refuakin. Jos meilläkin 7800 XT:tä saisi AMD:n MSRP hintaan, eli 557€ eikä olisi useiden kymppien extraa niin kyllä toi paljon paremmin veisi 4070:ä valuessa.

Suomen hintojen perusteella Nvidia tuskin päättää leikataanko hintaa vai ei, tosin voihan se olla ettei se hintojen lasku tänne sitten ulotu...
 
Joo ei AMD tällä 7800xt hinnoilla hirveästi kilpaile. Mutta DLSS ei kyllä kovin monessa pelissä tarvitse noilla korteilla, kun pelaa QHD -resoluutiolla. Kourallisessa pelejä on raskaat säteenseurannat, jossa tarvetta skaalaimille.

Paitsi jos joku uskoo että DLSS on keskimäärin natiivia parempi, itselläni oli Nvidian kortti ja monta peliä tuli testattua, moirea, shimmeröintiä, ei siis natiivia parempi keskimäärin, tosin ei juuri perässäkään :) Jossain peleissä TAA voi paskoa enempi. En törmännyt niihin itse, mutta ilmeisesti niitäkin on.

Et törmännyt... Melkein peli kun peli, niin textuurit on aika pehmeätä mössöä TAA vs DLSS tai FSR2. DLSS sitten huomattavasti parempi liikkeessä/Alpha textureissa kun FSR2
 
Ihmiset tilaa päät märkänä 7800xt:tä 600eurolla. Miksi?
50e kalliimmalla irtoaa 4070 nvidia dlss:n kanssa ja 100w pienemmällä virrankulutuksella. Ajattelin että itsekin olisi voinu kokeilla tuota, mutta käytännössä täysin 4070 tehoinen kortti ja samaan hintaan, niin ei mennyt ostoskoriin

On niillä hieman enemmän keskimäärin eroa, mutta toki jos vertaa vain halvimpia malleja niin 60€. 4070 taitaa olla 650€ ja 7800 XT 590€...
Keskimäärin about saman tehoinen, mutta muistia on enemmän. Eikä se virrankulutus nyt ihan 100W korkeampi ole, HUB testissä oli 41-53W ero pelistä riippuen. GN:llä ero oli 45W.

Mutta joo 4070 taitaa ollakkin Nvidian korteista ylivoimaisesti paras hinta / laatu suhteeltaan ja hankala noiden välillä olisi valita...
 
Et törmännyt... Melkein peli kun peli, niin textuurit on aika pehmeätä mössöä TAA vs DLSS tai FSR2. DLSS sitten huomattavasti parempi liikkeessä/Alpha textureissa kun FSR2

Korjaan aiemman viestini muotoon: Hieman hankala verrata kun ei ole pelikuva vs pelikuva -metodia käytettävissä. Onko laittaa jotain vertailuvideota DLSS vs TAA ja ne mainitsemasi ongelmat, ja mielellään useamman pelin otanta? Ei ole pakollista, sillä ei siinä etteikö noin voisi olla, mutta hyvä muistaa että DLSS:ssä kiistatta shimmeröintiä esim. RDR2 ja Plague Tale Requem, samoin moire -efektiä joissain tekstuureissa viimeksi mainitussa pelissä, jossa pitäisi olla uudehko DLSS-versio.

Ei noita shimmeröintejä tai moirea natiivina huomannut kun vedin toisen pelikerran DLSS OFF, mutta ei DLSS missään nimessä huono ole. Jotku väittää natiivia paremmaksi, joka ei pidä mun kokemuksella paikkaansa, vaan ns. omat virheensä on molemmissa natiivissa sekä DLSS. Tällä hetkellä vedän AMD:n kortilla, ja FSR ei ole (onneksi?) tarvinut käyttää vielä, FPS:ää on sopivasti 7900 XTX -kortilla, sekä 4k että etenkin QHD-näytöllä. Säteenseurantaan törmätessä voi sitten tulla skaalaimia ikävä.
 
Pitää kyllä sanoa että tämä on hauskaa luettavaa kun Nvidia fanittajat vs muut :)
En ymmärrä miksi nämä Nvidia fani lauma ei mene Nvidialle valittamaan DLSS asiosita jos se on niin hemmetin tärkeää.

En edelleenkään ymmärrä tätä himoasi leimata kaikki NVIDIA:n positiivisemmin suhtautuvat NVIDIA -faneiksi.

Ennemmin sanoisin, että täällä on enemmänkin NVIDIA:n negatiivisesti suhtautuvia, jotka pitää AMD:tä jollain "pelaajan paras ystävä" jalustalla, mikä on ihan älytöntä. Ei se AMD sitä tee ihan hyvää hyvyyttään, vaan suurilta osin koska sen on pakko. Eipä paljon kukaan ostaisi tälläkään hetkellä AMD:n kortteja, jos ne eivät olisi halvempia. AMD softaratkaisut on melko kauttaaltaan laadultaan heikompia, niin open sourcella saadaan niitä pönkitettyä kivasti. Ihan loogisia ja järkeen käypiä asioita.

Kyllä se olisi minustakin kivaa, jos NVIDIA:n ominaisuudet olisi kaikki open sourcea, mutta voin myös sinänsä ymmärtää, miksi niin ei ole. Olisihan se kivaa/suotavaa, että kortit olisi halvempia, mutta markkinat on nyt nämä.

Itselläni on hyvin käytännöllinen lähestymistapa teknologiaan. Paras tuote on paras tuote, ihan sama minkä firman värit siinä on. Minä vertailen ominaisuuksia/suorituskykyä eri tilanteissa, en valmistajien logoja.

Fakta vaan on se, että NVIDIA:llä on etumatka raa-assa tehossa ja ominaisuuksissa, jos on rahaa/halua maksaa.

Prossupuoella taas AMD tällä hetkellä vie ja Intteli vähän peesailee. Siksipä prossuna itsellä AMD.
 
En edelleenkään ymmärrä tätä himoasi leimata kaikki NVIDIA:n positiivisemmin suhtautuvat NVIDIA -faneiksi.

Ennemmin sanoisin, että täällä on enemmänkin NVIDIA:n negatiivisesti suhtautuvia, jotka pitää AMD:tä jollain "pelaajan paras ystävä" jalustalla, mikä on ihan älytöntä. Ei se AMD sitä tee ihan hyvää hyvyyttään, vaan suurilta osin koska sen on pakko. Eipä paljon kukaan ostaisi tälläkään hetkellä AMD:n kortteja, jos ne eivät olisi halvempia. AMD softaratkaisut on melko kauttaaltaan laadultaan heikompia, niin open sourcella saadaan niitä pönkitettyä kivasti. Ihan loogisia ja järkeen käypiä asioita.
AMD on melkein samaa rahastusta. Ei se muuta sitä nVidian röyhkeää määräävän markkina-aseman väärinkäyttöä kuitenkaan miksikään. Suorastaan naurettavaa ettei alaa avata patenttien pakkolisensoinnilla kilpailulle.
 
Huomautus - jätä toisten käyttäjien analysoinnit pois, ei kuulu asialliseen keskusteluun nämä
Fakta vaan on se, että NVIDIA:llä on etumatka raa-assa tehossa ja ominaisuuksissa, jos on rahaa/halua maksaa.

Mutta mitä merkitystä sillä on mihinkään ?
Ei yli 1000€ kortteja osta kuin pari hassua prosenttia pelaaja kunnasta.
Edelleen eniten myydyt kortit löytyy hinta luokasta 100 - 400€ jossa Nvidialla ei ole kuin pahasti rampautettuja kortteja. Mitkä tosin tuntuvat myyvän yllättävänkin hyvin... vissiinkin ihan vaan Nvidia brändin takia.
Kun miksi muuten 190€ maksava GTX 1650 olisi Steam tilastojen ykkönen ?

Juu sigun mukaan sinulla on RTX 4090 ja selvästi pitää yrittää kaikille kuten itsellesi perustella miksi se oli hemmetin hyvä ostos ja kaikki Nvidia jutut on niin hienoa.
Mutta sivistäs hiukan itseäsi ja testailes vähän hehkuttamaas DLSS:ää vanhemmilla (tai reilusti RTX 4090 hitaammilla) korteilla ja tulet äkkiä huomaamaan että kappas että ei se olekkaan niin hieno juttu oikeasti.

Ensinnäkin se alkaa antamaan FPS buustia kunnolla vasta 1920x1080 resolla, mutta siinä kohtaa kuva on semmoista puuroa ettei sitä voi katsoa hullukaan.
Ja sitten tämä säteenseuranta, mikä loppuviimeksi ei paranna grafiikoita juuri yhtään ja monessa tapauksessa rumentaa vaan pelejä kun ovat rasteroinnin päälle liimattuja RT effectejä. Mutta sitä käytettäessä tulee hemmetin moinen fps penalti.
Joten miksi sitä pitäis käyttää ?
Vaikuttaa enemmänkin että se on keino yrittää myydä vaan uutta ja "hienoa" kallista rautaa porukalle mitä ne eivät välttämättä edes tarvisikaan.

Kyllä se on tulevaisuus, mutta se ei ole vielä täällä vuosiin. Nyt se on enemmänkin tyhmiltä rahat pois juttu.

RT kun jätetään kuvioista pois niin uutuus pelitkin tarvitsevat yllättävän vähän GPU poweria loppuviimeksi. Esimerkiksi vanha kunnon GTX 1080 pyöritteli pelejä oikein kivasti kun tuossa suorittelin ajuri testejä AMD vs Nvidia.
Toki kaikissa peleissä ei voi käyttää enää ULTRAAAAAA, mutta pykälää alaspäin grafiikka asetukissa niin jopas tarjosi vielä mukavan pelikokemuksen.
Ja noin 99% peleistä et huomaa eroa onko ULTRAt käytössä vai pykälää alemmat asetukset. Joillakin on vaan pakkomielle että asetukset pitää olla tapissaan.

Lopuksi vielä että FSR menee melkein samaankastiin DLSS:n kanssa että sen hyödyllisyys on vähän niin ja näin.
Mutta sen etu ja hyödyllisyys tulee siitä että se toimii kaikkien korttejen kanssa kun ovat vaan vähintään GTX 600- tai HD 7000-sarjalaisia.
Eli FSR mahdollistaa että ei tarvi vanhaa ikäloppukorttia välttämättä vielä heittää SERiin vaan FSR käyttämällä pystyt vielä pelaamaan uusia pelejä. Vaikkakin näyttävät FSR päällä... no aika hirveiltä.

XeSSikin tuossa yleistyy jatkuvasti että kohta sitä voi käyttää FSR tavoin vanhojen korttejan kanssa.... paitsi että AMD korteilla se ei ole omissa testeissäni tuonut FPS lisää juuri ollenkaan. Mutta Intelin ja Nvidian korteilla se toimii kuten kuuluukin.

Mutta suosittelen tulemaan sieltä nurkasta RTX 4090 seurasta pois ja katsomaan miten asiat maailmassa oikeasti ovat näiden kohdalta... eli sen ison kuvan.
Ja ehkä hokaat miksi Nvidia saa paljon paskaa niskaansa.
Sekä miksi on tyhmää puolustella Nvidiaa ja haukkua open source linjalla olevia AMD ja Inteliä.
 
Mutta mitä merkitystä sillä on mihinkään ?
Ei yli 1000€ kortteja osta kuin pari hassua prosenttia pelaaja kunnasta.
Edelleen eniten myydyt kortit löytyy hinta luokasta 100 - 400€ jossa Nvidialla ei ole kuin pahasti rampautettuja kortteja. Mitkä tosin tuntuvat myyvän yllättävänkin hyvin... vissiinkin ihan vaan Nvidia brändin takia.
Kun miksi muuten 190€ maksava GTX 1650 olisi Steam tilastojen ykkönen ?

Ei ne kiinalaiset (50% steamin käyttäjistä?) + muut heikomman ostovoiman maat myöskään osta AAA pelejä julkaisussa täyteen hintaan merkittävissä. Nämä vääristää tilastoja, eikä ole se kohderyhmä raskaille PC peleille.

Esimerkkinä, voi menestyä tekemällä PC keskeisen raksaahkon pelin joka tuskin yo. kohderyhmälle myy hyvin. BG3 pelaajia on pyöreesti miljoona steamissa jatkuvasti, eli myyntejä varmaan enemmän -> noin 1-2 % steamin käyttäjistä ostanut uuden raskaan pelin (AA vai AAA?). Oletus että steamia käyttää noin 130 miljoonaa tiliä kuukausittain.

Pointtina lähinnä että pitäisi nähdä jotain ostovoimaan suhteutettua steam dataa että sitä voisi paremmin analysoida ja käyttää kaiken maailman argumenteissa...
 
Ei ne kiinalaiset (50% steamin käyttäjistä?) + muut heikomman ostovoiman maat myöskään osta AAA pelejä julkaisussa täyteen hintaan merkittävissä. Nämä vääristää tilastoja, eikä ole se kohderyhmä raskaille PC peleille.

Esimerkkinä, voi menestyä tekemällä PC keskeisen raksaahkon pelin joka tuskin yo. kohderyhmälle myy hyvin. BG3 pelaajia on pyöreesti miljoona steamissa jatkuvasti, eli myyntejä varmaan enemmän -> noin 1-2 % steamin käyttäjistä ostanut uuden raskaan pelin (AA vai AAA?). Oletus että steamia käyttää noin 130 miljoonaa tiliä kuukausittain.

Pointtina lähinnä että pitäisi nähdä jotain ostovoimaan suhteutettua steam dataa että sitä voisi paremmin analysoida ja käyttää kaiken maailman argumenteissa...

No kerroppas minkä takia vähän väliä on uutisia kun uudet kortit eivät mene kaupaksi ? Niin ei porukalla ole varaa ostella edes 500 - 1000€ korttejakaan.
Täällä TechBBS on monia kyllä, mutta ei tämä edusta sitä massaa.

Vasta minua pyydettiin rakentamaan pelikone 600 - 700€ budjetilla.
Ja sillä sainkin ihan kivan koneen kasattua eli Ryzen 5 5600, 4000MHz 16GB, 1TB NVme, SilverStonen koppa, MSI perus lankku, Seasonic laatu poweria ja RX 6600:n. Koko setti 680€.
Kun normaalisti vuosia pelikoneiden budjetit ovat olleet tuossa 600 - 1000€ välissä. Eli nipin napin 500€ kortin sais tommoseen 1000€ settiin tungettua.
Ja sillä extra rahalla ei tällä hetkellä oikein saa edes isoa parannusta suorituskykyyn RX 6600 verrattuna.
Ainoa järkevä ois noin 350 - 400€ maksava RX 6700 XT.

Nvidialla ei ole tuossa tärkeässä osastossa oikeastaan mitään ja yrittävät vaan nostaa hintoja ylöspäin kuten nähtiin viimeksi RTX 4060 korttien kanssa.
Tuo kyllä tulee kostautumaan vielä. Onhan AMDkin joutunut RX 7900 hintoja laskemaan kun ei mene kaupaksi.
Intelin luulis lähteävän seuraavalla kierroksella polkemaan hintoja että saisivat markkinaosuuksia. Mutta saapi nähdä miten sen käy.

Ja vielä AA ja AAA-peleistä että edelleenkään ne eivät tarvi uusinta ja tehokkainta rautaa pyöriäkseen hyvin. Muutamia poikkeuksia lukuunottamatta hyvin taipuvat vanhalle raudalle tai uudelle ei niin tehokkaallekkin.
Toki (lähes)kaikista media testeistä saa kuvan että ne tarvitsevat, mutta se onkin niiden testejen idea. Eli yritetään myydä niitä lukijoille/katsojille että raha ja rauta virtaa testaajille = pidetään valmistajat tyytyväisinä.
Testeissä FPS lukemilla yritetään näyttää paljon saat suorituskykyä lisää päivityksellä, mutta ootteko kiinnittäneet huomiota että harva näyttää missä kohtaa peliä benchmarkkaus on suoritettu ?

Nimittäin jos näytettäisiin niin olisi helppo verrata omaa rautaan niiden uusiin testissä oleviin. Ja muutenkin video formaatissa olevissa testeissä olisi tärkeämpää näyttää pelikuvaa frametime käppyrällä kuin keskittyä 0.1% ym. fps lukemiin.
Se kertoisi paljon enemmän kuinka peli pyörii kyseisellä raudalla ja jos tulee frame droppeja niin missä tilanteissa niitä tulee.
 
Esimerkkinä, voi menestyä tekemällä PC keskeisen raksaahkon pelin joka tuskin yo. kohderyhmälle myy hyvin. BG3 pelaajia on pyöreesti miljoona steamissa jatkuvasti, eli myyntejä varmaan enemmän -> noin 1-2 % steamin käyttäjistä ostanut uuden raskaan pelin (AA vai AAA?). Oletus että steamia käyttää noin 130 miljoonaa tiliä kuukausittain.

Ei kai BG3 edes vaadi paljoa näyttikseltä?
 
Ei kai BG3 edes vaadi paljoa näyttikseltä?
No, ainakin Act 3 tms. on uusillakin koneilla ollut aika pätkimistä, ilmeisesti enemmän CPU rajoitus siinä. No esimerkki ei ole olennainen, vaan yleisesti voidaan sanoa että PC minimi/suositusvaatimukset kasvaa sitä mukaa kun vanhat konsolit tiputetaan pois kehityssyklistä.
 
No kerroppas minkä takia vähän väliä on uutisia kun uudet kortit eivät mene kaupaksi ?
En kai puhunut mitään näyttisten myyntimääristä. Ihmettelin lähinnä tuota steam-tilastoihin viittaamista, kun ne ei ole mikään koko totuus.

Ainakin suurta tuohtumusta on Nvidian hinnoitteluun, mutta eiköhän se tipu jos kortit ei mene kaupauksi. Ongelma on vaan että TSMC kapasiteetti menee ihan muualle tuotantoon kun pelipiireihin niin Nvidiaa ei taida paljoa kiinnostaa tehdä uusia näyttiksiä kuluttajille. Myydään ne mitä on valmistettu.

Ehkä parempi kysymys on miksi AMD ei saa markkinaosuutta otettua, vaikka Nvidia tekee pelinäyttiksiä vasemmalla kädellä tällä hetkellä (oma tulkinta)...
 
Huomautus - jätä tuollaiset asiattomat nimimuunnelmat kirjoittamatta
Ehkä parempi kysymys on miksi AMD ei saa markkinaosuutta otettua, vaikka Nvidia tekee pelinäyttiksiä vasemmalla kädellä tällä hetkellä (oma tulkinta)...

Koska massoille näytönohjain = GeForce. Vaikka AMDE:llä olisi nyt tehokkain kortti markkinoilla niin rasteroinnissa kuin RT:ssä, niin silti GayHorse myisi enemmän koska mindshare. Vie todella pitkään rikkoa tuo. Voit vaikka katsoa historiikkia CPU puolelta.
Koska OEM kanavaa myöten myydään ylivoimaisesti suurin osa näytönohjaimista.
 
No kerroppas minkä takia vähän väliä on uutisia kun uudet kortit eivät mene kaupaksi ?
Valmistajat lienee jumissa markkinakuplan aikaisen hintakehityksen kanssa. Valittu seuraavan sukupolven kortteihin semmoisia rakenneratkaisuja (iso lastu tosi kalliilla nodella) joiden valmistus maksaa paljon sillä ajatuksella että mikä tahansa hinta myy.

GPU markkinat sitten tuli kolinalla alas ja vähintään taantumaa näköpiirissä niin ihmisten lompakot meni kiinni.
 
Valmistajat lienee jumissa markkinakuplan aikaisen hintakehityksen kanssa. Valittu seuraavan sukupolven kortteihin semmoisia rakenneratkaisuja (iso lastu tosi kalliilla nodella) joiden valmistus maksaa paljon sillä ajatuksella että mikä tahansa hinta myy.

On niitä isoja valmistettu ennenkin.
GK110 = Kepler = 561mm2
GM200 = Maxwell = 601mm2
GP102 = Pascal = 471mm2
GV100 = Volta = 815mm2 (Ei pelikortti mutta kyllä sitä jotkut kovimmat pelimiehetkin koneeseen osti)
TU102 = Turing = 754mm2
GA102 = Ampere = 628mm2
AD102 = Ada = 609mm2

Jonkun turingin speksit lyöty lukkoon paljon ennen jotain markkinakuplaa. Ja Turingin jälkeen on koko pienentynyt. Ada on koon puoleen aika pitkälti samaa sarjaa kuin Kepler ja Maxwell.

AMD on pysytellyt pääasiassa 500mm2 alapuolella.
 
On niitä isoja valmistettu ennenkin.
GK110 = Kepler = 561mm2
GM200 = Maxwell = 601mm2
GP102 = Pascal = 471mm2
GV100 = Volta = 815mm2 (Ei pelikortti mutta kyllä sitä jotkut kovimmat pelimiehetkin koneeseen osti)
TU102 = Turing = 754mm2
GA102 = Ampere = 628mm2
AD102 = Ada = 609mm2

Jonkun turingin speksit lyöty lukkoon paljon ennen jotain markkinakuplaa. Ja Turingin jälkeen on koko pienentynyt. Ada on koon puoleen aika pitkälti samaa sarjaa kuin Kepler ja Maxwell.

AMD on pysytellyt pääasiassa 500mm2 alapuolella.

Ois tuossa hyllyssä muuten kiva kolmikko odottamassa testailuja eli Titan (Kepler), Titan X ( Maxwell ) sekä Titan V ( Volta ) :)
 
Ehkä parempi kysymys on miksi AMD ei saa markkinaosuutta otettua, vaikka Nvidia tekee pelinäyttiksiä vasemmalla kädellä tällä hetkellä (oma tulkinta)...

No, eihän AMD edes ole mihinkään hintasotaan halunnut lähteä nostaakseen markkinaosuutta, tyytyvät tarjoamaan rasteroinnissa hieman parempaa fps/€ suhdetta mutta ei tuo ole riittävä.
 
On niitä isoja valmistettu ennenkin.
GK110 = Kepler = 561mm2
GM200 = Maxwell = 601mm2
GP102 = Pascal = 471mm2
GV100 = Volta = 815mm2 (Ei pelikortti mutta kyllä sitä jotkut kovimmat pelimiehetkin koneeseen osti)
TU102 = Turing = 754mm2
GA102 = Ampere = 628mm2
AD102 = Ada = 609mm2

Jonkun turingin speksit lyöty lukkoon paljon ennen jotain markkinakuplaa. Ja Turingin jälkeen on koko pienentynyt. Ada on koon puoleen aika pitkälti samaa sarjaa kuin Kepler ja Maxwell.

AMD on pysytellyt pääasiassa 500mm2 alapuolella.
On mutta samalla piikiekkojen hinnat on räjähtäneet taivaisiin näillä tiheämmillä nodeilla.

Esim tsmc kiekkojen hinta N7 vs N5 on luokkaa 9000usd vs 19000usd
 
Tossahan alkaisi kannattaa tehdä isompia piirejä vanhoilla noodeilla. :hmm:

Radeon RX 7600 onkin tehty 6nm (joka on 7nm perhettä) tekniikalla ja tehokkaammat kortit chipletteinä joissa yli kolmasosa kokonaispinta-alasta on tehty tuolla halvemmalla prosessilla.

Ongelmaksi tulee virrankulutus ja matalammat kellontaajuudet.

RTX 4060 Ti on noin 188 neliömilliä, RTX 3060 on 276 neliömillimetriä ja tuo pienempi on 40% nopeampi kortti. Ja tuo vie vähän vähemmän virtaa joten jäähyn ja virransyötön tarvitsee olla vähän vähmmän jykevä, josta saadana muutama dollaria per kortti halvennettua hintaa myös ja se noissa halppispään korteissa on merkittävä ero.
 
Toki kaikissa peleissä ei voi käyttää enää ULTRAAAAAA, mutta pykälää alaspäin grafiikka asetukissa niin jopas tarjosi vielä mukavan pelikokemuksen.
Ja noin 99% peleistä et huomaa eroa onko ULTRAt käytössä vai pykälää alemmat asetukset. Joillakin on vaan pakkomielle että asetukset pitää olla tapissaan.

Pitäisikö sinun pikkuhiljaa hyväksyä se että me kaikki pelaajat halutaan omia asetuksiamme, toiset ostaa korttinsa koska haluaa pelinsä pelattavan Ultralla, toiset tyytyy halvempiin ja ehkä ottavat kiitollisina vastaan skaalaustekniikat, vaikkei ne täydellisiä olekaan. Alkaa pikkuhiljaa huvittamaan, että jatkuvasti täytyy kritisoida muiden tapaa pelata ja ajatuksia visuaalisista asetuksistaan peleistä. Jos joku haluaa kaikki kiillot päälle peliinsä, ja on valmis maksamaan siitä, antaa mennä vaan. Ei sillä ole mitään väliä, onko se ultra-asetus sinusta tai minusta turhaa vai ei. Loppujen lopuksi saat jollain mopokortilla saman pelifiiliksen kuin se maksimit vaativa koska sitä se pelaaminen subjektiivisesti on, täysin yksilöllinen kokemus. Jokaisella on siihen omat vaatimuksensa.
 
RTX 4060 Ti on noin 188 neliömilliä, RTX 3060 on 276 neliömillimetriä ja tuo pienempi on 40% nopeampi kortti. Ja tuo vie vähän vähemmän virtaa joten jäähyn ja virransyötön tarvitsee olla vähän vähmmän jykevä, josta saadana muutama dollaria per kortti halvennettua hintaa myös ja se noissa halppispään korteissa on merkittävä ero.

Parempi vertaus RTX 4060 ti:lle on kyllä esim. RTX 3060 ti, joka on ~saman tehoinen ja laukaisussa saman hintainen, nyt toki käytännössä halvempi. Sen pinta-ala on 392mm^2, eli kutakuinkin tuplat seuraavan sukupolven vastineesta. RTX 3070 taas on samalla piirillä, mutta vähemmän leikattuna, minkä takia siinä on enemmän potkua. :hmm:

Tosin veikkaan kyllä että RTX 4060 ti:n tapauksessa on menty asiakkaiden arvioitu maksukyky edellä.
 
On mutta samalla piikiekkojen hinnat on räjähtäneet taivaisiin näillä tiheämmillä nodeilla.

Esim tsmc kiekkojen hinta N7 vs N5 on luokkaa 9000usd vs 19000usd

Tarkkoja hintoja tuskin kukaan julkisesti tietää ja tuskin on tommosia hintoja enää kun N5 ei ole enää edes sitä kuuminta hottia. Valmistusprosessi kun kypsyy niin se myös halpenee.

EDIT: Tässä jotain arvioita
6NSxig2VyGqCoGN7EuQQuK-970-80.png


Että onhan toi sun 19k$ hiukan yläkanttiin ellet sitten sotkenu N3 nodeen.
 
Viimeksi muokattu:
On mutta samalla piikiekkojen hinnat on räjähtäneet taivaisiin näillä tiheämmillä nodeilla.

Esim tsmc kiekkojen hinta N7 vs N5 on luokkaa 9000usd vs 19000usd
Olisiko tästä mustaa valkoisella jossain? Kuulostaa aika villiltä hinnannousulta.
 
Parempi vertaus RTX 4060 ti:lle on kyllä esim. RTX 3060 ti, joka on ~saman tehoinen ja laukaisussa saman hintainen, nyt toki käytännössä halvempi. Sen pinta-ala on 392mm^2, eli kutakuinkin tuplat seuraavan sukupolven vastineesta. RTX 3070 taas on samalla piirillä, mutta vähemmän leikattuna, minkä takia siinä on enemmän potkua. :hmm:

Tosin veikkaan kyllä että RTX 4060 ti:n tapauksessa on menty asiakkaiden arvioitu maksukyky edellä.

Piirinä ei ole. RTX 4060 Ti ja RTX 3060 käyttävät molemmat 106-piirin täyttä versiota. Molemmat valmistajat ovat nimenneet korttinsa 1-2 nimeä "liian ylös" verrattuna viimesukupolveen (paria nopeinta korttia ja RX 7600 lukuunottamatta) ja erityisesti nVidian hinnoittelu nyt on lähtenyt aivan käsistä
 
Piirinä ei ole. RTX 4060 Ti ja RTX 3060 käyttävät molemmat 106-piirin täyttä versiota. Molemmat valmistajat ovat nimenneet korttinsa 1-2 nimeä "liian ylös" verrattuna viimesukupolveen (paria nopeinta korttia ja RX 7600 lukuunottamatta) ja erityisesti nVidian hinnoittelu nyt on lähtenyt aivan käsistä

Joo mutta pointti oli että jos noi prosessien hinnat pitää paikkansa, vähän vanhemmalla prosessilla saisi ~tuplasti isomman piirin kuin mitä RTX 4060 ti:ssä on. Toki piirin koko kasvattaisi virheiden määrää, mutta toisaalta vanhemmalla prosessilla pitäisi olla parempi saanto, joten sen vaikutus ei välttämättä ole suuri.
 
Joo mutta pointti oli että jos noi prosessien hinnat pitää paikkansa, vähän vanhemmalla prosessilla saisi ~tuplasti isomman piirin kuin mitä RTX 4060 ti:ssä on. Toki piirin koko kasvattaisi virheiden määrää, mutta toisaalta vanhemmalla prosessilla pitäisi olla parempi saanto, joten sen vaikutus ei välttämättä ole suuri.
Jos saman tehoiset 4060ti ja 3060ti ovat kooltaan 1x ja 2x sekä piirien hintaero taulukon ~30% (2023), niin kumpi on kalliimpi valmistaa samoilla saannoilla?
 
Pitäisikö sinun pikkuhiljaa hyväksyä se että me kaikki pelaajat halutaan omia asetuksiamme, toiset ostaa korttinsa koska haluaa pelinsä pelattavan Ultralla, toiset tyytyy halvempiin ja ehkä ottavat kiitollisina vastaan skaalaustekniikat, vaikkei ne täydellisiä olekaan. Alkaa pikkuhiljaa huvittamaan, että jatkuvasti täytyy kritisoida muiden tapaa pelata ja ajatuksia visuaalisista asetuksistaan peleistä. Jos joku haluaa kaikki kiillot päälle peliinsä, ja on valmis maksamaan siitä, antaa mennä vaan. Ei sillä ole mitään väliä, onko se ultra-asetus sinusta tai minusta turhaa vai ei. Loppujen lopuksi saat jollain mopokortilla saman pelifiiliksen kuin se maksimit vaativa koska sitä se pelaaminen subjektiivisesti on, täysin yksilöllinen kokemus. Jokaisella on siihen omat vaatimuksensa.

Minä en hyväksy sitä kun täällä annetaan ihmisille aivan väärä kuva mitä uusien pelelen pelaamiseen tarvitaan raudalta.
Vähän väliä että peli X tarvii vaikka 12GB VRAMia tai sen ja sen näytönohjaimen tai prossun, vaikka tämä on ihan täys vale.

Kun kaikki riippuu että mikä reso, mitkä grafiikka asetukset, pitääkö olla RT hommat päällä vai ei ja sitten mikä on se fps raja mikä itelle on se minimi mikä vielä tuntuu OK:lta.

Tosin samaa "valehtelua" tekee iso tekki media, mutta se on sen takia että saadaan porukka ostamaan uutta rautaa.
Mutta miksi sitä eri käyttäjät täällä toitottaa onkin sitten se mielenkiintoinen kysymys. Että miksi näin pitää toimia ?

Täällä ollut jatkuvasti sitä että maalitolppia siirretään miten se oman agendan ja raudan mukaan sopii.
Kuten RTX 2000 korttien julkaisun aikaa ensin paasattiin että ei pysty pelaamaan jollei ole 200fps ruudussa.
Sitten kun RTX 2080 Ti riitti RT peleissä juuri ja juuri 60fps:n, niin yks kaks 60fps olikin ihan riittävä fps lukema.
 
Minä en hyväksy sitä kun täällä annetaan ihmisille aivan väärä kuva mitä uusien pelelen pelaamiseen tarvitaan raudalta.
Vähän väliä että peli X tarvii vaikka 12GB VRAMia tai sen ja sen näytönohjaimen tai prossun, vaikka tämä on ihan täys vale.

Kun kaikki riippuu että mikä reso, mitkä grafiikka asetukset, pitääkö olla RT hommat päällä vai ei ja sitten mikä on se fps raja mikä itelle on se minimi mikä vielä tuntuu OK:lta.

Tosin samaa "valehtelua" tekee iso tekki media, mutta se on sen takia että saadaan porukka ostamaan uutta rautaa.
Mutta miksi sitä eri käyttäjät täällä toitottaa onkin sitten se mielenkiintoinen kysymys. Että miksi näin pitää toimia ?

Täällä ollut jatkuvasti sitä että maalitolppia siirretään miten se oman agendan ja raudan mukaan sopii.
Kuten RTX 2000 korttien julkaisun aikaa ensin paasattiin että ei pysty pelaamaan jollei ole 200fps ruudussa.
Sitten kun RTX 2080 Ti riitti RT peleissä juuri ja juuri 60fps:n, niin yks kaks 60fps olikin ihan riittävä fps lukema.

En nyt ymmärrä miten tekstiseinäsi liittyi mitenkään siihen mitä sanoin.
Vai agendoja...kuulostaa kyllä erikoisen katkeralta. Tyhmiä pelaajia, maalitolppien siirtelyä, testisivujen agendoja?
Seuraatko ollenkaan mitään testisivuja maailmalla vai mihin tämä mieletön yleistys testaajien agendoista perustuu?

Melkoista.

Arvostelijoista:
1. Kukaan ei sano että säteenseurantaa on pakko käyttää. Itseäni esimerkiksi se ei juurikaan kiinnosta, joten poimin testeistä tiedot tehoista ilman sitä.
2. Kukaan ei sano että fps on oltava 200 jotta kortti on hyvä. Ja jos joku sellaisesta on haaveillut, niin sehän on jokaisen ihan henkilökohtainen valinta?
3. Arvostelijat testailee monesti eri asetuksilla kortteja, onko tämäkin mennyt ohi? Ei niitä aina maksimilla vedellä, moni sivu antaa kattavastikin tuloksia eri asetuksilla. Mutta on HYVÄ, että testaajat näyttää kuinka muistirohmuja pelit voi olla, totta hemmetissä haluan nähdä senkin puolen. Eli kuinka kortti suoriutuu maks. asetuksilla.

Pidät kaikkia muita pelaajia itseäsi tyhmempinä, en oikein muuten käsitä noita vuodatuksia. Ylimielistä.
 
Viimeksi muokattu:
En nyt ymmärrä miten tekstiseinäsi liittyi mitenkään siihen mitä sanoin.
Vai agendoja...kuulostaa kyllä erikoisen katkeralta. Tyhmiä pelaajia, maalitolppien siirtelyä, testisivujen agendoja?
Seuraatko ollenkaan mitään testisivuja maailmalla vai mihin tämä mieletön yleistys testaajien agendoista perustuu?

Melkoista.

Arvostelijoista:
1. Kukaan ei sano että säteenseurantaa on pakko käyttää. Itseäni esimerkiksi se ei juurikaan kiinnosta, joten poimin testeistä tiedot tehoista ilman sitä.
2. Kukaan ei sano että fps on oltava 200 jotta kortti on hyvä. Ja jos joku sellaisesta on haaveillut, niin sehän on jokaisen ihan henkilökohtainen valinta?
3. Arvostelijat testailee monesti eri asetuksilla kortteja, onko tämäkin mennyt ohi? Ei niitä aina maksimilla vedellä, moni sivu antaa kattavastikin tuloksia eri asetuksilla. Mutta on HYVÄ, että testaajat näyttää kuinka muistirohmuja pelit voi olla, totta hemmetissä haluan nähdä senkin puolen. Eli kuinka kortti suoriutuu maks. asetuksilla.

Pidät kaikkia muita pelaajia itseäsi tyhmempinä, en oikein muuten käsitä noita vuodatuksia. Ylimielistä.

En minä mitään katkera ole enkä mitään muutakaan.
Olen vaan tuonut esille aina välillä että uusinta uutta ei tarvitse olla että pystyy vanhalla raudalla pelaamaan oikein hienosti. Joutuu vaan monessa tapauksessa luopumaan ULTRASTA pelin asetuksissa.
Ja kyllä täällä on maalitolppia siirrettty oman agendan tai raudan mukaan milloin kenenkin toimesta. Et selvästi ole tätä seurannut tarpeeksi pitkään. Tuo RTX 2000 esimerkki on täältä napattua silloin kun ne tulivat markkinoille (se tuli ensimmäisenä mieleeni jostain syystä).
Enkä pidä itseäni fiksuna tai muita tyhminäkään.

Ja toki pitää kortit testata myös MAX asetuksillakin, mutta aika vähiin jäänyt nuo matalempien asetusten testailut näillä suuremmilla tekki testaajilla. Usein parhaimmat testit löytyneet kaikilta pieniltä tahoilta tubesta... paitsi niissä usein jos setti on ylikellotettu kerrotaan vaan prossun kellot mutta muut tärkeät asiat jätetään mainitsematta.
Isoimmat kun keskittyy tyhmästi vaan fps taulukoihin mikä ei loppu viimeksi kerro mistään mitään, mitä olen täällä yrittänyt pitkään jauhaa ja se on varmaan myös monia ärsyttävänyt.
Mutta FPS lukemat myy, ei se että onko peli minkälainen oikeasti pelata kyseisellä raudalla.

Siksi tuntuu että Nvidia ja AMD keskittyy näihin frame gen juttuihin, vaikka ovat jo paperilla typeriä hommia. Että saadaan paljon fps ilman korkeitten fps hyötyjä.
Ehkä olen noita kohtaa liian kriittinen kun en ole vielä päässyt itse testaamaan niitä, mutta se nähdään kun itsekkin pääsen niiden kanssa leikkimään.

Mitä tulee muuten noihin skaalaimiin (XeSS, FSR ja DLSS) niin saahan niitä käyttää mielin määrin en minä sitä vastaan ole. Mutta sitä olen kun tämä määrätty porukka täällä ylistää DLSS aivan turhaan. Kun kyllä se on hyvä 4K:lla (siis kuvanlaatu) mutta ei matalemmilla tarkuuksilla ja sen fps buusti on aina vaan surkeampi mitä vanhempiin tai hitaampiin kortteihin mennään.
FSR 4K:lla on myös ihan hyvä vaikka ei ole DLSS veroinen, mutta ihan turhaa täällä Nvidia lauma syyttää milloin ketäkin kun DLSS ei tulee peliin X.
DLSS tasan tarkkaan yleistyisi paljon nopeampaa jos Nvidia politiikka ei olis sitä mitä se nyt ikävä kyllä on. Eli ihme lisenssi ehtoja, rajataan määrättyä rautaa aina ulos ja tämmöstä.

Ja rehellisesti sanottuna oma agendani tai enemmänkin tavoitteeni ollut tässä jo vuosia näyttää mihin vanha rauta pystyy jos sille antaa mahdollisuuden. Eli yritän että porukka ei turhaan menisi ostamaan sitä uutta rautaa, varsinkin nykyään kun näytönohjainten hinnat ovat taivaissa eli pitäisi boikotoida eli jättää ne kortit vaan kauppoihin niin kyllä ne hinnat siitä tippuisivat.

-----------------------------------------------------

Ja asiasta toiseen :)
Tässä teille purtavaa eli tässä lähdin testaamaan Nvidia ja AMD ajureita monelta vuodelta että pitääkö tarina paikkaansa että Nvidian ajurit ovat paremmat kuin AMD:n.
Ja testi kuulostaa hemmetin tylsältä, mutta tulipa törmättyä kaikkeen mielenkiintoiseen.
Peleiksi otin testiin AC Valhalla, Far Cry 6, Forza Horizon 5, Shadow of the Tomb Raider ja WWZ, eli eri AAA-pelejä eri vuosilta joista löytyy omat benchmarkkaus toiminnot.

Korteiksi otin GTX 1080 ja RX 580:n.
GTX 1080:lla lähdettiin ajureiden kohdalta vuodesta 2016 ja päädyttiin vuoteen 2023.
RX 580:llä vuorostaan vuodesta 2017 -> 2023.
Otin joka vuodelta vuoden viimeiset ajurit paitsi AMD:lta en voinut vuodelta 2019 ottaa viimeisiä kun lataus linkit oli alhaalla joten 19.12.3 sijaan piti ajaa testit 19.12.1 ajureilla.

AMD ajuri puoli oli kautta linjan aika tylsää, mitä nyt Forza Horizon 5 toimi hiukan paremmin 2021 ajureilla kuin 2022 tai 2023 ajureilla.
Mutta Nvidia ajuri puoli olikin sitten hyvin mielenkiintoista.

Ensinnäkin AC Valhalla (2022 peli) toimi vuoden 2016 ajureilla mutta kasalla grafiikka häröilyä.

2023-08-31 09-54-32.mp4_snapshot_01.30_[2023.08.31_10.00.10].jpg

Vuoden 2017 ajureilla ei ongelmia, mutta sitten jostain syystä vuoden 2018 ajureilla ei peli enää toiminutkaan. Mutta 2019 ja siitä eteenpäin taas toimi.
Mutta oudosti pelin FOV on GTX 1080:lla aivan eri ajureista viis kuin RX 580:llä. Eli Nvidia jättää jostain syystä paljon peliä piirtämättä.

ACValhalla.mp4_snapshot_00.05_[2023.09.06_14.54.07].jpgACValhalla.mp4_snapshot_00.29_[2023.09.06_14.53.58].jpgACValhalla.mp4_snapshot_01.00_[2023.09.06_14.53.51].jpg

Asian oltava bugi ajureissa tai pelissä kun se esiintyi kaikilla testatuilla ajureilla.

Sitten Shadow of the Tomb Raider (2018) oli myös outo tapaus Nvidia ajureiden kanssa.
Eli peli toimi 2016 ajureilla, mutta ei 2017 tai 2018 ajureilla. Sitten 2019 eteenpäin kaikki toimi kuten kuuluikin.
Tämä varmaan johtuu DLSS tai XeSS päivityksistä, mutta se on outoa että 2016 ajureilla toimi :hmm:

Ja lisää Nvidia outouksia eli WWZ (2019) vuoden 2016 ajureilla peli oli nopeampi kuin 2017, 2018 tai 2019 ajureilla. Vasta vuoden 2020 ajureilla päästiin takaisin 2016 tasolle ja itseasiassa ohikin.
Mutta viimeisen kolmen vuoden ajureilla kummallakaan en huomannut mitään outouksia eli ajuri puoli ihan yhtä hyvä kummassakin leirissä.

Tässä vielä linkki itse videoon aiheesta kaikkine fps taulukkoineen ja gameplay pätkineen:

 
Noista vanhoista ajureista sen verran, että jos ja kun on testattu uusimmalla päivityksellä Windowsista, niin se saattaa rikkoa noita vanhempia ajureita. 2016 ajuri kun on tehty melko erilaiselle Windowsin buildille kuin 2023 ajuri. Eli jos asentaisi nuo 2016 ajuri vuoden 2016 Windowsille niin saattaisivatkin toimia oikein
 
Sekin on suhteellista mitä pidetään vanhana rautana... Ennen vanhaan sai päivittää melkein kerran vuodessa, nykyään kun pc pelit on konsolien armoilla niin kehitys on hidastunut huomattavasti.
Tuo oma 6800 XT tuntuu jo ikivanhalta kortilta kun on koneessa ollut kohta 3 vuotta.

Mutta edelleenkään ei mitään järkevää päivitystä samalla rahalla saa (659€ maksoi julkaisun aikaan tuo). Käytännössä 7800 XT maksaa lähes saman ja tehot on myös melkein täysin samat. (Oikeastihhan tuon kortin olisi pitänyt olla 7700 XT)
 
Mutta mitä merkitystä sillä on mihinkään ?
Ei yli 1000€ kortteja osta kuin pari hassua prosenttia pelaaja kunnasta.
Edelleen eniten myydyt kortit löytyy hinta luokasta 100 - 400€ jossa Nvidialla ei ole kuin pahasti rampautettuja kortteja. Mitkä tosin tuntuvat myyvän yllättävänkin hyvin... vissiinkin ihan vaan Nvidia brändin takia.
Kun miksi muuten 190€ maksava GTX 1650 olisi Steam tilastojen ykkönen ?

Juu sigun mukaan sinulla on RTX 4090 ja selvästi pitää yrittää kaikille kuten itsellesi perustella miksi se oli hemmetin hyvä ostos ja kaikki Nvidia jutut on niin hienoa.
Mutta sivistäs hiukan itseäsi ja testailes vähän hehkuttamaas DLSS:ää vanhemmilla (tai reilusti RTX 4090 hitaammilla) korteilla ja tulet äkkiä huomaamaan että kappas että ei se olekkaan niin hieno juttu oikeasti.

Ensinnäkin se alkaa antamaan FPS buustia kunnolla vasta 1920x1080 resolla, mutta siinä kohtaa kuva on semmoista puuroa ettei sitä voi katsoa hullukaan.
Ja sitten tämä säteenseuranta, mikä loppuviimeksi ei paranna grafiikoita juuri yhtään ja monessa tapauksessa rumentaa vaan pelejä kun ovat rasteroinnin päälle liimattuja RT effectejä. Mutta sitä käytettäessä tulee hemmetin moinen fps penalti.
Joten miksi sitä pitäis käyttää ?
Vaikuttaa enemmänkin että se on keino yrittää myydä vaan uutta ja "hienoa" kallista rautaa porukalle mitä ne eivät välttämättä edes tarvisikaan.

Kyllä se on tulevaisuus, mutta se ei ole vielä täällä vuosiin. Nyt se on enemmänkin tyhmiltä rahat pois juttu.

RT kun jätetään kuvioista pois niin uutuus pelitkin tarvitsevat yllättävän vähän GPU poweria loppuviimeksi. Esimerkiksi vanha kunnon GTX 1080 pyöritteli pelejä oikein kivasti kun tuossa suorittelin ajuri testejä AMD vs Nvidia.
Toki kaikissa peleissä ei voi käyttää enää ULTRAAAAAA, mutta pykälää alaspäin grafiikka asetukissa niin jopas tarjosi vielä mukavan pelikokemuksen.
Ja noin 99% peleistä et huomaa eroa onko ULTRAt käytössä vai pykälää alemmat asetukset. Joillakin on vaan pakkomielle että asetukset pitää olla tapissaan.

Lopuksi vielä että FSR menee melkein samaankastiin DLSS:n kanssa että sen hyödyllisyys on vähän niin ja näin.
Mutta sen etu ja hyödyllisyys tulee siitä että se toimii kaikkien korttejen kanssa kun ovat vaan vähintään GTX 600- tai HD 7000-sarjalaisia.
Eli FSR mahdollistaa että ei tarvi vanhaa ikäloppukorttia välttämättä vielä heittää SERiin vaan FSR käyttämällä pystyt vielä pelaamaan uusia pelejä. Vaikkakin näyttävät FSR päällä... no aika hirveiltä.

XeSSikin tuossa yleistyy jatkuvasti että kohta sitä voi käyttää FSR tavoin vanhojen korttejan kanssa.... paitsi että AMD korteilla se ei ole omissa testeissäni tuonut FPS lisää juuri ollenkaan. Mutta Intelin ja Nvidian korteilla se toimii kuten kuuluukin.

Mutta suosittelen tulemaan sieltä nurkasta RTX 4090 seurasta pois ja katsomaan miten asiat maailmassa oikeasti ovat näiden kohdalta... eli sen ison kuvan.
Ja ehkä hokaat miksi Nvidia saa paljon paskaa niskaansa.
Sekä miksi on tyhmää puolustella Nvidiaa ja haukkua open source linjalla olevia AMD ja Inteliä.

Pidätkö meitä high end tuotteita köyttäviä jotenkin tyhmänä vai mitä... Kyllä varmasti jokainen sinun nimeämä "NVIDIA fanikin" tietää, että ei ole pakko pelata ultra-asetuksilla ja että skaalaimet toimii parhaiten isommilla resoilla, ja RT ei ole pakollista yms.

Sillä nyt ei ole mitään merkitystä, jos (niin uskomattomalta se ehkä sinusta voi kuulostaakin) HALUAA pelata ultra-asetuksilla, isolla resolla, RT-päällä ja käyttää skaalaimia.

Minun ei tarvitse todistella itselleni eikä kenellekään mitään. Tiedän aivan hyvin mitä olen ostanut ja mihin hintaan, ja olen saanut siitä irti juurikin sen, mitä olen hakenut. Ei ole hetkeäkään kaduttanut tms.

Sinulla itsellä se tuntuu olevan hirveä tarve todistaa, että kaikkien pitäisi pelata budjettikoneilla, ja jättää kaikki raskaat asetukset pois päältä, ja kaikki muu on tyhmyyttä ja vääryyttä.
 
Jos tämä huhu pitää paikkansa, että Switch 2 käyttää peleissään mahdollisesti DLSS:a ja Frame generointia, niin saattapaapi tulevaisuudessa aika isoon prosenttiin pelejä tulla tuki.


Jos deveillä on edes pieni epäilys, että tekisivät Switch portin jossain vaiheessa, niin DLSS implementointi otetaan varmaan mukaan kuvioihin jo suunnitteluvaiheessa.
 
Jos tämä huhu pitää paikkansa, että Switch 2 käyttää peleissään mahdollisesti DLSS:a ja Frame generointia, niin saattapaapi tulevaisuudessa aika isoon prosenttiin pelejä tulla tuki.


Jos deveillä on edes pieni epäilys, että tekisivät Switch portin jossain vaiheessa, niin DLSS implementointi otetaan varmaan mukaan kuvioihin jo suunnitteluvaiheessa.

Miten paljon tintento pelejä on portattu PC:lle?

EDIT: Niin ja käsittääkseni tintenton rauta on ollut melko kevyttä suhteutettuna muuhun.
 
Pidätkö meitä high end tuotteita köyttäviä jotenkin tyhmänä vai mitä... Kyllä varmasti jokainen sinun nimeämä "NVIDIA fanikin" tietää, että ei ole pakko pelata ultra-asetuksilla ja että skaalaimet toimii parhaiten isommilla resoilla, ja RT ei ole pakollista yms.

Sillä nyt ei ole mitään merkitystä, jos (niin uskomattomalta se ehkä sinusta voi kuulostaakin) HALUAA pelata ultra-asetuksilla, isolla resolla, RT-päällä ja käyttää skaalaimia.

Minun ei tarvitse todistella itselleni eikä kenellekään mitään. Tiedän aivan hyvin mitä olen ostanut ja mihin hintaan, ja olen saanut siitä irti juurikin sen, mitä olen hakenut. Ei ole hetkeäkään kaduttanut tms.

Sinulla itsellä se tuntuu olevan hirveä tarve todistaa, että kaikkien pitäisi pelata budjettikoneilla, ja jättää kaikki raskaat asetukset pois päältä, ja kaikki muu on tyhmyyttä ja vääryyttä.

No eikös se kuulosta aika fanittamiselta kun jatkuva hehkutus menossa kaikesta mitä Nvidia tekee ja samaan aikaan kilpailijat haukutaan lyttyyn ilman oikeaa kunnon syytä ? Vai onko se muka perusteltu syy ettei se ole markkinoiden ykkönen ?
Ja hyvä sinulle kun olet ostanut RTX 4090 mitä se nyt nykyään maksaakaan :thumbsup:

Mutta oikeasti kannattaa tutustua miten nämä kaikki FSR, DLSS ym. toimii muulla kuin sillä high end raudalla, niin näet että eivät ne niin mahtavia olekkaan niiden high end korttien ulkopuolella.
Että ne juuri jäävät ulkopuolelle kenelle nuo skaalaus hommat olisivat hyödyllisimmät.
Kun RTX 4090, RTX 3090, RTX 4080, RX 7900 ym. high end korteissa kyllä poweria löytyy riittävästi ilmankin noita skaalaimia.

Sama nyt nämä frame gen jututkin että high end korteilla saadaan kovempia fps, mutta hitaammilla antaa kovempia fps ja samalla kuitenkin huonomman pelikokemuksen kun itse peli tuntuma heikkenee (kuulemma kun en ole itse päässyt vielä testaamaan).
Ja oli Nvidialta todella paska teko jättää edellisen sukupolven high end kortit ulos DLSS 3.0:stä kuten RTX 3080 ja RTX 3090:n.

Ja muuten en yritä saada kaikista mitään budjetti pelaajia vaan auttaa niitä joilla ei ole rahaa ostella noita nykyisiä high end kortteja tai ylipäätään rautaa.
Kun prossu puolellakin kun AMD pääsi Intelin rinnalle niin siihen loppui se hintojen polkeminen ja kuluttajan kaveria näytteleminen.

Mutta se on ollut AMD:ssa hyvä että se tuo melkein kaikki nämä uudet hommat aina kaikille.
Nytkin tuon FSR 3.0:n frame genillä ja onkin kiva päästä sitä testaamaan eri ikäisillä Nvidia ja AMD korteilla (niin ja Intelin kortilla) että onko siitä oikeasti mitään iloa. Mutta veikkaisin että EI.
Jos siinä on sama juttu kuin Nvidia DLSS 3.0 frame genin kanssa mitä käy input lagille jos "aloitus" fps eivät ole tarpeeksi korkeat.

Ja vielä yks juttu. Eli jos Nvidia haluais DLSS leviävän kuin kulovalkea, niin ensin mäkeen ne tyhmät lisenssi ehdot ja sitten sama juttu mitä Intel teki XeSSin kanssa.
XeSS toimii kaikilla korteilla valmistajasta viis. Mutta Intelin korteilla se toimii hiukan paremmin kiitos laitteisto kiihdytyksen.
 
Jos tämä huhu pitää paikkansa, että Switch 2 käyttää peleissään mahdollisesti DLSS:a ja Frame generointia, niin saattapaapi tulevaisuudessa aika isoon prosenttiin pelejä tulla tuki.


Jos deveillä on edes pieni epäilys, että tekisivät Switch portin jossain vaiheessa, niin DLSS implementointi otetaan varmaan mukaan kuvioihin jo suunnitteluvaiheessa.
Toisaalta en usko, että PC:llä tarvii skaalaimiin sotkeutua jos joku Nintendon peli tulisikin PC:lle. Saa nähdä onko uuden Nintendon tehot lähellekkään nykyisiä muita konsoleita, veikkaan ettei ole. Mutta hyvä uutinen Nintendo-pelaajille, saattaa noilla tekniikoilla saada edes vähän parempaa kuvalaatua uusiin peleihin.
 
Miten paljon tintento pelejä on portattu PC:lle?

EDIT: Niin ja käsittääkseni tintenton rauta on ollut melko kevyttä suhteutettuna muuhun.

Tarkoitin kylläkin juuri toisin päin. Aika monesta AAA peleistä on kuitenkin tehty jälkeenpäin switch portti, niin siitä näkökulmasta DLSS olisi varmaan hyvä ottaa mukaan jo ennen Switch portin tekemistä, jos edes on etäisesti se suunnitteilla.
 
Pieni kysymys olisi, ja tämä lienee parempi paikka, eikä tarvitse uutta ketjua tehdä.

Vastasin tänne, että "RTX 2080 ei ole enää nykyaikana niin hyvä":

Sitten asia jäi vaivaamaan minua, vaikka hain nopeasti techpowerupista tuon vertailutiedon, ja mietin, että RTX 2080 on vain 1st gen RT, DLSS 3 ei toimi, takuuta ei ole enää, jne..


Siellä lukee:
Based on TPU review data: "Performance Summary" at 1920x1080, 4K for 2080 Ti and faster.

Tuo ei ole kuitenkaan 2080 Ti tai nopeampi ja aika hyvän muistini varassa muistelen, että RTX 3070 oli samaa nopeusluokkaa julkaisun aikoihin..

--

Kysymys siis on: onko RTX 2000-sarja oikeasti vanhentunut noin huonosti? Onko suorituskyky laskenut kautta linjan , vai onko uudet pelioptimoinnit vaan jätetty tekemättä?

Näyttää siltä, että 300€ RX 6750 XT (400€ - 50€ cashback - 50€ pelikoodi) vielä voittaa tuon ei-niin-vanhan tonnin näytönohjaimen.

Ollaanko oikeasti tässä, että parjattu RTX 4060 Ti ja uutuudet on tehoissa entisten huippujen tasolla, vaikka niitä dissattiin täysillä youtubessa julkaisun aikoihin? Muistan, kuin Jayz2Cents sai hirveää palautetta, kun ylisti tuota näytönohjainta ja se arvostelu vedettiin pois.

Ja vielä pakollinen: vanhenevatko AMD:n näytönohjaimet paremmin?

Tässä on nyt vain yksi lähde, mutta nykyaikana suurimpien arvostelujen ollessa youtube-pohjaisia, en lähde katsomaan kymmentä videota ja kirjoittamaan muistiinpanoja saadakseni vertailudataa.
 
Kysymys siis on: onko RTX 2000-sarja oikeasti vanhentunut noin huonosti? Onko suorituskyky laskenut kautta linjan , vai onko uudet pelioptimoinnit vaan jätetty tekemättä?

Näyttää siltä, että 300€ RX 6750 XT (400€ - 50€ cashback - 50€ pelikoodi) vielä voittaa tuon ei-niin-vanhan tonnin näytönohjaimen.
RTX2000-sarjan julkaisusta tulee tässä kuussa täyteen 5 vuotta ja välissä on ehtinyt tulla jo uuden sukupolven pelikonsolitkin ja osa uusista peleistä on niin raskaita, että uusilla konsoleillakin dipataan 720p resoluution tuntumaan ja siitä skaalataan sitten ylöspäin. Kehitys kehittyy ja pikku hiljaa kaikki rauta vanhenee käsiin, puoli vuosikymmentä on ihan kunnioitettava elinkaari PC-komponentilla.
 
Onhan julkaisutahtikin hidastunut. 700, 900 ja 1000-sarjan ensimmäiset kortit julkaistiin n. 3 vuoden sisään, mutta kolmen viime julkaisun välillä melkein 5 vuotta. Eli suurempi harppaus mallien välillä olisikin suotavaa.

Se on sitten eri, onko tämä huono vai hyvä asia.
 
RTX2000-sarjan julkaisusta tulee tässä kuussa täyteen 5 vuotta ja välissä on ehtinyt tulla jo uuden sukupolven pelikonsolitkin ja osa uusista peleistä on niin raskaita, että uusilla konsoleillakin dipataan 720p resoluution tuntumaan ja siitä skaalataan sitten ylöspäin. Kehitys kehittyy ja pikku hiljaa kaikki rauta vanhenee käsiin, puoli vuosikymmentä on ihan kunnioitettava elinkaari PC-komponentilla.

Juurikin tämä. 00-luvulla 5 vuotta vanha näyttis olisi käytännössä ollut peruna.
 
Hyvä pätkä nvidiasta ja konealgoritmien tilanteesta. Podcast summaa miten päädyttiin AI boomiin ja mahdolliset tulevaisuuskenaariot raudasta palveluihin. Miksi laitoin tähän ketjuun niin esittävät hyvän argumentin miksi nvidia on vaikea lyödä tuolla markkinalla. Pääasiassa konesali gpu juttua vaikka yksi ulottuvuus on integrointi missä löytyy nvidia gpu, nvidia cpu ja nvidia verkkokortti(nvlink+mellanox) samasta pömpelistä.

Yksittäiset piirit tai pömpelit eivät enää ole mittari millä tuotteita ostetaan. Softalla ja konesalitason optimoinneilla on merkittävä vaikutus siihen mikä tuote on hyvä. Ilmeisesti kehityksen kärjessä olevat kielimallit opetetaan 10000+ gpu klusterilla. Nvidiallahan on avaimet käteen ratkaisu missä tulee 256gpu:ta(+cpu:t) samaan muistiavaruuteen kytkettynä nvlink:lla ja noita 256gpu:n klustereita kasataan yhteen infinibandin avulla. Data liikkuu todella nopeasti ja iso yhteinen muistiavaruus helpottaa ohjelmiston kirjoittamista.

Käyvät podcastissa läpi myös karhuskenaariot eli tavat jotka podcastin vetäjien mielestä voisivat suistaa nvidian turmioon.



Mielenkiinnolla odotan millon amd alkaa mlperffiin julkaisemaan tuloksia. mlperf on aika relevantti, joskin piru on yksityiskohdissa. Valmistajat optimoivat viimeisen päälle mlperf:ia. Ei voi olettaa samaa suorituskykyä ei optimoiduilta kuormilta,... Toisaata mlperf kuormat ovat relevantteja AI hommissa.

Osassa kuormista saatu suorituskyky tuplattua hopperille paremmin optimoidulla softall versus edellinen nvidian mlperf ajo.


Intelin kiihdyttimet ihan ok. osalla kuormista
 
Viimeksi muokattu:

Statistiikka

Viestiketjuista
262 706
Viestejä
4 563 293
Jäsenet
75 011
Uusin jäsen
Pro

Hinta.fi

Back
Ylös Bottom