Virallinen: NVIDIA vs AMD (vs Intel) keskustelu- ja väittelyketju

  • Keskustelun aloittaja Keskustelun aloittaja Sampsa
  • Aloitettu Aloitettu
Jos on liian vahva agenda amd ohjaimiin niin on aivan sama mitä sanoisin, siitä tulis vain diipa daapa vääntöä eikä mitään muuta.
Jos todellinen tarkoitus henkilöllä on vain puolustaa kannattamaansa merkkiä niin on aivan sama mitä sellaiselle henkilölle kertoo.
topikki kasvaa vain turhasta väännöstä, siispä en lähde keskustelua tälläkertaa avaamaan.

Miksi lähes jokaisessa viestissä otat puheeksi pelit jotka eivät toimi AMD ohjaimilla, jos et sitten kuitenkaan suostu kertomaan mitä ne pelit ovat?

Oikeasti siitä tiedosta voi olla hyötyä näytönohjainta hankkiville...
 
Vega VII "vika" oli sen valmistuskustannukset. Sitä ei tiettävästi olisi edes ollut alunperin tarkoitus ollut tuoda pelikorttina (suunniteltu työkäyttöön), mutta nvidian RTX 2070 ja 2080 korttien huimat hinnat toivat AMD:lle mahdollisuuden myydä sitä jonkinlaisella katteella. Poistui melkolailla heti, kun hinnoitteluympäristö muuttui vähemmän suotuisaksi sille.

Vega VIIn toinen puute oli sen vain 64 ROPIa. Alunperin Vega 10iin laitettiin vain 64, ilmeisesti lähinnä koska muistikaista ei olisi riittänyt kunnolla ruokkimaan 128ntä. Sitten Vega 20ssä muistikaista tuplattiin, mutta ROP-määrää ei nostettu, koska piirin pääkäyttötarkoitus oli GPGPU-jutut joissa ROPeja ei tarvita.
 
Itsellä ajuriongelmatilanne 1-1 tämän koneen kanssa, koneessa ollut RX 460, GF 770 ja GF 1070.

RX460llä Hearts of Iron IV ei suostunut DirectX-tilassa käynnistymään. Onneksi pelissä oli myös OpenGL-moodi, jolla se toimi.

Jommalla kummalla geforcella(en enää muista, kummalla) Linuxissa HDMItä pitkin lähtevät äänet lopetti toimimasta, kun ruudun sammutti ja käynnisti.
 
Itsellä on useamman kuukauden ollut erilaisia ongelmia tämän reilu vuosi sitten ostetun RX 570:n kanssa. Näytöstä häviää kuva tai sitten koko kone vetää itsensä täysin jumiin ja vain resetillä selviää. On päivitetty ajureita, emolevyn BIOS, vaihdettu useampi eri virtalähde ja testattu vielä toisessa koneessa missä Inteliä (AMD:tä tässä pääkoneessa). Kortti kävi myös Jimmssillä kääntymässä ja siitä ilosta sai maksaa 50 euroa (aiheeton takuupalautus), kun kortti toimii heillä. Nyt on reilu viikko menty uudella Windows asennuksella ja ei vielä ole ongelmat palanneet. Tähän mainittakoot että vanhalla GTX 960:llä ei ollut kuukauden aikana mitään ongelmia tuolla aiemmalla Windows asennuksella.

On tullut aina ostettua sen mukaan esim. näytönohjaimia jolla saa omalla budjetilla sen parhaan gängbängin per käytetty raha yksikkö. Mutta tässä kun alkaa tehdä uuden näytön takia mieli tehokkaampaa rautaa, niin en tiedä ostaisinko itselleni AMD:n näytönohjainta kaiken tuon säätämisen jälkeen, vaan valitsisinko kuitenkin Nvidian aiempien positiivisten kokemusten takia.
 
Hahmotellaan lyhyesti mistä brändi syntyy, tässä tapauksessa Nvidian maine:
  • Markkinoiden varmatoimisimmat tuotteet.
  • Lukuisia onnistuneesti hallittuja julkaisuja suositusten saattelemana.
  • Tarjolla pintapuolisesti vakuuttavaa uutta teknologiaa eli RTX-ominaisuudet.
  • Hyvä saatavuus myymälöistä ja lukuisia mielekkäitä mallivaihtoehtoja eri valmistajilta.
  • Pätevä asiakastuki ja aktiivinen kommuuni.
  • Viime vuosina pienempi virrankulutus ekologisuuden ja eri käyttötarkoitusten kannalta (kuten pienet kotelot).
Onko mikään ihme että Nvidia on suositumpi? Suurinosa pelaajista ei pyöri ahkeraan tällä palstalla. Kone kun pitää saada kasaan, se vain ostetaan joko osina tai pakettina, koska pelaamaan pitäisi päästä. Kalliita osia ostaa aikuiset pelaajat, joilla aika menee perheen ja/tai työn kanssa, eli aivan sama joku 10 FPS sinne tänne verrattuna siihen että saa kyllin pätevän koneen nurkkaukseensa kätevästi. Pakettikoneissa suositaan Nvidiaa yhteistyön ja maineen takia.
On totta että AMD kykenee samaan ja voi tarjota yhtä pätevän ellei paremman lopputuloksen, hinnasta puhumattakaan, muttei markkinatilanne muutu mihinkään jos kosauttaa julkaisuja ja ajureita tai edelleen omaa sen korkeamman virrankulutuksen, vaikka se olisi vain tyyliin 20 W eikä käytännössä vaikuttaisi mihinkään. Mittaukset puhuvat, ensivaikutelma on painava, sana kiirii ja maailmassa ei vallitse pelkästään hyvä tahto, eli tilanteessa ei ole mitään ihmettelemistä tässä mielessä. Erikseen sitten tilanne missä on lukenut ja päiväillyt kaiken tiedon läpi tästä palstasta lähtien ja silti ostaa Nvidiaa, tällöin puhutaan jo fanituksesta.
Itse aattelen, että jollakulla on liikaa rahaa, jos ei perehdy ostettavien tuotteiden ominaisuuksiin hintaluokassa jossa (varsinkin peli)tietokoneet liikkuvat. Näytönohjainkin yksinään on nykyään melko tyyris investointi.
 
Enpä ole täällä vähään aikaan käynyt, mutta olipa viihdyttävää lukemista. Popcornit vaan puuttuu. :)

Pari asiaa joita on tässä selvinnyt. AMD:ltä on tulossa isompi RDNA/RDNA2 kortti tänä vuonna, se tulee olemaan maksimissaan 1.7x (itse veikkaan jotain 1.5x) nopeampi kuin nykyinen 5700XT, tai jos tulee nopeampi kortti, se tulee olemaan yli 1000€ ihan vaan komponenttien hintojen takia (nämä numerot tulee eri lähteitä yhdistelemällä ja komponenttien hintoja ynnäämällä).

En tiedä onko kukaan täällä edelleenkään huomannut hyvin monessa pelitestissä huomattavaa asiaa: AMD:n kortit skaalautuvat melko hyvin tarkkuuden noustessa ja nyt ei siis ketään järkevää kiinnosta maksimi FPS, vaan 99 persentiili. Nuo luvut on niitä joita kannattaa seurata kun katsoo kortin valinnan yhteydessä tulevaisuuteen.

Toki on kiistämätön tosi, että Nvidialla on puhdas FPS johto ja onhan se huomattava (keskimäärin 30-40%) verrattuna tämän hetken nopeimpaan AMD:hen, mutta millä hintaerolla, kyse on kuitenkin 600-800€ hintaerolla olevista korteista, ei välttämättä ole se hinta-FPS suhde ihan paras. Jos pelaa ainoastaan niitä pelejä joilla 2080ti on sen 50% nopeampi kuin 5700XT, niin hintaero on ihan perusteltavissa. Pääasiassahan tuo 2080ti on kuitenkin se ainoa 4K "high end" pelailuun kelpaava kortti, kaikilla muilla joutuu karsimaan asetuksista.

Itsehän en ole vielä kertaakaan ostanut yli 500€ korttia, enkä varmaan ostakaan, ennen kuin tulee se 4K+DXR täysillä ja yli 60FPS 99 persentiilillä aina kaikkea pyörittävä kortti. Saattaa odotus olla vielä aika pitkä.
 
Viimeksi muokattu:
Ajuripäivitysten vaihteleva laatu on itsessään täysin oiva syy maksaa hieman lisää. Ajurit ovat olennainen osa tuotetta ja tuotteen kokonaislaatuvaikutelmaa. Viimeisimmät omakohtaiset kokemukset ovat Vegasta, jonka ajurit olivat täyttä skeidaa ekat 6kk. Aikaisemmat AMD-kortit ovat toimineet suht hyvin (280X, 390) ja olivat tuotteina ihan toimivia. Tämä oli toki ennen G-sync aikaa ja Nvidian etumatkan pitenemistä. AMD on aika pitkälti junnannut paikallaan sillävälin kun Nvidia on laittanut pökköä pesään.

Kyllä itsekin täällä kateudesta suorastaan vihreänä joka ikinen päivä kuolaan noita nvidian jumalaisia kortteja ja jumalaisia ajureita. Varsinkin nyt kuolan eritys on lisääntynyt aivan valtavasti kun uusilla emoilla ajurien asennus pitää hoitaa mikrosoft storen kautta. Puhumattakaan gaming experience sovelluksesta joka saa aikaan lähes ennenaikaisen valkoisen joulun! :love:
Mutta kun on köyhä niin ei ole varaa maksaa sitä 70€ extraa jonka tuosta jumalaisesta laadusta tarvisi maksaa. Sen takia olen joutunut tyytymään näihin paskoihin AMD:n kortteihin mitkä ei koskaan tarjoa mitään uutta, esim tämä HBM2 muisti tässä Vegassa, se on jotain silmänlumetta vain. Ja sitten nää ajurit.. Siis voi vittu mitä sontaa. Vaikka nyt itsellä ei juuri nyt ole muuta haukuttavaa kuin tuo relive, niin olen toki kuullut että näissä on vaikki mitä ja tätä. Yleensä olen kuullut näistä ongelmista jumalaisten nvidia korttien omistajilta, mutta kyllä se ihan varmasti pitää paikkaansa koska he omistavat jumalkortit niin eivät he varmasti kyllä valehtele mistään. Niin ja muistutuksena, nvidian jumalkorteilla ei ole KOSKAAN mitään ongelmia, siksi harmittaakin aivan valtavasti kun pitää olla nalkissa tässä AMD:n romukortissa. Niin ja paskoissa ajureissa.
Jooh ja se mikä meinasi unohtua. Minkä helvetin takia tuon AMD:n pitää joka vuosi muuttaa tuota ulkoasua??? Ei voi ymmärtää kun nvidian puolella ollaan pysytty lähes Detanator tasolla tähän päivään asti.
Ja sitten toi AMD:n overlay homma että voit exclusive fullscreen peleissä tehdä kaikkia säätöjä ilman että menet windowsiin on kyllä sellainen turhake että ihan hampaita naurattaa, hyvä ettei nävidia ole tuollaista räpellystä mennyt tekemään.

<(sa/o)rgasm off>

Ei paljoa ole varaa tehdä isompaa tai se 300TDP menee ylitse.
Joku Rtx2080Superin tasoinen voisi olla mahdollin että pysytään siinä alle 300w

On varaa tehdä vaikka 3 kertaa isompi kortti ja se ei ylitä 300TDP rajaa. Edelleen, katso tuolta ripper puolelta mitä tapahtuu kun tuplataan coret. Virrankulutus pysyy samana mutta tehoa tulee 50% lisää.


Tuota "ajurien ainaista paskuutta" hokee käytännössä vain ihmiset jotka eivät ole ikinä edes käyttäneet ko. näytönohjaimia ja ajureita.

Näinhän se on. Ja johan kyseinen taateli ilmoitti hyvissä ajoin viestissään että toivoo toki AMD:lle jonkinlaista menestystä jotta hän pääsee ostamaan nvidian jumaluutta halvemmalla. Eli ei näillä henkilöillä ole edes aikomusta koskaan hankkia mitään muuta kuin sitä nvidiaa, he ovat niin kauan luputtanut jenssonin nahkatakkia että eivät enää pääse siitä eroon.

Esim nämä vista kaatumiset jotka softa puolella oli Nvidialla ongelma joissakin meilläkin käytetyissä korjaantui sillä kun kukaan ei muutenkaan halunnut Vistaa käyttää, tai no kukaan itseään kunnioittava ihminen ei käytänyt Vistaa.

Vistassa ei ollut mitään vikaa. Se oli varsin hyvä OS, ongelmat oli suurelta osin 3rd party puolella. Mutta toki itse kun omistin tuohonkin aikaan AMD:n kortin, niin itsellä ei ongelmia ollut. Ainoat ongelmat oli jonkun ikivanhan sound blasterin kanssa, jonka olin valmis heittämään veke koneesta jos se ei vistan kanssa toimi. Ja niin myös tapahtui.
 
Itsellä on useamman kuukauden ollut erilaisia ongelmia tämän reilu vuosi sitten ostetun RX 570:n kanssa. Näytöstä häviää kuva tai sitten koko kone vetää itsensä täysin jumiin ja vain resetillä selviää. On päivitetty ajureita, emolevyn BIOS, vaihdettu useampi eri virtalähde ja testattu vielä toisessa koneessa missä Inteliä (AMD:tä tässä pääkoneessa). Kortti kävi myös Jimmssillä kääntymässä ja siitä ilosta sai maksaa 50 euroa (aiheeton takuupalautus), kun kortti toimii heillä. Nyt on reilu viikko menty uudella Windows asennuksella ja ei vielä ole ongelmat palanneet. Tähän mainittakoot että vanhalla GTX 960:llä ei ollut kuukauden aikana mitään ongelmia tuolla aiemmalla Windows asennuksella.

On tullut aina ostettua sen mukaan esim. näytönohjaimia jolla saa omalla budjetilla sen parhaan gängbängin per käytetty raha yksikkö. Mutta tässä kun alkaa tehdä uuden näytön takia mieli tehokkaampaa rautaa, niin en tiedä ostaisinko itselleni AMD:n näytönohjainta kaiken tuon säätämisen jälkeen, vaan valitsisinko kuitenkin Nvidian aiempien positiivisten kokemusten takia.

AMD munasi 19.12 ajurit ja pahasti. Ja ne toivat tuon ongelman. 19.11 ajureilla tuota ongelmaa ei ole esiintynyt ja uudempia 20.x ajureita taas en ole vielä uskaltanut kokeilla.
 
AMD munasi 19.12 ajurit ja pahasti. Ja ne toivat tuon ongelman. 19.11 ajureilla tuota ongelmaa ei ole esiintynyt ja uudempia 20.x ajureita taas en ole vielä uskaltanut kokeilla.
Nuo 19.12 ajurit oli varmasti jossain kohdassa käytössä, noita vanhempia en muista koska viimeksi käytin, enkä tietenkään muistanut testata niitä näin jälkikäteen ajatellen. Nyt on ollut 20.1.3 käytössä reilun viikon eikä ole vielä ainakaan mitään ongelmia ilmennyt, tosin koputetaan puuta varmuuden vuoksi.
 
On varaa tehdä vaikka 3 kertaa isompi kortti ja se ei ylitä 300TDP rajaa. Edelleen, katso tuolta ripper puolelta mitä tapahtuu kun tuplataan coret. Virrankulutus pysyy samana mutta tehoa tulee 50% lisää.

Nyt hirveesti vertailis prosessoreita GPUhin varsinkaan kun prossussa on chplettejä ja gpu on yksi monoliittinen piiri. Mutta jokatapauksessa samaa mieltä siitä että kyllä amd voisi nopean kortin tehdä ja pitää tehotkin vielä alhaalla. Äkkiseltään laskettuna RX 5600 XT:tä vastaava piiri RTX 2080 TI vastaan käyttäen verrokkina RTX 2060:stä olisi noin 76 CUn kapistus (Vgpu: <1V, Kellot: ~1,65Ghz). Perf/W:han navissa on hyvä, kunhan pitää voltit ja kellot _järkevinä_.
 
Nyt hirveesti vertailis prosessoreita GPUhin varsinkaan kun prossussa on chplettejä ja gpu on yksi monoliittinen piiri. Mutta jokatapauksessa samaa mieltä siitä että kyllä amd voisi nopean kortin tehdä ja pitää tehotkin vielä alhaalla. Äkkiseltään laskettuna RX 5600 XT:tä vastaava piiri RTX 2080 TI vastaan käyttäen verrokkina RTX 2060:stä olisi noin 76 CUn kapistus (Vgpu: <1V, Kellot: ~1,65Ghz). Perf/W:han navissa on hyvä, kunhan pitää voltit ja kellot _järkevinä_.

No älä vertaile ei se mua haittaa. Ihan sama se tapahtuu GPU puolellakin kun tiputetaan jännitettä ja kikaherzejä niin se virrankulutus tippuu roimasti, jolloin tulee pelivaraa vastaavasti lisätä coreja taikka näyttisten puolella CU:ta.
Ja kuten itsekin tuossa teorioit jo, niin mielestäni RTX2080Ti tehot on jo tällä RDNA arkkitehtuurilla täysin saavutettavissa.

Siis tuo 35% tulisi tehdä tuon 7nm+ (EUV) lisäksi.
Tosin silloin kun puhuttiin 64CU Navista ja kuinka saatiinkin 40CU Navi suhteellisen huonolla virrankulutuksella alkoi muodostua kuva, että suurempi siru hylättiin syystä/toisesta ja 40CU piiri kellotettiin paljon korkeammalle kuin oli tarkoitus, jotta AMD ei jätä täyttämättä kysytyintä segmenttiä.
Tästä päätellen ja Navin hyvän alivotittavuuden saralla voipi olla, että Navi 10 johti harhaan ja pelkkä RDNA 2.0 on huomattavasti energia tehokkaampi mitä nykyiset mallit antavat olettaa.

Eipä 64CU:sta ole mitään puhetta koskaan ollut muuta kuin huhupajojen höpinöissä. Vedetty vaan mutkat suoriksi tyyliin ennen ollut 64CU niin sellainen sieltä tulee jatkossakin.
Jos jotakin on hylätty niin se on hylätty ihan siitä syystä että tuolla pienemmälläkin piirillä kun sitä hiukan viedään mukavuusalueen ulkopuolelle, saadaan se teho mitattua ulos jota on tavoiteltu.
Tästä taas seuraa se että säästetään kuluissa koska ei tarvitse valmistaa sitä isompaa piiriä joka vie enemmän pinta-alaa ja jossa väistämättä on myös huonommat saannot.

Ja nyt tosiaan jos AMD aikoo puskea 80CU piirin markkinoille, niin kyllä itse miettyttää missä se ~60CU piiri oikein on ja se, että jos 40CU kortti vie jo sen 225W niin miten tuo 80CU aikoo selvitä vaikka kelloja tuotaisiin alas ronskisti. Miten sellainen kortti aikoo pärjätä RTX 3000 sarjalle, joka saa melkoisen boostin tuosta 7nm tekniikasta? 64CU kortti ei ole tässä vaiheessa pois suljettu tietenkään.

Siitä 80 piiristä saa leikattuna vaikka pari muuta 70 ja 60.

Ainahan näitä maksettuja tutkimuksia saa aikaseksi.

Täysin samaa mieltä että toi tutkimus ei kovin vahvalla pohjalla ole. Tosin jotain perää siinä ehkä on kun nvidia ei ole sitä depunkannu mitenkään.

Näyttää siltä että Nvidia dominoi edelleen makeasti kun katsoo Steamin tilastoja. AMD:n noususta on puhuttu näyttismarkkinoilla mutta Steamin tilastot ei oikein tue tuota väitettä.

Ah, steam tilastot, tuo nvidia ja intel uskovaisten raamattu, josta aina sopivan hetken tullen yritetään harhaoppia saastuttaa muualle.

Tai sitten kellotat ja ollaaniin keskimäärin hyvinkin tasoissa.

Entäs jos en halua kellottaa? Vaan haluan kortin joka on vakaa tilanteessa kuin tilanteessa.

Random käyttäjiä ei kavereita mutta koneet on mun, eikä se varsinaisesti ole pelaajasta kiinni tämä kaatuminen vaan siitä näytöohjaimesta,joten voisi nyt sanoa että GTA on varmaan about 30 eri ohjaimella pelailtu Pascal/Turingilla ilman ongelmia.

Ei se ole välttämättä näytönohjaimestakaan johtuvaa. Emolevykin voi aiheuttaa mitä kummallisempia ongelmia. Ja olihan tässä taannoin BIOS päivitys emolle joka puolestaan aiheutti näyttiksen kaatuilua jos en ihan väärin muista. Eli vaikka näyttis kaatuu niin ei se välttämättä olekkaan sen näyttiksen vika.

Kyselin tuosta piruuttain niin oli joskus tehty rollback ajurit muutamaan koneeseen Gta takia ja homma toimi sen jälkeen,eli ilmeisesti ongelma saattaa tulla eteen joillakin ajureilla herkemmin kuin toisilla tms.

Eli myönnät nyt että vetelit suoraan perseestä aiemmin niitä kommentteja ettei GTA:lla olisi ollut ongelmia? Näin... Uskottavaa toimintaa.
 
Pari asiaa joita on tässä selvinnyt. AMD:ltä on tulossa isompi RDNA/RDNA2 kortti tänä vuonna, se tulee olemaan maksimissaan 1.7x (itse veikkaan jotain 1.5x) nopeampi kuin nykyinen 5700XT, tai jos tulee nopeampi kortti, se tulee olemaan yli 1000€ ihan vaan komponenttien hintojen takia (nämä numerot tulee eri lähteitä yhdistelemällä ja komponenttien hintoja ynnäämällä).
Sieltä on tulossa kolme RDNA 2.0 -sirua, aikataulu ei ole toki vielä selvillä mikä malli tarkalleen milloinkin mutta oletettavasti sieltä tulee korvaajat myös Navi 10:lle ja Navi 14:lle (RX 5000 -sarjat).
Sinun hintalogiikkasi ontuu muutenkin, esimerkiksi 2x nopeamman grafiikkapiirin käyttö ei tee näytönohjaimen valmistamisesta tai edes myyntihinnasta automaagisesti kaksi kertaa kalliimpaa. Minkä ihmeen sinä kuvittelet esimerkiksi tuossa 1.7x nopeamman kortin tapauksessa nostavan hinnan yli tonniin?
Also, älä boldaa koko tekstiä jatkossa :)
 
Sieltä on tulossa kolme RDNA 2.0 -sirua, aikataulu ei ole toki vielä selvillä mikä malli tarkalleen milloinkin mutta oletettavasti sieltä tulee korvaajat myös Navi 10:lle ja Navi 14:lle (RX 5000 -sarjat).
Sinun hintalogiikkasi ontuu muutenkin, esimerkiksi 2x nopeamman grafiikkapiirin käyttö ei tee näytönohjaimen valmistamisesta tai edes myyntihinnasta automaagisesti kaksi kertaa kalliimpaa. Minkä ihmeen sinä kuvittelet esimerkiksi tuossa 1.7x nopeamman kortin tapauksessa nostavan hinnan yli tonniin?
Also, älä boldaa koko tekstiä jatkossa :)
Tuo boldaus muuten tuli ihan vahingossa mobiiliversiossa kirjoittaessa, en siinä kirjoittaessa huomannut, sori siitä.

Jos kilpailijalla on yhtä nopea kortti, jonka hinta on vaikka 1500€, niin kyllä AMD:kin osaa laittaa kortille hintaa, tai viimeistään jälleenmyyntiketju. Jos tekevät tuon tehokortin todella tehokkaaksi, eli siru on hyvinkin iso, että voi alikellottaa sen järkevään virrankulutukseen asti, niin ei ole kovin halpaa, sama pätee myös sen ison piirin vaatimaan isoon muistikaistaan, johon helpoin tie on varmaankin edelleen HBM muistit ja paljon sitä, joka taas nostaa hintaa. Lopullinen hinta tulee kilpailijan hinnoittelua lähelle.

Muuta huomioitavaa kuin tuo hinta-asia: Jos AMD:n tuleva iso piiri olisi tosiaan 2x nopeampi valmistettaessa, sitä "ei voi" ajaa 2x nopeudella kun laskeskelee nopeasti nykyisen tehonkulutuksen ja muuttuvat hyötyprosentit valmistuprosessista miinus markkinapuheprosentit niin valmistusprosessin kuin myös AMD:n suunnittelun osalta. Käytännössä tuollainen 2x nopeampi piiri pitäisi realistisesti olla isompi mitä tuo huhuttu noin 500 neliömilliä, että siihen saa ympättyä tarpeellisen ison muistiohjaimen (mielellään tuolle HBM muistille, että saa kaistaa riittävästi) ja riittävästi ylimääräista transistoria, jotta kelloja ja jännitettä voi laskea tarpeeksi, että kortista tulisi alle 350W kortti. Noilla eväille piiristä ja lopullisesta kortista tulisi edelleen melko ikävä kiuas ja HBM muistia käyttäen melko kallis. (Toivon, että löytävät ratkaisun, jolla voivat käyttää GDDR6 muistia ja jossa muistikaista ei hidasta korttia.)

AMD on myös oppinut nyt Ryzenin kanssa, että hyvästä tuotteesta voi ottaa kohtuullisen hinnan ja itseasiassa Ryzenhän on esimerkki erittäin onnistuneesta tuotteesta, jossa käytännössä samaa chippiä tekemällä tuotetaan noin kymmentä eri versiota. Noista otetaan ihan markkinoilla sopivat hinnat, joten miksei nättiksistäkin, jos ne oikeasti kilpailevat high endissä.
 
sama pätee myös sen ison piirin vaatimaan isoon muistikaistaan, johon helpoin tie on varmaankin edelleen HBM muistit ja paljon sitä, joka taas nostaa hintaa. Lopullinen hinta tulee kilpailijan hinnoittelua lähelle.

Vaan tulisiko? Meinaan vaan että jos aletaan lätkiä kortille esim. 16 kikaa muistia GDDR6 muodossa, niin eipä sekään halvaksi tule, saatikka piirilevyn teko jossa on tarpeeksi kerroksia että 512-bit muistikaista saadaan toteutettua. Voi hyvinkin olla että kääntyy homma äkkiää HBM2 eduksi toi, piirilevyn suunnittelussa säästetään, mikä vastaavasti menetetään interposerin takia. Ja ei ne 16kpl gddr6 lastuja ilmaisia ole nekään, saatikka käy pyhällä hengellä. Virtabudjetissakin tulee merkittävä säästö kun laitetaan 4 hbm2 lastua vs 16 gddr6 lastua.
 
Vaan tulisiko? Meinaan vaan että jos aletaan lätkiä kortille esim. 16 kikaa muistia GDDR6 muodossa, niin eipä sekään halvaksi tule, saatikka piirilevyn teko jossa on tarpeeksi kerroksia että 512-bit muistikaista saadaan toteutettua. Voi hyvinkin olla että kääntyy homma äkkiää HBM2 eduksi toi, piirilevyn suunnittelussa säästetään, mikä vastaavasti menetetään interposerin takia. Ja ei ne 16kpl gddr6 lastuja ilmaisia ole nekään, saatikka käy pyhällä hengellä. Virtabudjetissakin tulee merkittävä säästö kun laitetaan 4 hbm2 lastua vs 16 gddr6 lastua.
Kysymys onkin, että onko 512-bit GDDR6 ohjain helpompi, halvempi ja energiatehokkaampi kuin HBM2 ohjain ja jos kyllä, niin riittääkö tuo ero itse piirin suunnittelussa kääntämään budjetin edullissemmaksi tuolla GDDR6:lla. En ole näiden uusien muistien ja niiden ohjainten minkäänlainen asiantuntija, joten en osaa sanoa kumpi ratkaisu olisi parempi kortin tehon ja virrankulutuksen kannalta.

Jotenkin toivoisin näyttiksiinkin jo jonkinlaista chiplettisuunnittelua, älkää kysykö miten tuo tehtäisiin, nämä on vain ajatustasolla omassa ja toivottavasti myös monen kehittäjän päässä.
 
Jos on liian vahva agenda amd ohjaimiin niin on aivan sama mitä sanoisin, siitä tulis vain diipa daapa vääntöä eikä mitään muuta.
Jos todellinen tarkoitus henkilöllä on vain puolustaa kannattamaansa merkkiä niin on aivan sama mitä sellaiselle henkilölle kertoo.
topikki kasvaa vain turhasta väännöstä, siispä en lähde keskustelua tälläkertaa avaamaan.

Jaahas, eli mutuilet minkä kerkeät ja kun vaaditaan todisteita, niin käännät tämän minua vastaan. Tällainen on aivan nollatason keskustelua sinun puoleltasi. Mun agenda ei liity AMD:n fanitukseen, vaan siihen että Nvidian ylivertaisuus massojen kategorioissa on fiktiota, jota mielellään korjailen. Ja vaikka olisi AMD fanitusta (toistaiseksi eivät ole vielä sitä multa ansainneet), niin keskustelun kannalta asiat ratkaisee, eikä leirin väri. Mua ei haittaa jos joku fanittaa Nvidiaa, mua haittaa jos joku laukoo mutuja joilla pönkitetään omaa agendaa, niissä tapauksissa kun mutut eivät realisoidu faktoiksi.

Edit: Mutuilua löytyy multakin, ja sitä saa vapaasti kyseenalaistaa. Yritän tuoda tekstissäni ilmi sanamuodoilla sen, jos en ole täysin varma asiasta.
 
Viimeksi muokattu:
Hahmotellaan lyhyesti mistä brändi syntyy, tässä tapauksessa Nvidian maine:
  • Markkinoiden varmatoimisimmat tuotteet.
  • Lukuisia onnistuneesti hallittuja julkaisuja suositusten saattelemana.

Pitkästä aikaa hyvä teksti Nvidian brändiä koskien. En ole kaikesta samaa mieltä, mutta perusteluista tykkään aina. Tuosta varmatoimisuudesta en ole toistaiseksi nähnyt muuta etua Nvidialle, kuin että päivitykset ovat varmaan pitkässä juoksussa aavistuksen parempia, ja esim. RX5700:n kohdalla AMD:n ajurit olivat ilmeisesti alkuun iso ongelma. Myös RX5600 BIOS-keissin olisi voinut hoitaa paljon tyylikkäämmin.

Tuollaiset nimenomaan syö AMD:n brändiä niiden keskuudessa, jotka eivät valmiiksi omaa riittävästi hyviä kokemuksia AMD:sta. Silti en tuollaisten takia itse jätä jatkossa AMD:n kortteja hankkimatta, kun ei osta kortteja heti julkaisun jälkeen, ja tekee huolellisen kartoituksen eri mallien ominaisuuksista ja ongelmista, niin harvoin joutuu pettymään.

Jos kohdallesi ei osu AMD:n ajuriongelmia, pelikäytössä AMD on usein aivan yhtä hyvä ratkaisu kuin Nvidia, ja usein vielä halvempikin. Virta/perf-asia toki vaikuttaa joidenkin ratkaisuihin, siitä lisää myöhemmin.

Tarjolla pintapuolisesti vakuuttavaa uutta teknologiaa eli RTX-ominaisuudet.

Kyllä, tällainen uppoaa varmasti moniin kuluttajiin. Tämä RTX on kuitenkin toistaiseksi ollut enemmän markkinointikikka kuin merkittävä ominaisuus. Kun katselee youtubesta RTX on/off videoita, niin en toistaiseksi maksaisi tuosta edusta euroakaan. Joissain peleissä heijastukset maastossa näyttää jopa paremmilta omaan silmään ilman RTX:ää, joissain peleissä materiaalin pinnat näyttää kieltämättä paremmilta RTX-ON, silti aika pienet erot toistaiseksi ja nopeissa toimintapeleissä noita eroja ei varmaan edes noteeraisi. Ja FPS-hitit ovat aika tuntuvia, joten ei kovin hyvä ominaisuus vielä.

Tulevaisuuden tekniikkaa varmasti, ja kun huomioi näiden yritysten suunnittelu ja innovaatio -resurssien erot, niin olisi aika surkeaa Nvidialta, jos he ei jotain RTX:n kaltaisia virityksiä saisi tuotua ennen AMD:ta. Se että niitä tuodaan vielä näin keskeneräisinä (pienet erot ON/OFF ja FPS hitit isoja), on minusta heikkoa suorittamista Nvidialta. RTX haisee toistaiseksi enemmän rahamiesten ja markkinointimarkojen väsäykseltä, kuin huipputietotekniikan ammattilaisten innovaatiolta.

Nvidia laittaa AMD:ta ahtaalle näillä, koska AMD:lla ei taida olla läheskään vastaavia rahasummia käytössä jonkun RTX:n suunnitteluun, ja jos tämä on potentiaalista tulevaisuutta, niin pakkohan AMD:nkin on tällaisiin rahaa laittaa. Bisnes on bisnestä, ei siinä siis mitään väärää ole, mutta tuokaa nyt perkele merkittäviä parannuksia eikä mitään FPS-imureita.
 
Onko mikään ihme että Nvidia on suositumpi? Suurinosa pelaajista ei pyöri ahkeraan tällä palstalla. Kone kun pitää saada kasaan, se vain ostetaan joko osina tai pakettina, koska pelaamaan pitäisi päästä.

Minusta ei ole ihme että on suositumpi, mutta että se on näinkin paljon suositumpi, on hieman ihme. Tai no ei se sinällään ole tämä brändi asia huomioiden ihme, koska joidenkin ihmisten ostopäätöksiin vaikuttaa enemmän se brändin maine kuin se, että saatko oikeasti parasta vastinetta rahoillesi. Nvidia on hyvän maineensa ansainnut, ja jos mielikuva maineesta perustuu hyviin kokemuksiin, se on enemmän kuin fine. Jos se perustuu netin ''Meidän Kari kuuli että Matin koiran kaverin isällä oli AMD:n kans ongelmaa'' -tyyppiseen mutuiluun, niin ei hyvä. Tuskin se tosin pelkästään viimeksi mainittuun kenelläkään perustuu.

Edelleen, Nvidia on sinällään syystäkin kokonaisuudessa edellä, mutta erittäin monet AMD:n ostaneet ovat saaneet enemmän vastinetta rahalleen jo useamman arkkitehtuurin ajan, ja silti Nvidia porskuttaa. AMD tarjoaa monissa hintaluokissa abaut samaa halvemmalla, joten ei tämä nyt pelkästään AMD:n huonoudesta tai Nvidian erinomaisuudesta johdu.

Kallistun tämän brändin ja siitä syntyvän mielikuvan isoon vaikutukseen, kun puhutaan ostopäätöksistä. Mulla oli kans joskus nuorena tietotekniikka-amatöörinä se kuva, että Nvidia on ''se ainoa ja the pelaajien valinta'', kunnes tutustuin tietotekniikkaan ja AMD:n tarjontaan, ja käsitys muuttui välittömästi. Kuinkahan moni näistä pahiten pää omassa tai Nvidian takapuolessa kirjoittavista on edes käyttänyt AMD:ta? Jos aivopeseydytään pelkästään techjeesuksen ja netin AMD-ongelmien parissa, niin varmasti Nvidia alkaa vaikuttamaan taivaalliselta.
 
Tulevaisuuden tekniikkaa varmasti, ja kun huomioi näiden yritysten suunnittelu ja innovaatio -resurssien erot, niin olisi aika surkeaa Nvidialta, jos he ei jotain RTX:n kaltaisia virityksiä saisi tuotua ennen AMD:ta. Se että niitä tuodaan vielä näin keskeneräisinä (pienet erot ON/OFF ja FPS hitit isoja), on minusta heikkoa suorittamista Nvidialta. RTX haisee toistaiseksi enemmän rahamiesten ja markkinointimarkojen väsäykseltä, kuin huipputietotekniikan ammattilaisten innovaatiolta.

Niin kyllä tuota RTX on hömppää olisin itsekin hämmästellyt aivan eri tavalla jos se olisi ollut lisäarvo lähes ilman FPS hittiä.
 
On totta että AMD kykenee samaan ja voi tarjota yhtä pätevän ellei paremman lopputuloksen, hinnasta puhumattakaan, muttei markkinatilanne muutu mihinkään jos kosauttaa julkaisuja ja ajureita tai edelleen omaa sen korkeamman virrankulutuksen, vaikka se olisi vain tyyliin 20 W eikä käytännössä vaikuttaisi mihinkään.

Tästä olen ihan samaa mieltä. AMD:n pitäisi hoitaa julkaisut nappiin ja ajuriongelmat minimiin. Tämäkään ei varmaan riittäisi, vaan AMD tarvisi selvästi Nvidiaa parempia kortteja, ja jotain mullistavaa tyyliin ''RTX paitsi oikeasti grafiikaltaan merkittävä lisä''.

Kun toisella on selvästi isommat resurssit käytössä, tilanne ei ole AMD:lle helppo. Julkaisut pitää tehdä vahvemmin liikevoitto edellä, jotta on rahaa jatkossakin taistella Nvidiaa vastaan. Varmasti tiesivät RX5700 potentiaalisista ajuriongelmista, ja että RX5600 BIOS-vaihdot aiheuttaa närää, mutta samalla pakko saada kortit äkkiä kauppoihin, koska kortit myy yllättäen paremmin julkaistuna kuin julkaisemattomana.

BIOS-keissistä huolimatta pidän RX5600 onnistuneena korttina, koska sekä power/perf. että price/perf -mittareilla täysin kilpailukykyinen Nvidian vastaavien kanssa. Kun valitsee oikealta valmistajalta kuten Sapphirelta, saa luultavasti paremman kokemuksen kuin vastaavalla Nvidian kortilla.

En usko että se heikompi virrankulutus suhteessa tehoihin on ollut AMD:lla merkittävä ongelma, siis kuluttajamassojen kannalta. Epäilen että suurinta osaa valveutuneista kuluttajista kiinnostaa enemmän se price/performance, ja että virtalähteet kyllä pääosin riittää AMD:nkin kortteihin.

Joissain tapauksissa ei varmasti ole riittänyt, ja osin siksi varmaan joku 1050ti on mennyt kaupaksi vähän paremmin. Eli johonkin kaupan paskoihin valmiskoneisiin joissa on pommit virtalähteet, tai sitten kasattu kone turhan pienellä virtalähteellä. Tai sitten 1050ti on vaan ollut omaan käyttöön riittävä. AMD:lla on virta/performance -osalta vieläkin parannettavaa, eikä Nvidian Ampere tule varmasti helpottamaan tätä asiaa.
 
Nuo ajuribugit on tosiaan aika jänniä, kun ne koskettaa usein vain aika harvoja konfiguraatioita. AMD:n release noteja katsellessa tulee olo, että häh oliko tuo muka rikki, hyvinhän se toimi (Vegalla). Vastaavasti nvidian oman tukifoorumin mukaan suosikkipelit kaatuilee, tarjoaa black screeniä tai artefakteja ja porukka pelaa niitä täällä todennäköisesti ihan tyytyväisinä.

Tässä esimerkiksi töissä vituttava bugi. Koneessa on 2kpl nvidian quatroja, Outlook toimii ykkösnäytöllä ok, kakkosnäytöllä (monitorit on identtisiä, kuten näytönohjaimet) inboxin scrollaus näyttää aina tältä:

scrolli.PNG


Mikään muu käytössä oleva softa ei sekoile kakkosmonitorilla, mutta tuo tulee aina.
 
Eli myönnät nyt että vetelit suoraan perseestä aiemmin niitä kommentteja ettei GTA:lla olisi ollut ongelmia? Näin... Uskottavaa toimintaa.
Joo tapaukset vuonna 2018 ihan kirjattuna löytyi.

Tietysti vois vaan pitää turpansa kiinni ja esittää/valehdella että kaikki toimii täydellisesti(Sitten on uskottavaa toimintaa)
Mutta kun on miestä sanoo rehellisesti miten asia on.

Hieman enemmän kuitenkin kuin se yksi kone ja yksi ohjain, joten vaikea pitää jokaista käännettä muistissa kun en ole paikalla 24/7 seuraamassa mitä koneille milloinkin tehdään.
Varmaan vaikee käsittää tälläistä jos omistaa vain yhden koneen.

Amd ohjaimien vuoksi tehtyjä rollback on kuitenkin merkittävästi enemmän vaikka AMD ohjaimia onkin vähemmän, Navi ollut ihan paskaa ajurien puolesta ja jouduttu ottaan pois ja laittaan Nvidiaa tilalle hetkeksi.
 
Viimeksi muokattu:
Tässä kun taas vängätään ajuri ongelmista ja tuossa jo joku mainitsi että NFS Heatin graffa bugit AMD korteilla. Niin ne graffa bugit eivät esiintyneet itselläni Vega 64:lla tai RX 5700:lla, mutta RX 480:lla esiintyi ja vieläpä suorituskyky ei parantunut vaikka tiputti detaileja alemmaksi (graffa bugit muuten häviää jos menee MEDIUM tai LOW asetuksille).

Sitten viimeisin Nvidia ongelma oli vuoden takaa kun jos asensi uudemmat kuin 399.24 ajurit GTX 980 Ti:llani (on tätä nykyä kotiserverissäni) niin laitteisto kiihdytys "hävisi" video editointi softastani (PowerDirector 15).
Päivitin GTX 980 Ti:n viimekesänä sitten RX 5700:ksi, kun tarvitsin kotiserveriini Nvidian näytönohjaimen. Kiitos siitä ettei AMD anna asentaa Radeon kortteja WIndows Server käyttikseen :mad: Kun muuten olisin hyllyssä maanneen Fury X siihen asentanut.
Mutta RX 5700:lla oli myös hauska (tai ei niin hauska) ajuri ongelma tuossa video softassa. Eli jos videota renderöi ja alkoi tekemnään samalla jotain muuta mikä käyttää GPU:ta niin renderöinti aina jämähti.
Myöhemmissä ajureissa tuo on kyllä korjaantunut.

Ja joku tuossa aikaisemmin väitti että Vega 64:n piti kilpailla GTX 1080 Ti:n kanssa, mutta jos en väärin muista niin se oli vaan AMD fani poikien tyhmiä juttuja. Kun AMD itse asemoi sen GTX 1080 tasolle ja siihen se sopikin hyvin. Eli osassa peleissä pikkasen hitaampi ja toisissa pikkasen nopeampi.

Nvidia brändin takia muuten Nvidia käyttikset ovat jopa käytettyinä huomattavasti kalliimpia kuin AMD:n vastaavat. Esim juuri tuo Vega 64 oli viimekeväänä about 80€ halvempi kuin GTX 1080. Ja siksi päädyinkin ottamaan Vega 64:n testi näytönohjaimekseni.

Ja brändihän tehdään noilla high end korteilla. Että vaikka ne ovat harvojen herkkua, mutta se vaikuttaa ihmisten mielikuviin sen verran että jopa tuolla keskiluokasta ostetaan Geforcea eikä Radeonia.
Kun ostetuin luokka on edelleen 100 - 250€, mutta mielikuvien takia ostetaan Geforce vaikka se olisi oikeasti huonompi vaihtoehto.
Myöskin pitää muistaa että Nvidia on panostanut markkinointiin todella paljon ja se on myös tulosta tehnyt. AMD markkinointi on ollut aika yks tyhjän kanssa, tosin ehkä se nyt muuttuu kun Ryzeneiden voimin saavat lisää rahaa käyttöönsä.
 
Jotenkin toivoisin näyttiksiinkin jo jonkinlaista chiplettisuunnittelua, älkää kysykö miten tuo tehtäisiin, nämä on vain ajatustasolla omassa ja toivottavasti myös monen kehittäjän päässä.
Vaan onko tuo näytönohjaimissa järkevää? Näytönohjainpiireissä on lukemattomia samanlaisia toistuvia rakenteita ja on helppo ottaa toimimattomia osia pois käytöstä, joten isonkaan piirin valmistus ei ole samanlainen ongelma kuin prosessoripuolella. Chiplet-ratkaisulla heikentyy tiedonsiirto eri osien välillä, ja tulee ongelma sen kanssa, että miten hoidetaan muistiosoitukset.
 
Enpä ole täällä vähään aikaan käynyt, mutta olipa viihdyttävää lukemista. Popcornit vaan puuttuu. :)

Pari asiaa joita on tässä selvinnyt. AMD:ltä on tulossa isompi RDNA/RDNA2 kortti tänä vuonna, se tulee olemaan maksimissaan 1.7x (itse veikkaan jotain 1.5x) nopeampi kuin nykyinen 5700XT, tai jos tulee nopeampi kortti, se tulee olemaan yli 1000€ ihan vaan komponenttien hintojen takia (nämä numerot tulee eri lähteitä yhdistelemällä ja komponenttien hintoja ynnäämällä).

Näille numeroillesi ei ole mitään varmistusta tullut. Voi aivan hyvin olla 1.8x nopeapi ja maksaa 900e.
 
Nvidian eduksi kyllä menee muutakin kuin 4K pelailussa High End kortit. Se kuka sen hinnan kortista maksaa on taas ihan käyttäjä kohtainen asia. Tämä asia ei tarvitse edes mitään laseja päähän.

AMD:n hinta-laatusuhde olisi näytönohjaimissa uskottavampi mikäli saisivat ajurit kuntoon sillä saralla niin, että toimisi raudan kanssa, eikä toivoa kädet ristissä ”hyvää” toimivuutta. Aika fifty-sixty ollut 5700XT korteissakin toimivuus. Paljon on nähnyt niitä ongelmia niissä, eikä korjauksia vissiin luvassa kuten ei koskaan aiemminkaan.

Moni maksaa mieluusti sen pienen extra hinnan Nvidian korteista jolloin tietää mitä saa. Huomattavasti toimivampia olleet jo vuosikymmenet.

Tämä. Ketuttaa töissäkin, kun AMD läppärit työllistää mukavasti näyttisajuribugien takia. Ulkoisten näyttöjen kanssa on ollut todella paljon ongelmia AMD läppäreissä. Milloin kuvaa ei tule tai se vilkkuu, milloin tulee väärät hertsit / resoluutiot ym. Ongelmien kirjo on todella laaja ja intelin integroiduilla piireillä ei ole oikestaan mitään ongelmia. Uusimmat Aajurit ehkä pikkaisen parantaneet tilannetta.

Harmittaa, kum muuten AMD:n läppärit on hinta/laatusuhteeltaan todella hyviä. Nyt on melkein pakko ostaa vielä koko ajan AMD koneita, kun intelillä niin pirunmoiset toimitusvaikeudet, että koneet pitäisi tilata 3kk etukäteen, jos haluaa saada tiettynä ajankohtana.
 
Kun noista ajuribugeista nyt on niin paljon mesoamista, niin nVidialla ovat olleet ainot ajurit, jotka olen koskaan nähnyt kaadettavan Excelillä. Ihan perustason taulukko jolle teki tietyn operaation, niin nVidian ajurit kaatuivat siinä paikassa ja vetivät koko koneen täysin jumiin.

Ja kortinpolttobugit ovat vissiin tällä hetkellä nVidia 3 - AMD 1 jollen aivan väärin muista.
 
Kun noista ajuribugeista nyt on niin paljon mesoamista, niin nVidialla ovat olleet ainot ajurit, jotka olen koskaan nähnyt kaadettavan Excelillä. Ihan perustason taulukko jolle teki tietyn operaation, niin nVidian ajurit kaatuivat siinä paikassa ja vetivät koko koneen täysin jumiin.

Ja kortinpolttobugit ovat vissiin tällä hetkellä nVidia 3 - AMD 1 jollen aivan väärin muista.
Itse muistan erään tulostimen ajurit jotka kaatoivet koko koneen jos Excelissä jakoi 0:lla. Eli ei nuo ihan ekat ole....
 
Ulkoisten näyttöjen kanssa on ollut todella paljon ongelmia AMD läppäreissä.
Meillä ei ole AMD läppäriä mihin verrata, mutta tuo mun missä on Quadro ei saa kuvaa näyttöihin ollenkaan, jos molemmat DP kaapelit telakassa kiiinni. Toisen voi kiinnittää kun on päässy kirjautumaan windows.

Voi kyllä olla telakka ongelmakin..
 
Meillä ei ole AMD läppäriä mihin verrata, mutta tuo mun missä on Quadro ei saa kuvaa näyttöihin ollenkaan, jos molemmat DP kaapelit telakassa kiiinni. Toisen voi kiinnittää kun on päässy kirjautumaan windows.

Voi kyllä olla telakka ongelmakin..

Kyllähän se telakkakin siinä vaikuttaa, kun koneen kyljestä toimii yleensä paremmin. Telakoiden Firmiksiäkin on koitettu toki päivittää, mutta ei ole auttanut. Varsinkin tykit ja isommat 4k esitys näytöt tuntuvat olevan ongelmallisia. Tavallisten 24" FHD näyttöjen kanssa on ollu pienempiä ongelmia, mitkä korjaantuu käyttämällä näyttöä pois päältä.
 
Niin kyllä tuota RTX on hömppää olisin itsekin hämmästellyt aivan eri tavalla jos se olisi ollut lisäarvo lähes ilman FPS hittiä.

Jep, ja kun noita youtuben RTX ON/OFF -videoita peleissä katsoo, niin ei tuo kyllä ole yhdessäkään pelissä mullistavan hyvä ominaisuus. Liekkö vasta niin tuore uutuus, että pelintekijöiltäkään ei tuohon kovin isoa tukea ole tullut? Maaston ja auringon heijastukset suurimmassa osassa peleistä RTX ON-tilassakin selvästi huonompaa kuin jossain vaikkapa Cry Enginen peleissä, mutta en tiedä onko tuon tarkoituskaan reagoida auringon säteisiin(?).

Jotku tekstuuripinnat näyttää vähän paremmilta RTX ON, mutta myös AMD-softwarella on tekstuuri-asetuksia, jotka parantaa joidenkin pelien tekstuurin piirtoa paremmaksi, yleensä hyvin pienellä FPS-hitillä. Myös tekstuurioptimointia löytyy AMD:lta, jossa saa vähän lisää FPS:ää jos kortin tehot ei riitä. Aika pieniä eroja nuokin taitaa toki tuoda.

Tervehdin ihan ilolla RTX:n kaltaisia uudistuksia, kunhan niillä ei luoda harhaanjohtavaa markkinointia, eikä aleta suhmuroimaan pelintekijöiden kanssa AMD:ta vastaan suljettujen ovien takana. Witcher 3 ja Nvidian GameWorks -keissi nevöfoget *hymiö*.
 
Jep, ja kun noita youtuben RTX ON/OFF -videoita peleissä katsoo, niin ei tuo kyllä ole yhdessäkään pelissä mullistavan hyvä ominaisuus. Liekkö vasta niin tuore uutuus, että pelintekijöiltäkään ei tuohon kovin isoa tukea ole tullut? Maaston ja auringon heijastukset suurimmassa osassa peleistä RTX ON-tilassakin selvästi huonompaa kuin jossain vaikkapa Cry Enginen peleissä, mutta en tiedä onko tuon tarkoituskaan reagoida auringon säteisiin(?).

Jotku tekstuuripinnat näyttää vähän paremmilta RTX ON, mutta myös AMD-softwarella on tekstuuri-asetuksia, jotka parantaa joidenkin pelien tekstuurin piirtoa paremmaksi, yleensä hyvin pienellä FPS-hitillä. Myös tekstuurioptimointia löytyy AMD:lta, jossa saa vähän lisää FPS:ää jos kortin tehot ei riitä. Aika pieniä eroja nuokin taitaa toki tuoda.

Tervehdin ihan ilolla RTX:n kaltaisia uudistuksia, kunhan niillä ei luoda harhaanjohtavaa markkinointia, eikä aleta suhmuroimaan pelintekijöiden kanssa AMD:ta vastaan suljettujen ovien takana. Witcher 3 ja Nvidian GameWorks -keissi nevöfoget *hymiö*.

Aika rajallisesti sitä sädetystä vielä käytetään kun tehot ei vaan yksinkertaisesti riitä. Sitten kun sädettämällä voidaan tehdä lähes kaikki reaaliajassa niin se on sitten se graalin malja.
Eli mitä rajallisempaa se säteitten käyttö on, niin sen vähemmän lisäarvoa se tuo. Olikos se nyt TR:ssä esim. ainoastaan varjot on sädetettyä kamaa. BFV:ssä oliko varjot ja heijastukset.

Ja ei tuosta suhmuroinnista ole kyllä pelkoa muuta kuin jossain PC exclusive pelissä, koska konsoleissa mennään jatkossakin AMD:n raudalla niin se sanelee aika pitkälti peliteollisuudessa suuntaa. Toki nvidia aina välillä jollekin pelitalolle pistää hilloa että saavat noita omia kikkareitaan esille, mutta ei ne ole eikä tule ainakaan lähitulevaisuudessa olemaan mikään stantardi fyytsöri.
Jos nvidia lähtisi konsolibisnekseen mukaan, niin sitten niillä olis paljon enemmän mahdollisuuksia ja vaikutusvaltaa ajaa noita suljettuja kokkareita.
 
Aika rajallisesti sitä sädetystä vielä käytetään kun tehot ei vaan yksinkertaisesti riitä. Sitten kun sädettämällä voidaan tehdä lähes kaikki reaaliajassa niin se on sitten se graalin malja.
Eli mitä rajallisempaa se säteitten käyttö on, niin sen vähemmän lisäarvoa se tuo. Olikos se nyt TR:ssä esim. ainoastaan varjot on sädetettyä kamaa. BFV:ssä oliko varjot ja heijastukset.

Jep todella lastenkengissä ollaan vielä tämän RTX:n kanssa. Ja varmasti tulevaisuudessakin vastuu mullistavista uudistuksista lepää pelien grafiikkamoottoreiden suunnittelijoiden harteilla. Siellä niitä oikeasti mullistavia eroja tehdään, eikä Nvidian markkinointilaboratoriossa. Esim. Cry Enginen ja siitä jatkokehitetyn Dunia Enginen peleissä heijastukset on parhaimmillaan hemmetin realistisia, eikä siihen ole mitään RTX:ää tarvittu. Far Cry 5:sessa RTX tuo ehkä aavistuksen realistisempia valon heijastuksia joissain kohtaa, mutta ei sellaista lisäarvoa tuo mun silmissä, josta olisin valmis maksamaan ylimääräistä.

Jos nvidia lähtisi konsolibisnekseen mukaan, niin sitten niillä olis paljon enemmän mahdollisuuksia ja vaikutusvaltaa ajaa noita suljettuja kokkareita.

Menee vähän OT:n puolelle, mutta täällä ei taida olla Nvidia VS konsolifirmat -ketjua. Niin, tekisi muuten konsolibisnekselle ihan hyvää jos joku Nvidian kaltainen jätti lähtisi haastamaan Sonya ja Microsoftia. Tai onhan Nvidialla se Shield, mutta se ei taida kovin kovaa kilpailla Xboxin ja PS:n kanssa, koska on enemmänkin suoratoistolaite. Nyt Microsoft ja Sony saa rauhassa tehdä tehoiltaan aika vaatimattomia konsoleita, ja pelifirmojen pitää tehdä pelinsä silmällä pitäen noita tehollisesti rajallisia laitteita.

Nvidia kun potkaisisi Sonya ja Microsoftia persuksille jollain tehokkaammalla konsolilla, niin voisi nuokin jättilafkat tehdä vähän parempia konsoleita, ja ennenkaikkea nopeammalla julkaisusyklillä. Playstation 5 ja Xboxin One series tuo taas konsoleihin lisää puhtia, mutta ei mene montaa vuotta kun nuo on taas auttamatta tehoiltaan roskaa, kun vertaa PC-puolen kehitykseen. Hinta/laatu-suhde noissa on ihan hyvä, ei siinä mitään. Ymmärrän että konsolilla pelaaminen on monille hyvä vaihtoehto.
 
Kyllähän Nintendo käyttää nvidian järjestelmäpiirejä, eli kyllä se siellä konsolibisneksessäkin on mukana.
 
Nyt hirveesti vertailis prosessoreita GPUhin varsinkaan kun prossussa on chplettejä ja gpu on yksi monoliittinen piiri. Mutta jokatapauksessa samaa mieltä siitä että kyllä amd voisi nopean kortin tehdä ja pitää tehotkin vielä alhaalla. Äkkiseltään laskettuna RX 5600 XT:tä vastaava piiri RTX 2080 TI vastaan käyttäen verrokkina RTX 2060:stä olisi noin 76 CUn kapistus (Vgpu: <1V, Kellot: ~1,65Ghz). Perf/W:han navissa on hyvä, kunhan pitää voltit ja kellot _järkevinä_.

Se, että siellä on monta eri piilastua eikä yksi iso vaan NOSTAA sitä virrankulutusta, koska siellä tarvitaan paljon vahvempaa signaalia CCXitä muistiohjaimille.

Oleellinen hyöty niistä pienistä CCD-piilastuista oli se, että tarvi layoutata vain yksi "7nm" piiri ja sillä saatiin katettua neljä eri kokoluokkaa(8c ryzen, 16c ryzen, 32c threadripper/epyc, 64c threadripper/epyc), ja pystyttiin myös samoja piirejä käyttämään missä tahansa sen mukaan mikä on kysyntä, vähemmän ongelmaa että joistain piireistä ylituotantoa samalla kun toisista pulaa. Näyttiksissä tätä optiota ei muutenkaan järkevästi ole, siellä suuremman kaistantarpeen takia muistiohjaimet halutaan kuitenkin pitää laskentayksiköiden kanssa samalla piilastulla.
 
Jotenkin toivoisin näyttiksiinkin jo jonkinlaista chiplettisuunnittelua, älkää kysykö miten tuo tehtäisiin, nämä on vain ajatustasolla omassa ja toivottavasti myös monen kehittäjän päässä.

Sellaista, joka oli vuonna miekka ja kypärä toisen sukupolven xboxissa josta sittemmin luovuttiin, koska aika ajoi sen ohi?



Ja miksi ihmeessä? Jotta saataisiin näyttiksiin lisää virrankulutusta ja pahempaa muistikaistapullonkaulaa?

Mitään kovin järkevää arkkitehtuuria mihinkään "chiplet-pohjaiseen" ei näyttiksillä ole, vaihtoehdot on lähinnä:

1) Palautaan kivikauteen ja käytetään eDRAMia kuten Xenos. Se skaalautuu todella huonosti uusille valmistustekniikoille, ei järkeä.

2) Ei tehdä eDRAMia, mutta matkitaan zen2sta ja laitetaan sinne erillinen IO-piiri joka tehdään vanhalla valmistustekniikalla. Sille IO-piirille tulisi vain muistiohjaimet, pcie-väylän PHYt ja TMDS-lähettimet. Sen logiikan määrä olisi hyvin melko pieni, mutta sieltä tarvittaisiin suuri määrää pädejä ulos. Käytännössä sille tulisi paljon hukkatilaa niiden pädien takia. ja sitten tältä tarvisi tehdä hyvin järeät väylät niille varsinaisille näyttispiireille. Aivan turhaan vaan lisää virrankulutusta siitä että kaikki muistiliikenne(jota on paljon) kiertää tämän toisen piirin kautta. Säästöt siitä että muistiohjaimet yms. tehdään vanhalla valmistustekniikalla jäisi kuitenkin hyvin pieniksi.

3) Kuten 2, mutta laitetaan tänne suuri määrä uloimman tason välimuistia. Nyt sen piirin koko olisi niin iso, että siihen ei tulisi turhaa hukkatilaa, mutta se uloimman tason välimuisti olisi kalliimpaa valmistaa sillä vanhalla valmistustekniikalla, ja lisäksi sen käyttäminen haaskaisi virtaa kun sinne pitäisi mennä piilastuja yhdistävän väylän yli.

4) Tungetaan vaan monta pientä uudella valmistustekniikalla valmistettua "kokonaista" GPUta samaan pakettiin. Nyt meillä on NUMA-arkkitehtuuri jossa toiseen piirin kytketyn muistin käyttäminen on hitaampaa. Joko A) kärsitään random-hitaudesta tilanteissa joissa data on värässä muistissa(kohtalaisen hyvät keskimääräsitä-FPSt muta ärsyttävää satunnaistökkimistä), tai tehdään B) piilastuja yhdistävistä väylistä hyvin järeitä (lisää virrankulutusta)

Näistä oikeastaan vain 4B:tä pidän jossain määrin järkevänä, ja sitäkin vain siinä tilanteessa, että halutaan tehdä hyvin iso piiri, ja tämän ison piirin saanto-ongelmaa ei voida ratkaista sillä, että rikkinäiset ytimet vaan kytketään piiriltä pois päältä (esim. koska liian usein vika osuu esim. ytimiä yhdistävään väylään tms. kohtaan jossa ei ole redundanssia)
 
Sellaista, joka oli vuonna miekka ja kypärä toisen sukupolven xboxissa josta sittemmin luovuttiin, koska aika ajoi sen ohi?



Ja miksi ihmeessä? Jotta saataisiin näyttiksiin lisää virrankulutusta ja pahempaa muistikaistapullonkaulaa?

Mitään kovin järkevää arkkitehtuuria mihinkään "chiplet-pohjaiseen" ei näyttiksillä ole, vaihtoehdot on lähinnä:

1) Palautaan kivikauteen ja käytetään eDRAMia kuten Xenos. Se skaalautuu todella huonosti uusille valmistustekniikoille, ei järkeä.

2) Ei tehdä eDRAMia, mutta matkitaan zen2sta ja laitetaan sinne erillinen IO-piiri joka tehdään vanhalla valmistustekniikalla. Sille IO-piirille tulisi vain muistiohjaimet, pcie-väylän PHYt ja TMDS-lähettimet. Sen logiikan määrä olisi hyvin melko pieni, mutta sieltä tarvittaisiin suuri määrää pädejä ulos. Käytännössä sille tulisi paljon hukkatilaa niiden pädien takia. ja sitten tältä tarvisi tehdä hyvin järeät väylät niille varsinaisille näyttispiireille. Aivan turhaan vaan lisää virrankulutusta siitä että kaikki muistiliikenne(jota on paljon) kiertää tämän toisen piirin kautta. Säästöt siitä että muistiohjaimet yms. tehdään vanhalla valmistustekniikalla jäisi kuitenkin hyvin pieniksi.

3) Kuten 2, mutta laitetaan tänne suuri määrä uloimman tason välimuistia. Nyt sen piirin koko olisi niin iso, että siihen ei tulisi turhaa hukkatilaa, mutta se uloimman tason välimuisti olisi kalliimpaa valmistaa sillä vanhalla valmistustekniikalla, ja lisäksi sen käyttäminen haaskaisi virtaa kun sinne pitäisi mennä piilastuja yhdistävän väylän yli.

4) Tungetaan vaan monta pientä uudella valmistustekniikalla valmistettua "kokonaista" GPUta samaan pakettiin. Nyt meillä on NUMA-arkkitehtuuri jossa toiseen piirin kytketyn muistin käyttäminen on hitaampaa. Joko A) kärsitään random-hitaudesta tilanteissa joissa data on värässä muistissa(kohtalaisen hyvät keskimääräsitä-FPSt muta ärsyttävää satunnaistökkimistä), tai tehdään B) piilastuja yhdistävistä väylistä hyvin järeitä (lisää virrankulutusta)

Näistä oikeastaan vain 4B:tä pidän jossain määrin järkevänä, ja sitäkin vain siinä tilanteessa, että halutaan tehdä hyvin iso piiri, ja tämän ison piirin saanto-ongelmaa ei voida ratkaista sillä, että rikkinäiset ytimet vaan kytketään piiriltä pois päältä (esim. koska liian usein vika osuu esim. ytimiä yhdistävään väylään tms. kohtaan jossa ei ole redundanssia)

Entäs jos laitetaan ne chipletit pinoon päällekkäin?
 
Jep todella lastenkengissä ollaan vielä tämän RTX:n kanssa. Ja varmasti tulevaisuudessakin vastuu mullistavista uudistuksista lepää pelien grafiikkamoottoreiden suunnittelijoiden harteilla. Siellä niitä oikeasti mullistavia eroja tehdään, eikä Nvidian markkinointilaboratoriossa. Esim. Cry Enginen ja siitä jatkokehitetyn Dunia Enginen peleissä heijastukset on parhaimmillaan hemmetin realistisia, eikä siihen ole mitään RTX:ää tarvittu. Far Cry 5:sessa RTX tuo ehkä aavistuksen realistisempia valon heijastuksia joissain kohtaa, mutta ei sellaista lisäarvoa tuo mun silmissä, josta olisin valmis maksamaan ylimääräistä.

:facepalm:

Se, että meiltä löytyy raudalta säteenjäljityksen törmäystarkastusyksiköt nimenomaan mahdollistaa sen, että ne pelinkehittäjät voivat tehdä asioita, mitä ennen ei ole voinut (järkevällä suorituskyvyllä) tehdä.

Se, että rasteroinnin päälle aletaan laskea varjoja ja heijastuksia on hirveää purkkaa purkan päälle. Sieltä jää aina joissain tilanteissa ihan hassuja artefakteja.

Käytännössä siellä JOKO rendataan scene uusiksi JOKAISEN valonlähteen näkökulmasta joka suuntaan jotta saadaan laskettua paljonko valoa tulee mihinkäkin eli saadaan varjoja tai heijastuksia, tähän kuluva aika skaalautuu suoraan valonlähteiden määrän mukaan, mutta tämä ei vielä ratkaise YHTÄÄN sitä että mitäs tehdään valolle, joka heijastuu monta kertaa. Sen kanssa pitää keksiä jälleen uusia purkkavirityksiä. Lisätään jotain ambient-valoa. Nämä menee heti epärealistisiksi.

Ja jos ei haluta rendata kaikkea uusiksi joka valonlähteen suunnasta, sitten purkataan jotain että vain tietyt asiat luo varjoja, toiset ei. NÄistä tulee aina artifakteja.
Käytännössä rasteroinnissa nuo "muka-luonnolliset heijastukset" tyypillisesti heijastaa yleensä tasan yhden valonlähteen valoa, vain suorina heijastuksina.


Säteenjäljityksellä voidaan saada triviaalisti mukaan mm. moninkertaiset heijastukset (toki se vaatii vähän lisää sekundäärisäteitä, mutta tästä tuleva lisätyö on silti melko pientä)


Lisäksi rasteroinnin kanssa pitää kikkailla paljon mm. levelin suunnittelun kanssa, että saadaan kolmiomäärä pysymään pienenä. Lisää purkkaa.

Työ siitä että kolmiota aletaan piirtää skaalautuu rasteroinnissa O(N). Jos tuplataan kentän koko molempiin suuntiin, tekee se O(N^2) tähän työhön.

Säteenjäljityksessä taas koko homma skaalautuu O(ln(N)) kolmiomäärään nähden, koska suuri osa kolmioista putoaa pois heti BVH-puun ylimmillä tasoilla.

Eli siis, jos kolmiomäärä kasvaa vaikka 100000 => 400000, se on nelinkertainen työ rasteroinnissa kolmion alustukseen, säteenjäljityksesssä n. ~15% lisää BVH-puun läpikäymistä


Siinä vaiheessa, kun rasteroinnista voidaan kokonaan luopua, pelinkehittäjien homma helpottaa ja tuottavuus paranee paljon kun suurimäärä purkkaa voidaan jättää levelinsuunnittelustakin pois.
 
Viimeksi muokattu:
Entäs jos laitetaan ne chipletit pinoon päällekkäin?

Se vaan tarkoittaa, että jäähdytys käy melko tehottomaksi ja kellotaajuuksia joidutaan tämän takia pudottamaan reippaasti, jotta yhdistelmän energiatiheys ei käy liian suureksi.

Järkeä lähinnä läppäreissä/kännyköissä tms. missä jäähdytyksen ongelma on saada lämpö kotelosta ulos eikä piiriltä tuulettimelle, ja kellotaajuudet ja energiankulutukset on muutenkin peniä.
 
Se vaan tarkoittaa, että jäähdytys käy melko tehottomaksi ja kellotaajuuksia joidutaan tämän takia pudottamaan reippaasti, jotta yhdistelmän energiatiheys ei käy liian suureksi.
No, mikä on tehotonta ja mikä ei. Se on varmaan suhteellinen käsite. Jopa 500 watista huhutaan neljän Foveros/EMIB-chipletin pinolla, eikä suorituskyvystä ole vielä mitään takeita. Mutta pointtina oli tässä vaiheessa käsittääkseni se, mikä on ylipäänsä mahdollista. Valmistajana tässä huhussa siis Intel. Pahoittelut kaikille topic-puristeille, että tämä on sikäli väärässä ketjussa.
 
Jotenkin toivoisin näyttiksiinkin jo jonkinlaista chiplettisuunnittelua, älkää kysykö miten tuo tehtäisiin, nämä on vain ajatustasolla omassa ja toivottavasti myös monen kehittäjän päässä.

Huhut kertovat, että Nvidian Hopper-arkkitehtuuri olisi joku tuon tyyppinen ratkaisu. AMD on muistaakseni sanonut, että suunnitteluhaasteiden takia ei ole tulossa ihan lähiaikoina. Intel ilmeisesti on kehittelemässä jotain vastaavaa näyttiksiinsä, viimeisimmän huhun perusteella.

Ymmärtääkseni hyöty tällaisesta designista olisi skaalautuvuus samaan tapaan kuin AMD:n Zen2:lla. Sen sijaan, että on GPU, josta kytketään pois epätoimivia osia ja saadaan halvempi malli, voitaisiin skaalata tarvittaessa ylöspäin lisäämällä moduulien määrää ja näin saada vaikkapa kahden GPU:n nopeus ilman, että tarvitaan erillistä SLI-tukea yms. Esim. "5080 Ti" olisi vaikka kaksi "5080" chipletia yhdessä paketissa. Samalla vältetään tarve kutistaa arkkitehtuuria pienempiin ja pienempiin nanometreihin, siinäkin kun alkaa rajat pikkuhiljaa tulla vastaan.

Tämä ei varmasti ole mikään helppo toteuttaa ilman, että latenssit ym kasvavat pilviin, mutta ainakin minusta kuulostaa järkevältä tulevaisuuden ratkaisulta.
 
Huhut kertovat, että Nvidian Hopper-arkkitehtuuri olisi joku tuon tyyppinen ratkaisu. AMD on muistaakseni sanonut, että suunnitteluhaasteiden takia ei ole tulossa ihan lähiaikoina. Intel ilmeisesti on kehittelemässä jotain vastaavaa näyttiksiinsä, viimeisimmän huhun perusteella.

Ymmärtääkseni hyöty tällaisesta designista olisi skaalautuvuus samaan tapaan kuin AMD:n Zen2:lla. Sen sijaan, että on GPU, josta kytketään pois epätoimivia osia ja saadaan halvempi malli, voitaisiin skaalata tarvittaessa ylöspäin lisäämällä moduulien määrää ja näin saada vaikkapa kahden GPU:n nopeus ilman, että tarvitaan erillistä SLI-tukea yms.

Ihan samalla tavalla se "SLI"-tuki" sieltä vaadittaisiin. Se, että erilliset piirit on samassa paketissa vs että piirit on erillisillä korteilla ei arkkitehtuurillisesti muuta mitään, samassa paketissa vaan kommunikaatio on jonkin verran nopeampiaa ja vähävirtaisempaa, joten sen "SLIn" overheadit olisivat pienempiä.

Esim. "5080 Ti" olisi vaikka kaksi "5080" chipletia yhdessä paketissa. Samalla vältetään tarve kutistaa arkkitehtuuria pienempiin ja pienempiin nanometreihin, siinäkin kun alkaa rajat pikkuhiljaa tulla vastaan.

Paljon pahemmin ne lämpörajat tulee vastaan kun samaan pakettiin pieneen tilaan yritetään änkeä montaa piilastua saman siilin alle. Kun taas uudet valmistustekniikat on käytännössä aina energiatehokkaampia.

Tämä ei varmasti ole mikään helppo toteuttaa ilman, että latenssit ym kasvavat pilviin, mutta ainakin minusta kuulostaa järkevältä tulevaisuuden ratkaisulta.

Ei; Pii-pinta-ala tulee vain kallistumaan, ei halpenemaan, mutta samaan pinta-alaan saatava logiikkamäärä tulee jatkamaan kasvuaan, joskin hitaammin.

MCM oli kova juttu POWER2ssa vuonna 1992 ja Pentium Pro:ssa vuonna 1995. Molemmista luovuttiin vuonna 1997 (RSC+ ja Pentium 2). Koska Mooren laki mahdollisti kaiken mahduttamisen samalle piilastulle.

Ainoa mikä pidemmällä tähtäimellä ajaa kohti MCMää on se, että jostain "uudesta syystä" halutaan entistä pienempään tilaan ängetä enemmän laskentakapasiteettia, piittaamatta hinta- ja jäähdytysrajoitteista.

Normaalikuluttajan pöytäkone-PC ei ole yhtään tilarajoitteinen.

AMDn Zen2 ei ollut niinkään "suunnannäyttäjä" vaan "anomalia" johon oli omat ihan hyvät syynsä (7nm valmistustekniikan transistorien kalleus johtuen hyvin moninkertaisesta multipatternista, sopimus GFn kanssa joka pakottaa valmistamaan jotain sen tehtaisssa, AMDn tuotekehitysresurssien vähyys että piti selvitä pienellä määrällä erillisiä piirejä). Ja Zen2n myötä AMD nimenomaan siirtyi EPCYeissään/Threadrippereissään POIS siitä että siellä on vaan rinnakkain pari piilastua NUMAlla (mitä siis nyt olisit ehdottamassa).

Ja intelillä on Pentium Pro:n lisäksi ollut lukuisia muitakin MCM-piirejä (pentium Duo, core 2 quad, Clarkdale). Eli vastaavia "anamalioita on ollut paljon aikaisemminkin.



nVidialta tosiaan löytyi joku slide(aitoudesta en ole varma) jossa puhuttiin MCM-Hopperista, mutta tällä ilmeisesti viitattiin vain siihen linjaston järeimpään datacenter-AI-piiriin, ei kuluttajapiireihin.

Datacenter-käytössä sähkö ja koko tilan jäähdytys maksaa, joten piirejä halutaan ajaa matalalla kellolla paremman energiatehokkuuden takia. joten se, että kellotaajuutta joudutaan alentamaan itse piirin energiatiheyden takia ei niin paljoa haittaa. Ja niissä ilmeisesti pienellä tilalllakin on väliä.
 
Nuo 19.12 ajurit oli varmasti jossain kohdassa käytössä, noita vanhempia en muista koska viimeksi käytin, enkä tietenkään muistanut testata niitä näin jälkikäteen ajatellen. Nyt on ollut 20.1.3 käytössä reilun viikon eikä ole vielä ainakaan mitään ongelmia ilmennyt, tosin koputetaan puuta varmuuden vuoksi.
Ja eilen eli maanantaina taas näytönohjain veti itsensä jumiin. Ei noista 20.1.3 ollut itselle mitään apua nähtävästi.
 
Far Cry 5:sessa RTX tuo ehkä aavistuksen realistisempia valon heijastuksia joissain kohtaa, mutta ei sellaista lisäarvoa tuo mun silmissä, josta olisin valmis maksamaan ylimääräistä.
Aika hyvin että toisi aavistuksen realistisempia valon heijastuksia ottaen huomioon ettei peli tue DXR:ää tai mitään muutakaan RT-kiihdytystä ;)
(eli se siis näyttää just eikä melkein samalta oli siellä RTX-näyttis tai ei)

Kyllähän Nintendo käyttää nvidian järjestelmäpiirejä, eli kyllä se siellä konsolibisneksessäkin on mukana.
Tosin off-the-shelf-kamaa joka oli verrattain vanhaa jo kun Nintendo päätti niitä käyttää.

nVidialta tosiaan löytyi joku slide(aitoudesta en ole varma) jossa puhuttiin MCM-Hopperista, mutta tällä ilmeisesti viitattiin vain siihen linjaston järeimpään datacenter-AI-piiriin, ei kuluttajapiireihin.
Jos meinaat sitä missä oli 36 pikkusirua niin se on ihan aito (jopa niin aito että sellaisia on siis tuotettu eikä jää vain slidetasolle) mutta ei GPU vaan AI inference -kiihdytin
 
:facepalm:

Se, että meiltä löytyy raudalta säteenjäljityksen törmäystarkastusyksiköt nimenomaan mahdollistaa sen, että ne pelinkehittäjät voivat tehdä asioita, mitä ennen ei ole voinut (järkevällä suorituskyvyllä) tehdä.

Naamapalmua ja kirvesvartta vaan sullekkin. Kuten olen moneen kertaan kirjoittanut, RT on varmasti tulevaisuutta, mutta just nyt se ei ole merkittävä ominaisuus pelikäyttäjälle. Tai no merkittävä on subjektiivista. Just nyt se ei kuitenkaan tuo säteenjäljitystä kuluttajille järkevällä suorituskyvyllä, vaan jopa päinvastoin. Kuluttajia ei kiinnosta kuinka hienoja ominaisuuksia siellä taustalla on, just nyt se on enemmän FPS-imuri kuin mullistava graafinen ominaisuus. Tulevaisuutta on mahdotonta ennustaa, siksi puhun enemmän nykyhetkestä.

Ja kiitos tuosta teknisestä selonteosta, osa meni mulla yli hilseen, osan jopa ymmärsin. Kenen tämä RT ''idea'' tai patentoitu toteutus alunperin oli? Onko Nvidian idea, pohjautuen pelienkehittäjien toiveisiin tms.? Mietin vaan että näkeekö pelienkehittäjät yhtä ison tulevaisuuden tässä, kuin Nvidia.

Kyllähän Nintendo käyttää nvidian järjestelmäpiirejä, eli kyllä se siellä konsolibisneksessäkin on mukana.

Kylläkyllä, olisi pitänyt tarkentaa että tarkoitin siis ihan kokonaan omaa konsolia, tai vaikka eri valmistajaa jossa olisi Nvidian näytönohjain joka voittaisi selvästi Sonyn ja Microsoftin. Helpommin sanottu kuin tehty, teho maksaa, varsinkin Nvidialla *hymiö*.

Aika hyvin että toisi aavistuksen realistisempia valon heijastuksia ottaen huomioon ettei peli tue DXR:ää tai mitään muutakaan RT-kiihdytystä ;)
(eli se siis näyttää just eikä melkein samalta oli siellä RTX-näyttis tai ei)

Eli lankesin youtube-videoiden RTX ON/OFF huijaukseen. Perkele. My bad. Sen siitä saa kun tekee väsyneenä nopeita johtopäätöksiä. Olisikohan noissa käytetty sitten jotain Reshadia tms. Jolla saa btw aika paljon lisää silmäkarkkia moniin peleihin, ilmaiseksi, tai no pienet FPS-hitit niissäkin on. Näin huonomman näytön omistajalle Reshade on aika hyödyllinen kun pitää vaikkapa yöhämärässä riehua aseen kanssa. Samoin värimaailman saa yhdellä klikkauksella eloisammaksi. Kunnon pelinäytön omistajille nuo ei varmaan tuo vastaavaa lisäarvoa. Huonon näytön kuva-asetusten säätäminen on vähän kuin heittäisi soran tilalta hiekkaa silmiin. Reshaden kanssa joutunut tekemään vähemmän kompromisseja.
 
Viimeksi muokattu:
Eli lankesin youtube-videoiden RTX ON/OFF huijaukseen. Perkele. Olisikohan noissa käytetty sitten jotain Reshadia tms. Jolla saa btw aika paljon lisää silmäkarkkia moniin peleihin, ilmaiseksi, tai no pienet FPS-hitit niissäkin on. Näin huonomman näytön omistajalle Reshade on aika hyödyllinen kun pitää vaikkapa yöhämärässä riehua aseen kanssa. Samoin värimaailman saa yhdellä klikkauksella eloisammaksi. Kunnon pelinäytön omistajille nuo ei varmaan tuo vastaavaa lisäarvoa.
Pikaisella googletuksella vaikuttaisi joltain reshade-tyyppiseltä ratkaisulta tuo "RT patch" mitä video mainostaa nimessään muttei kerro muuta
 
Naamapalmua ja kirvesvartta vaan sullekkin. Kuten olen moneen kertaan kirjoittanut, RT on varmasti tulevaisuutta, mutta just nyt se ei ole merkittävä ominaisuus pelikäyttäjälle. Tai no merkittävä on subjektiivista. Just nyt se ei kuitenkaan tuo säteenjäljitystä kuluttajille järkevällä suorituskyvyllä, vaan jopa päinvastoin. Kuluttajia ei kiinnosta kuinka hienoja ominaisuuksia siellä taustalla on, just nyt se on enemmän FPS-imuri kuin mullistava graafinen ominaisuus. Tulevaisuutta on mahdotonta ennustaa, siksi puhun enemmän nykyhetkestä.

Ja kiitos tuosta teknisestä selonteosta, osa meni mulla yli hilseen, osan jopa ymmärsin. Kenen tämä RT ''idea'' tai patentoitu toteutus alunperin oli? Onko Nvidian idea, pohjautuen pelienkehittäjien toiveisiin tms.? Mietin vaan että näkeekö pelienkehittäjät yhtä ison tulevaisuuden tässä, kuin Nvidia.

Säteenjäljityksen idea on tunnettu kymmeniä vuosia, paljon ennen kuin koko nVidia-firmaa on edes ollut olemassakaan, jos siitä itse säteenjäljityksen perusideasta on ollut jotain patentteja, ne ovat expiroituneet kymmeniä vuosia sitten.

Sen sijaan säteenjäljityksenkäytännön toteutukseen ja sen nopeuttamiseen on paljon erilaisia toteutustapoja ja optimointeja. Tärkeimpiä ei kuitenkaan tietääkseni ole patentoitu.

Ja säteenjäljitysrautakin tuli PowerVRltä ennen nVidiaa.

SÄTEENJÄLJITYS EI OLE MIKÄÄN NVIDIAN JUTTU

Elokuvissa siirryttiin jo rasteroinnista säteenjäljitykseen jo vuosia sitten, kun konetehot kasvoivat tarpeeksi, että siihen oli varaa. Peleissä on tulossa sama kehitys perässä, ja käytännössä kaikki yhtään 3d-grafiikan parissa yöskentelevät pelikehittäjät tietävät sen.


Tekniikan tulevaisuutta on joiltain osin itse asiassa melko helppo ennustaa, kun vaan ymmärtää sitä, mitä sen "tulevaisuuden tekniikan" tekemiseen vaaditaan, ja suorittaa tarvittavat laskutoimenpiteet, esim. Intelin perustaja Gordon moore ennusti 1960-luvulla kotitietokoneet, kännykät jne oikein hyvin.

Käytännössä (melkein) kaikki tietotekniikassa on keksitty kymmeniä vuosia ennen kuin niiden käyttö on yleistynyt - on vaan pitänyt odottaa, että tietokoneiden valmistuksen hinta laskee ja suorituskyky kasvaa tasolle, että niiden keksintöjen käytännön toteuttaminen on mahdollista ja tarpeeksi halpaa. Ja Mooren laki on ollut aika hyvä apuväline sen laskemiseen, koska joku asiat tulevat käyttökelposeeksi.

Sen sijaan ihmiselle, joka sitä tekniikkaa Ei ymmärrä sen tulevaisuuden ennustaminen on vaikeaa. Kun joko
1) Ei ole hajuakaan niistä jo keksityistä keksinnöistä jotka vaan odottavat rautaa, jolla ne voi toteuttaa, tai sitten
2) Luotetaan sokeasti johonkin hypeen ja mainoslauseisiin kun ei itse omata mitään kompetenssia arvioda sen hypetetyn asian negatiiviisia puolia joiden takia se ei tulekaan yleistymään
3) Ollaan petytty siihen kun joku uusi tekniikka sai hypeä mutta on aluksi ollut liian kallis tai hidas ja se on typerästi tuomittu se turhaksi ja ikuisesti huonoksi tekniikaksi, vaikka sen läpilyönti joidenkin vuosien päästä on täysin varmaa, kun sen vaatima muu tekniikka ympärillä kehittyy
4) Ei edes YRITETÄ laskea mitään niihin tekniikoihin oleellisesti liittyvää numerodataa joista usein näkisi aika helposti, onko sillä mitään edellytyksiä toimia, tai KOSKA tai MISSÄ OLOSUHTEISSA sillä olisi edellytyksiä toimia.

Ja usein sitä tekniikkaan kehitystä melko äänekkäästi ennustaa myös ihmiset, jotka eivät sitä oikeasti ymmärrä, ja sitten ennustukset menee pieleen. Esim. monilta tekniikan alan toimittajiltakin puuttuu syvmepi ymmärrys asioista, mistä he kirjoittavat, ja he lähinnä toistelevat yleisiä myyttejä
 
Viimeksi muokattu:
Rt liittyen hyvä pätkä Control pelin osalta:
Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.


Ja typerää tuomita Rt ensimmäisen sukupolven raudan mukaan, jostakin kehittäminen on aloitettava raudan suhteen. Kuitenkin pelinkehittäjät pääsevät toteuttamaan jo tekniikkaa näillä ensimmäisillä RTX korteilla. Tämä kuitenkin lupaa parempaa tulevaisuutta kummankin kuluttajan ja kehittäjien osalta, kaikki voittaa, jos Rt yleistyy jatkossa (saadaan realistinen valaistus peleihin ja kehittäjiltä jää turhat "baked in" efektien "liimailut" pois, eli pelien kehitys nopeutuu ajan kanssa).

Mutta empä ollut yllättynyt, että tässä ketjussa eräällä tarve nostaa Rt "Nvidian tekniikaksi", joka on täysin turha keksintö (verrataan hair works, joka on ihan eri asia)... (Ainiin ja minä olen se Nvidia sokea fanipoika...)

Edit. Enkä nyt sano, että pelkästään Rt takia kannattaa ostaa Nvidian korttia, itselle 2080 Ti oli omaan käyttöön paras vaihtoehto, eikä AMD tarjoa tosiaan mitään vaihtoehtoa tässä teholuokassa. Rt on tässä vaiheessa kiva lisäominaisuus, mutta sitä yksinään ei vielä tässä vaiheessa ei voi sanoa ainoaksi näytönohjaimen valinta perusteeksi. Vaikka tulee taas paskamyrsky, niin Nvidian etuja on: kypsemmät ajurit, kilpailun puute ylimmissä teholuokassa (2080/Super ja 2080 Ti) ja parempi perf/watt (jäähdytyksen kannalta, ei se lisävirrankulutus kenenkään sähkölaskua räjäytä, virtalähteen valinnan kannalta toki on merkitystä, jos sattuukin menemään juurikin sen lisävirrankulutuksen yli, eli joutuu ostamaan isomman virtalähteen).
 
Viimeksi muokattu:
Rt liittyen hyvä pätkä Control pelin osalta:

Ja typerää tuomita Rt ensimmäisen sukupolven raudan mukaan, jostakin kehittäminen on aloitettava raudan suhteen. Kuitenkin pelinkehittäjät pääsevät toteuttamaan jo tekniikkaa näillä ensimmäisillä RTX korteilla. Tämä kuitenkin lupaa parempaa tulevaisuutta kummankin kuluttajan ja kehittäjien osalta, kaikki voittaa, jos Rt yleistyy jatkossa (saadaan realistinen valaistus peleihin ja kehittäjiltä jää turhat "baked in" efektien "liimailut" pois, eli pelien kehitys nopeutuu ajan kanssa).

Mutta empä ollut yllättynyt, että tässä ketjussa eräällä tarve nostaa Rt "Nvidian tekniikaksi", joka on täysin turha keksintö (verrataan hair works, joka on ihan eri asia)... (Ainiin ja minä olen se Nvidia sokea fanipoika...)
PowerVR:llä on ollut RT-rautakiihdytystä tarjoavaa rautaa tarjolla viime vuosikymmenen alkupuolelta lähtien. Sen lisäksi että PowerVR:n setit tulivat vuosia aiemmin, ne ovat myös kehittyneempiä tarjoten valinnaisena vaihtoehtona kiihdytyksen myös BVH-puiden luontiin.
Ainut asia mitä NVIDIA mahdollisesti tarjosi kehittäjille uutena on enemmän suorituskykyä, koska PowerVR:n ratkaisua ei ole tullut markkinoille työpöytäformaatissa.
 
PowerVR:llä on ollut RT-rautakiihdytystä tarjoavaa rautaa tarjolla viime vuosikymmenen alkupuolelta lähtien. Sen lisäksi että PowerVR:n setit tulivat vuosia aiemmin, ne ovat myös kehittyneempiä tarjoten valinnaisena vaihtoehtona kiihdytyksen myös BVH-puiden luontiin.
Ainut asia mitä NVIDIA mahdollisesti tarjosi kehittäjille uutena on enemmän suorituskykyä, koska PowerVR:n ratkaisua ei ole tullut markkinoille työpöytäformaatissa.
Niin tarkoitinkin tällä ensimmäisen sukupolven Rt raudalla juurikin sitä, ettei aikaisemmin kuluttajien käsissä ole ollut ko. rautaa. Tämä keskustelu on kuitenkin pyörinyt pitkälti kuluttajien kannalta, ammattilaispiirit sitten täysin eri kuvio.

Edit. Kuitenkin tämä Nvidian RTX puoli pyrkii nytten isommalti ajamaan Rt markkinoille pelien osalta.
 
Viimeksi muokattu:

Statistiikka

Viestiketjuista
296 448
Viestejä
5 059 488
Jäsenet
81 133
Uusin jäsen
janleh

Hinta.fi

Back
Ylös Bottom