Virallinen: NVIDIA vs AMD (vs Intel) keskustelu- ja väittelyketju

  • Keskustelun aloittaja Keskustelun aloittaja Sampsa
  • Aloitettu Aloitettu
Vaan tulisiko? Meinaan vaan että jos aletaan lätkiä kortille esim. 16 kikaa muistia GDDR6 muodossa, niin eipä sekään halvaksi tule, saatikka piirilevyn teko jossa on tarpeeksi kerroksia että 512-bit muistikaista saadaan toteutettua. Voi hyvinkin olla että kääntyy homma äkkiää HBM2 eduksi toi, piirilevyn suunnittelussa säästetään, mikä vastaavasti menetetään interposerin takia. Ja ei ne 16kpl gddr6 lastuja ilmaisia ole nekään, saatikka käy pyhällä hengellä. Virtabudjetissakin tulee merkittävä säästö kun laitetaan 4 hbm2 lastua vs 16 gddr6 lastua.
Kysymys onkin, että onko 512-bit GDDR6 ohjain helpompi, halvempi ja energiatehokkaampi kuin HBM2 ohjain ja jos kyllä, niin riittääkö tuo ero itse piirin suunnittelussa kääntämään budjetin edullissemmaksi tuolla GDDR6:lla. En ole näiden uusien muistien ja niiden ohjainten minkäänlainen asiantuntija, joten en osaa sanoa kumpi ratkaisu olisi parempi kortin tehon ja virrankulutuksen kannalta.

Jotenkin toivoisin näyttiksiinkin jo jonkinlaista chiplettisuunnittelua, älkää kysykö miten tuo tehtäisiin, nämä on vain ajatustasolla omassa ja toivottavasti myös monen kehittäjän päässä.
 
Jos on liian vahva agenda amd ohjaimiin niin on aivan sama mitä sanoisin, siitä tulis vain diipa daapa vääntöä eikä mitään muuta.
Jos todellinen tarkoitus henkilöllä on vain puolustaa kannattamaansa merkkiä niin on aivan sama mitä sellaiselle henkilölle kertoo.
topikki kasvaa vain turhasta väännöstä, siispä en lähde keskustelua tälläkertaa avaamaan.

Jaahas, eli mutuilet minkä kerkeät ja kun vaaditaan todisteita, niin käännät tämän minua vastaan. Tällainen on aivan nollatason keskustelua sinun puoleltasi. Mun agenda ei liity AMD:n fanitukseen, vaan siihen että Nvidian ylivertaisuus massojen kategorioissa on fiktiota, jota mielellään korjailen. Ja vaikka olisi AMD fanitusta (toistaiseksi eivät ole vielä sitä multa ansainneet), niin keskustelun kannalta asiat ratkaisee, eikä leirin väri. Mua ei haittaa jos joku fanittaa Nvidiaa, mua haittaa jos joku laukoo mutuja joilla pönkitetään omaa agendaa, niissä tapauksissa kun mutut eivät realisoidu faktoiksi.

Edit: Mutuilua löytyy multakin, ja sitä saa vapaasti kyseenalaistaa. Yritän tuoda tekstissäni ilmi sanamuodoilla sen, jos en ole täysin varma asiasta.
 
Viimeksi muokattu:
Hahmotellaan lyhyesti mistä brändi syntyy, tässä tapauksessa Nvidian maine:
  • Markkinoiden varmatoimisimmat tuotteet.
  • Lukuisia onnistuneesti hallittuja julkaisuja suositusten saattelemana.

Pitkästä aikaa hyvä teksti Nvidian brändiä koskien. En ole kaikesta samaa mieltä, mutta perusteluista tykkään aina. Tuosta varmatoimisuudesta en ole toistaiseksi nähnyt muuta etua Nvidialle, kuin että päivitykset ovat varmaan pitkässä juoksussa aavistuksen parempia, ja esim. RX5700:n kohdalla AMD:n ajurit olivat ilmeisesti alkuun iso ongelma. Myös RX5600 BIOS-keissin olisi voinut hoitaa paljon tyylikkäämmin.

Tuollaiset nimenomaan syö AMD:n brändiä niiden keskuudessa, jotka eivät valmiiksi omaa riittävästi hyviä kokemuksia AMD:sta. Silti en tuollaisten takia itse jätä jatkossa AMD:n kortteja hankkimatta, kun ei osta kortteja heti julkaisun jälkeen, ja tekee huolellisen kartoituksen eri mallien ominaisuuksista ja ongelmista, niin harvoin joutuu pettymään.

Jos kohdallesi ei osu AMD:n ajuriongelmia, pelikäytössä AMD on usein aivan yhtä hyvä ratkaisu kuin Nvidia, ja usein vielä halvempikin. Virta/perf-asia toki vaikuttaa joidenkin ratkaisuihin, siitä lisää myöhemmin.

Tarjolla pintapuolisesti vakuuttavaa uutta teknologiaa eli RTX-ominaisuudet.

Kyllä, tällainen uppoaa varmasti moniin kuluttajiin. Tämä RTX on kuitenkin toistaiseksi ollut enemmän markkinointikikka kuin merkittävä ominaisuus. Kun katselee youtubesta RTX on/off videoita, niin en toistaiseksi maksaisi tuosta edusta euroakaan. Joissain peleissä heijastukset maastossa näyttää jopa paremmilta omaan silmään ilman RTX:ää, joissain peleissä materiaalin pinnat näyttää kieltämättä paremmilta RTX-ON, silti aika pienet erot toistaiseksi ja nopeissa toimintapeleissä noita eroja ei varmaan edes noteeraisi. Ja FPS-hitit ovat aika tuntuvia, joten ei kovin hyvä ominaisuus vielä.

Tulevaisuuden tekniikkaa varmasti, ja kun huomioi näiden yritysten suunnittelu ja innovaatio -resurssien erot, niin olisi aika surkeaa Nvidialta, jos he ei jotain RTX:n kaltaisia virityksiä saisi tuotua ennen AMD:ta. Se että niitä tuodaan vielä näin keskeneräisinä (pienet erot ON/OFF ja FPS hitit isoja), on minusta heikkoa suorittamista Nvidialta. RTX haisee toistaiseksi enemmän rahamiesten ja markkinointimarkojen väsäykseltä, kuin huipputietotekniikan ammattilaisten innovaatiolta.

Nvidia laittaa AMD:ta ahtaalle näillä, koska AMD:lla ei taida olla läheskään vastaavia rahasummia käytössä jonkun RTX:n suunnitteluun, ja jos tämä on potentiaalista tulevaisuutta, niin pakkohan AMD:nkin on tällaisiin rahaa laittaa. Bisnes on bisnestä, ei siinä siis mitään väärää ole, mutta tuokaa nyt perkele merkittäviä parannuksia eikä mitään FPS-imureita.
 
Onko mikään ihme että Nvidia on suositumpi? Suurinosa pelaajista ei pyöri ahkeraan tällä palstalla. Kone kun pitää saada kasaan, se vain ostetaan joko osina tai pakettina, koska pelaamaan pitäisi päästä.

Minusta ei ole ihme että on suositumpi, mutta että se on näinkin paljon suositumpi, on hieman ihme. Tai no ei se sinällään ole tämä brändi asia huomioiden ihme, koska joidenkin ihmisten ostopäätöksiin vaikuttaa enemmän se brändin maine kuin se, että saatko oikeasti parasta vastinetta rahoillesi. Nvidia on hyvän maineensa ansainnut, ja jos mielikuva maineesta perustuu hyviin kokemuksiin, se on enemmän kuin fine. Jos se perustuu netin ''Meidän Kari kuuli että Matin koiran kaverin isällä oli AMD:n kans ongelmaa'' -tyyppiseen mutuiluun, niin ei hyvä. Tuskin se tosin pelkästään viimeksi mainittuun kenelläkään perustuu.

Edelleen, Nvidia on sinällään syystäkin kokonaisuudessa edellä, mutta erittäin monet AMD:n ostaneet ovat saaneet enemmän vastinetta rahalleen jo useamman arkkitehtuurin ajan, ja silti Nvidia porskuttaa. AMD tarjoaa monissa hintaluokissa abaut samaa halvemmalla, joten ei tämä nyt pelkästään AMD:n huonoudesta tai Nvidian erinomaisuudesta johdu.

Kallistun tämän brändin ja siitä syntyvän mielikuvan isoon vaikutukseen, kun puhutaan ostopäätöksistä. Mulla oli kans joskus nuorena tietotekniikka-amatöörinä se kuva, että Nvidia on ''se ainoa ja the pelaajien valinta'', kunnes tutustuin tietotekniikkaan ja AMD:n tarjontaan, ja käsitys muuttui välittömästi. Kuinkahan moni näistä pahiten pää omassa tai Nvidian takapuolessa kirjoittavista on edes käyttänyt AMD:ta? Jos aivopeseydytään pelkästään techjeesuksen ja netin AMD-ongelmien parissa, niin varmasti Nvidia alkaa vaikuttamaan taivaalliselta.
 
Tulevaisuuden tekniikkaa varmasti, ja kun huomioi näiden yritysten suunnittelu ja innovaatio -resurssien erot, niin olisi aika surkeaa Nvidialta, jos he ei jotain RTX:n kaltaisia virityksiä saisi tuotua ennen AMD:ta. Se että niitä tuodaan vielä näin keskeneräisinä (pienet erot ON/OFF ja FPS hitit isoja), on minusta heikkoa suorittamista Nvidialta. RTX haisee toistaiseksi enemmän rahamiesten ja markkinointimarkojen väsäykseltä, kuin huipputietotekniikan ammattilaisten innovaatiolta.

Niin kyllä tuota RTX on hömppää olisin itsekin hämmästellyt aivan eri tavalla jos se olisi ollut lisäarvo lähes ilman FPS hittiä.
 
On totta että AMD kykenee samaan ja voi tarjota yhtä pätevän ellei paremman lopputuloksen, hinnasta puhumattakaan, muttei markkinatilanne muutu mihinkään jos kosauttaa julkaisuja ja ajureita tai edelleen omaa sen korkeamman virrankulutuksen, vaikka se olisi vain tyyliin 20 W eikä käytännössä vaikuttaisi mihinkään.

Tästä olen ihan samaa mieltä. AMD:n pitäisi hoitaa julkaisut nappiin ja ajuriongelmat minimiin. Tämäkään ei varmaan riittäisi, vaan AMD tarvisi selvästi Nvidiaa parempia kortteja, ja jotain mullistavaa tyyliin ''RTX paitsi oikeasti grafiikaltaan merkittävä lisä''.

Kun toisella on selvästi isommat resurssit käytössä, tilanne ei ole AMD:lle helppo. Julkaisut pitää tehdä vahvemmin liikevoitto edellä, jotta on rahaa jatkossakin taistella Nvidiaa vastaan. Varmasti tiesivät RX5700 potentiaalisista ajuriongelmista, ja että RX5600 BIOS-vaihdot aiheuttaa närää, mutta samalla pakko saada kortit äkkiä kauppoihin, koska kortit myy yllättäen paremmin julkaistuna kuin julkaisemattomana.

BIOS-keissistä huolimatta pidän RX5600 onnistuneena korttina, koska sekä power/perf. että price/perf -mittareilla täysin kilpailukykyinen Nvidian vastaavien kanssa. Kun valitsee oikealta valmistajalta kuten Sapphirelta, saa luultavasti paremman kokemuksen kuin vastaavalla Nvidian kortilla.

En usko että se heikompi virrankulutus suhteessa tehoihin on ollut AMD:lla merkittävä ongelma, siis kuluttajamassojen kannalta. Epäilen että suurinta osaa valveutuneista kuluttajista kiinnostaa enemmän se price/performance, ja että virtalähteet kyllä pääosin riittää AMD:nkin kortteihin.

Joissain tapauksissa ei varmasti ole riittänyt, ja osin siksi varmaan joku 1050ti on mennyt kaupaksi vähän paremmin. Eli johonkin kaupan paskoihin valmiskoneisiin joissa on pommit virtalähteet, tai sitten kasattu kone turhan pienellä virtalähteellä. Tai sitten 1050ti on vaan ollut omaan käyttöön riittävä. AMD:lla on virta/performance -osalta vieläkin parannettavaa, eikä Nvidian Ampere tule varmasti helpottamaan tätä asiaa.
 
Nuo ajuribugit on tosiaan aika jänniä, kun ne koskettaa usein vain aika harvoja konfiguraatioita. AMD:n release noteja katsellessa tulee olo, että häh oliko tuo muka rikki, hyvinhän se toimi (Vegalla). Vastaavasti nvidian oman tukifoorumin mukaan suosikkipelit kaatuilee, tarjoaa black screeniä tai artefakteja ja porukka pelaa niitä täällä todennäköisesti ihan tyytyväisinä.

Tässä esimerkiksi töissä vituttava bugi. Koneessa on 2kpl nvidian quatroja, Outlook toimii ykkösnäytöllä ok, kakkosnäytöllä (monitorit on identtisiä, kuten näytönohjaimet) inboxin scrollaus näyttää aina tältä:

scrolli.PNG


Mikään muu käytössä oleva softa ei sekoile kakkosmonitorilla, mutta tuo tulee aina.
 
Eli myönnät nyt että vetelit suoraan perseestä aiemmin niitä kommentteja ettei GTA:lla olisi ollut ongelmia? Näin... Uskottavaa toimintaa.
Joo tapaukset vuonna 2018 ihan kirjattuna löytyi.

Tietysti vois vaan pitää turpansa kiinni ja esittää/valehdella että kaikki toimii täydellisesti(Sitten on uskottavaa toimintaa)
Mutta kun on miestä sanoo rehellisesti miten asia on.

Hieman enemmän kuitenkin kuin se yksi kone ja yksi ohjain, joten vaikea pitää jokaista käännettä muistissa kun en ole paikalla 24/7 seuraamassa mitä koneille milloinkin tehdään.
Varmaan vaikee käsittää tälläistä jos omistaa vain yhden koneen.

Amd ohjaimien vuoksi tehtyjä rollback on kuitenkin merkittävästi enemmän vaikka AMD ohjaimia onkin vähemmän, Navi ollut ihan paskaa ajurien puolesta ja jouduttu ottaan pois ja laittaan Nvidiaa tilalle hetkeksi.
 
Viimeksi muokattu:
Tässä kun taas vängätään ajuri ongelmista ja tuossa jo joku mainitsi että NFS Heatin graffa bugit AMD korteilla. Niin ne graffa bugit eivät esiintyneet itselläni Vega 64:lla tai RX 5700:lla, mutta RX 480:lla esiintyi ja vieläpä suorituskyky ei parantunut vaikka tiputti detaileja alemmaksi (graffa bugit muuten häviää jos menee MEDIUM tai LOW asetuksille).

Sitten viimeisin Nvidia ongelma oli vuoden takaa kun jos asensi uudemmat kuin 399.24 ajurit GTX 980 Ti:llani (on tätä nykyä kotiserverissäni) niin laitteisto kiihdytys "hävisi" video editointi softastani (PowerDirector 15).
Päivitin GTX 980 Ti:n viimekesänä sitten RX 5700:ksi, kun tarvitsin kotiserveriini Nvidian näytönohjaimen. Kiitos siitä ettei AMD anna asentaa Radeon kortteja WIndows Server käyttikseen :mad: Kun muuten olisin hyllyssä maanneen Fury X siihen asentanut.
Mutta RX 5700:lla oli myös hauska (tai ei niin hauska) ajuri ongelma tuossa video softassa. Eli jos videota renderöi ja alkoi tekemnään samalla jotain muuta mikä käyttää GPU:ta niin renderöinti aina jämähti.
Myöhemmissä ajureissa tuo on kyllä korjaantunut.

Ja joku tuossa aikaisemmin väitti että Vega 64:n piti kilpailla GTX 1080 Ti:n kanssa, mutta jos en väärin muista niin se oli vaan AMD fani poikien tyhmiä juttuja. Kun AMD itse asemoi sen GTX 1080 tasolle ja siihen se sopikin hyvin. Eli osassa peleissä pikkasen hitaampi ja toisissa pikkasen nopeampi.

Nvidia brändin takia muuten Nvidia käyttikset ovat jopa käytettyinä huomattavasti kalliimpia kuin AMD:n vastaavat. Esim juuri tuo Vega 64 oli viimekeväänä about 80€ halvempi kuin GTX 1080. Ja siksi päädyinkin ottamaan Vega 64:n testi näytönohjaimekseni.

Ja brändihän tehdään noilla high end korteilla. Että vaikka ne ovat harvojen herkkua, mutta se vaikuttaa ihmisten mielikuviin sen verran että jopa tuolla keskiluokasta ostetaan Geforcea eikä Radeonia.
Kun ostetuin luokka on edelleen 100 - 250€, mutta mielikuvien takia ostetaan Geforce vaikka se olisi oikeasti huonompi vaihtoehto.
Myöskin pitää muistaa että Nvidia on panostanut markkinointiin todella paljon ja se on myös tulosta tehnyt. AMD markkinointi on ollut aika yks tyhjän kanssa, tosin ehkä se nyt muuttuu kun Ryzeneiden voimin saavat lisää rahaa käyttöönsä.
 
Jotenkin toivoisin näyttiksiinkin jo jonkinlaista chiplettisuunnittelua, älkää kysykö miten tuo tehtäisiin, nämä on vain ajatustasolla omassa ja toivottavasti myös monen kehittäjän päässä.
Vaan onko tuo näytönohjaimissa järkevää? Näytönohjainpiireissä on lukemattomia samanlaisia toistuvia rakenteita ja on helppo ottaa toimimattomia osia pois käytöstä, joten isonkaan piirin valmistus ei ole samanlainen ongelma kuin prosessoripuolella. Chiplet-ratkaisulla heikentyy tiedonsiirto eri osien välillä, ja tulee ongelma sen kanssa, että miten hoidetaan muistiosoitukset.
 
Enpä ole täällä vähään aikaan käynyt, mutta olipa viihdyttävää lukemista. Popcornit vaan puuttuu. :)

Pari asiaa joita on tässä selvinnyt. AMD:ltä on tulossa isompi RDNA/RDNA2 kortti tänä vuonna, se tulee olemaan maksimissaan 1.7x (itse veikkaan jotain 1.5x) nopeampi kuin nykyinen 5700XT, tai jos tulee nopeampi kortti, se tulee olemaan yli 1000€ ihan vaan komponenttien hintojen takia (nämä numerot tulee eri lähteitä yhdistelemällä ja komponenttien hintoja ynnäämällä).

Näille numeroillesi ei ole mitään varmistusta tullut. Voi aivan hyvin olla 1.8x nopeapi ja maksaa 900e.
 
Nvidian eduksi kyllä menee muutakin kuin 4K pelailussa High End kortit. Se kuka sen hinnan kortista maksaa on taas ihan käyttäjä kohtainen asia. Tämä asia ei tarvitse edes mitään laseja päähän.

AMD:n hinta-laatusuhde olisi näytönohjaimissa uskottavampi mikäli saisivat ajurit kuntoon sillä saralla niin, että toimisi raudan kanssa, eikä toivoa kädet ristissä ”hyvää” toimivuutta. Aika fifty-sixty ollut 5700XT korteissakin toimivuus. Paljon on nähnyt niitä ongelmia niissä, eikä korjauksia vissiin luvassa kuten ei koskaan aiemminkaan.

Moni maksaa mieluusti sen pienen extra hinnan Nvidian korteista jolloin tietää mitä saa. Huomattavasti toimivampia olleet jo vuosikymmenet.

Tämä. Ketuttaa töissäkin, kun AMD läppärit työllistää mukavasti näyttisajuribugien takia. Ulkoisten näyttöjen kanssa on ollut todella paljon ongelmia AMD läppäreissä. Milloin kuvaa ei tule tai se vilkkuu, milloin tulee väärät hertsit / resoluutiot ym. Ongelmien kirjo on todella laaja ja intelin integroiduilla piireillä ei ole oikestaan mitään ongelmia. Uusimmat Aajurit ehkä pikkaisen parantaneet tilannetta.

Harmittaa, kum muuten AMD:n läppärit on hinta/laatusuhteeltaan todella hyviä. Nyt on melkein pakko ostaa vielä koko ajan AMD koneita, kun intelillä niin pirunmoiset toimitusvaikeudet, että koneet pitäisi tilata 3kk etukäteen, jos haluaa saada tiettynä ajankohtana.
 
Kun noista ajuribugeista nyt on niin paljon mesoamista, niin nVidialla ovat olleet ainot ajurit, jotka olen koskaan nähnyt kaadettavan Excelillä. Ihan perustason taulukko jolle teki tietyn operaation, niin nVidian ajurit kaatuivat siinä paikassa ja vetivät koko koneen täysin jumiin.

Ja kortinpolttobugit ovat vissiin tällä hetkellä nVidia 3 - AMD 1 jollen aivan väärin muista.
 
Kun noista ajuribugeista nyt on niin paljon mesoamista, niin nVidialla ovat olleet ainot ajurit, jotka olen koskaan nähnyt kaadettavan Excelillä. Ihan perustason taulukko jolle teki tietyn operaation, niin nVidian ajurit kaatuivat siinä paikassa ja vetivät koko koneen täysin jumiin.

Ja kortinpolttobugit ovat vissiin tällä hetkellä nVidia 3 - AMD 1 jollen aivan väärin muista.
Itse muistan erään tulostimen ajurit jotka kaatoivet koko koneen jos Excelissä jakoi 0:lla. Eli ei nuo ihan ekat ole....
 
Ulkoisten näyttöjen kanssa on ollut todella paljon ongelmia AMD läppäreissä.
Meillä ei ole AMD läppäriä mihin verrata, mutta tuo mun missä on Quadro ei saa kuvaa näyttöihin ollenkaan, jos molemmat DP kaapelit telakassa kiiinni. Toisen voi kiinnittää kun on päässy kirjautumaan windows.

Voi kyllä olla telakka ongelmakin..
 
Meillä ei ole AMD läppäriä mihin verrata, mutta tuo mun missä on Quadro ei saa kuvaa näyttöihin ollenkaan, jos molemmat DP kaapelit telakassa kiiinni. Toisen voi kiinnittää kun on päässy kirjautumaan windows.

Voi kyllä olla telakka ongelmakin..

Kyllähän se telakkakin siinä vaikuttaa, kun koneen kyljestä toimii yleensä paremmin. Telakoiden Firmiksiäkin on koitettu toki päivittää, mutta ei ole auttanut. Varsinkin tykit ja isommat 4k esitys näytöt tuntuvat olevan ongelmallisia. Tavallisten 24" FHD näyttöjen kanssa on ollu pienempiä ongelmia, mitkä korjaantuu käyttämällä näyttöä pois päältä.
 
Niin kyllä tuota RTX on hömppää olisin itsekin hämmästellyt aivan eri tavalla jos se olisi ollut lisäarvo lähes ilman FPS hittiä.

Jep, ja kun noita youtuben RTX ON/OFF -videoita peleissä katsoo, niin ei tuo kyllä ole yhdessäkään pelissä mullistavan hyvä ominaisuus. Liekkö vasta niin tuore uutuus, että pelintekijöiltäkään ei tuohon kovin isoa tukea ole tullut? Maaston ja auringon heijastukset suurimmassa osassa peleistä RTX ON-tilassakin selvästi huonompaa kuin jossain vaikkapa Cry Enginen peleissä, mutta en tiedä onko tuon tarkoituskaan reagoida auringon säteisiin(?).

Jotku tekstuuripinnat näyttää vähän paremmilta RTX ON, mutta myös AMD-softwarella on tekstuuri-asetuksia, jotka parantaa joidenkin pelien tekstuurin piirtoa paremmaksi, yleensä hyvin pienellä FPS-hitillä. Myös tekstuurioptimointia löytyy AMD:lta, jossa saa vähän lisää FPS:ää jos kortin tehot ei riitä. Aika pieniä eroja nuokin taitaa toki tuoda.

Tervehdin ihan ilolla RTX:n kaltaisia uudistuksia, kunhan niillä ei luoda harhaanjohtavaa markkinointia, eikä aleta suhmuroimaan pelintekijöiden kanssa AMD:ta vastaan suljettujen ovien takana. Witcher 3 ja Nvidian GameWorks -keissi nevöfoget *hymiö*.
 
Jep, ja kun noita youtuben RTX ON/OFF -videoita peleissä katsoo, niin ei tuo kyllä ole yhdessäkään pelissä mullistavan hyvä ominaisuus. Liekkö vasta niin tuore uutuus, että pelintekijöiltäkään ei tuohon kovin isoa tukea ole tullut? Maaston ja auringon heijastukset suurimmassa osassa peleistä RTX ON-tilassakin selvästi huonompaa kuin jossain vaikkapa Cry Enginen peleissä, mutta en tiedä onko tuon tarkoituskaan reagoida auringon säteisiin(?).

Jotku tekstuuripinnat näyttää vähän paremmilta RTX ON, mutta myös AMD-softwarella on tekstuuri-asetuksia, jotka parantaa joidenkin pelien tekstuurin piirtoa paremmaksi, yleensä hyvin pienellä FPS-hitillä. Myös tekstuurioptimointia löytyy AMD:lta, jossa saa vähän lisää FPS:ää jos kortin tehot ei riitä. Aika pieniä eroja nuokin taitaa toki tuoda.

Tervehdin ihan ilolla RTX:n kaltaisia uudistuksia, kunhan niillä ei luoda harhaanjohtavaa markkinointia, eikä aleta suhmuroimaan pelintekijöiden kanssa AMD:ta vastaan suljettujen ovien takana. Witcher 3 ja Nvidian GameWorks -keissi nevöfoget *hymiö*.

Aika rajallisesti sitä sädetystä vielä käytetään kun tehot ei vaan yksinkertaisesti riitä. Sitten kun sädettämällä voidaan tehdä lähes kaikki reaaliajassa niin se on sitten se graalin malja.
Eli mitä rajallisempaa se säteitten käyttö on, niin sen vähemmän lisäarvoa se tuo. Olikos se nyt TR:ssä esim. ainoastaan varjot on sädetettyä kamaa. BFV:ssä oliko varjot ja heijastukset.

Ja ei tuosta suhmuroinnista ole kyllä pelkoa muuta kuin jossain PC exclusive pelissä, koska konsoleissa mennään jatkossakin AMD:n raudalla niin se sanelee aika pitkälti peliteollisuudessa suuntaa. Toki nvidia aina välillä jollekin pelitalolle pistää hilloa että saavat noita omia kikkareitaan esille, mutta ei ne ole eikä tule ainakaan lähitulevaisuudessa olemaan mikään stantardi fyytsöri.
Jos nvidia lähtisi konsolibisnekseen mukaan, niin sitten niillä olis paljon enemmän mahdollisuuksia ja vaikutusvaltaa ajaa noita suljettuja kokkareita.
 
Aika rajallisesti sitä sädetystä vielä käytetään kun tehot ei vaan yksinkertaisesti riitä. Sitten kun sädettämällä voidaan tehdä lähes kaikki reaaliajassa niin se on sitten se graalin malja.
Eli mitä rajallisempaa se säteitten käyttö on, niin sen vähemmän lisäarvoa se tuo. Olikos se nyt TR:ssä esim. ainoastaan varjot on sädetettyä kamaa. BFV:ssä oliko varjot ja heijastukset.

Jep todella lastenkengissä ollaan vielä tämän RTX:n kanssa. Ja varmasti tulevaisuudessakin vastuu mullistavista uudistuksista lepää pelien grafiikkamoottoreiden suunnittelijoiden harteilla. Siellä niitä oikeasti mullistavia eroja tehdään, eikä Nvidian markkinointilaboratoriossa. Esim. Cry Enginen ja siitä jatkokehitetyn Dunia Enginen peleissä heijastukset on parhaimmillaan hemmetin realistisia, eikä siihen ole mitään RTX:ää tarvittu. Far Cry 5:sessa RTX tuo ehkä aavistuksen realistisempia valon heijastuksia joissain kohtaa, mutta ei sellaista lisäarvoa tuo mun silmissä, josta olisin valmis maksamaan ylimääräistä.

Jos nvidia lähtisi konsolibisnekseen mukaan, niin sitten niillä olis paljon enemmän mahdollisuuksia ja vaikutusvaltaa ajaa noita suljettuja kokkareita.

Menee vähän OT:n puolelle, mutta täällä ei taida olla Nvidia VS konsolifirmat -ketjua. Niin, tekisi muuten konsolibisnekselle ihan hyvää jos joku Nvidian kaltainen jätti lähtisi haastamaan Sonya ja Microsoftia. Tai onhan Nvidialla se Shield, mutta se ei taida kovin kovaa kilpailla Xboxin ja PS:n kanssa, koska on enemmänkin suoratoistolaite. Nyt Microsoft ja Sony saa rauhassa tehdä tehoiltaan aika vaatimattomia konsoleita, ja pelifirmojen pitää tehdä pelinsä silmällä pitäen noita tehollisesti rajallisia laitteita.

Nvidia kun potkaisisi Sonya ja Microsoftia persuksille jollain tehokkaammalla konsolilla, niin voisi nuokin jättilafkat tehdä vähän parempia konsoleita, ja ennenkaikkea nopeammalla julkaisusyklillä. Playstation 5 ja Xboxin One series tuo taas konsoleihin lisää puhtia, mutta ei mene montaa vuotta kun nuo on taas auttamatta tehoiltaan roskaa, kun vertaa PC-puolen kehitykseen. Hinta/laatu-suhde noissa on ihan hyvä, ei siinä mitään. Ymmärrän että konsolilla pelaaminen on monille hyvä vaihtoehto.
 
Kyllähän Nintendo käyttää nvidian järjestelmäpiirejä, eli kyllä se siellä konsolibisneksessäkin on mukana.
 
Nyt hirveesti vertailis prosessoreita GPUhin varsinkaan kun prossussa on chplettejä ja gpu on yksi monoliittinen piiri. Mutta jokatapauksessa samaa mieltä siitä että kyllä amd voisi nopean kortin tehdä ja pitää tehotkin vielä alhaalla. Äkkiseltään laskettuna RX 5600 XT:tä vastaava piiri RTX 2080 TI vastaan käyttäen verrokkina RTX 2060:stä olisi noin 76 CUn kapistus (Vgpu: <1V, Kellot: ~1,65Ghz). Perf/W:han navissa on hyvä, kunhan pitää voltit ja kellot _järkevinä_.

Se, että siellä on monta eri piilastua eikä yksi iso vaan NOSTAA sitä virrankulutusta, koska siellä tarvitaan paljon vahvempaa signaalia CCXitä muistiohjaimille.

Oleellinen hyöty niistä pienistä CCD-piilastuista oli se, että tarvi layoutata vain yksi "7nm" piiri ja sillä saatiin katettua neljä eri kokoluokkaa(8c ryzen, 16c ryzen, 32c threadripper/epyc, 64c threadripper/epyc), ja pystyttiin myös samoja piirejä käyttämään missä tahansa sen mukaan mikä on kysyntä, vähemmän ongelmaa että joistain piireistä ylituotantoa samalla kun toisista pulaa. Näyttiksissä tätä optiota ei muutenkaan järkevästi ole, siellä suuremman kaistantarpeen takia muistiohjaimet halutaan kuitenkin pitää laskentayksiköiden kanssa samalla piilastulla.
 
Jotenkin toivoisin näyttiksiinkin jo jonkinlaista chiplettisuunnittelua, älkää kysykö miten tuo tehtäisiin, nämä on vain ajatustasolla omassa ja toivottavasti myös monen kehittäjän päässä.

Sellaista, joka oli vuonna miekka ja kypärä toisen sukupolven xboxissa josta sittemmin luovuttiin, koska aika ajoi sen ohi?



Ja miksi ihmeessä? Jotta saataisiin näyttiksiin lisää virrankulutusta ja pahempaa muistikaistapullonkaulaa?

Mitään kovin järkevää arkkitehtuuria mihinkään "chiplet-pohjaiseen" ei näyttiksillä ole, vaihtoehdot on lähinnä:

1) Palautaan kivikauteen ja käytetään eDRAMia kuten Xenos. Se skaalautuu todella huonosti uusille valmistustekniikoille, ei järkeä.

2) Ei tehdä eDRAMia, mutta matkitaan zen2sta ja laitetaan sinne erillinen IO-piiri joka tehdään vanhalla valmistustekniikalla. Sille IO-piirille tulisi vain muistiohjaimet, pcie-väylän PHYt ja TMDS-lähettimet. Sen logiikan määrä olisi hyvin melko pieni, mutta sieltä tarvittaisiin suuri määrää pädejä ulos. Käytännössä sille tulisi paljon hukkatilaa niiden pädien takia. ja sitten tältä tarvisi tehdä hyvin järeät väylät niille varsinaisille näyttispiireille. Aivan turhaan vaan lisää virrankulutusta siitä että kaikki muistiliikenne(jota on paljon) kiertää tämän toisen piirin kautta. Säästöt siitä että muistiohjaimet yms. tehdään vanhalla valmistustekniikalla jäisi kuitenkin hyvin pieniksi.

3) Kuten 2, mutta laitetaan tänne suuri määrä uloimman tason välimuistia. Nyt sen piirin koko olisi niin iso, että siihen ei tulisi turhaa hukkatilaa, mutta se uloimman tason välimuisti olisi kalliimpaa valmistaa sillä vanhalla valmistustekniikalla, ja lisäksi sen käyttäminen haaskaisi virtaa kun sinne pitäisi mennä piilastuja yhdistävän väylän yli.

4) Tungetaan vaan monta pientä uudella valmistustekniikalla valmistettua "kokonaista" GPUta samaan pakettiin. Nyt meillä on NUMA-arkkitehtuuri jossa toiseen piirin kytketyn muistin käyttäminen on hitaampaa. Joko A) kärsitään random-hitaudesta tilanteissa joissa data on värässä muistissa(kohtalaisen hyvät keskimääräsitä-FPSt muta ärsyttävää satunnaistökkimistä), tai tehdään B) piilastuja yhdistävistä väylistä hyvin järeitä (lisää virrankulutusta)

Näistä oikeastaan vain 4B:tä pidän jossain määrin järkevänä, ja sitäkin vain siinä tilanteessa, että halutaan tehdä hyvin iso piiri, ja tämän ison piirin saanto-ongelmaa ei voida ratkaista sillä, että rikkinäiset ytimet vaan kytketään piiriltä pois päältä (esim. koska liian usein vika osuu esim. ytimiä yhdistävään väylään tms. kohtaan jossa ei ole redundanssia)
 
Sellaista, joka oli vuonna miekka ja kypärä toisen sukupolven xboxissa josta sittemmin luovuttiin, koska aika ajoi sen ohi?



Ja miksi ihmeessä? Jotta saataisiin näyttiksiin lisää virrankulutusta ja pahempaa muistikaistapullonkaulaa?

Mitään kovin järkevää arkkitehtuuria mihinkään "chiplet-pohjaiseen" ei näyttiksillä ole, vaihtoehdot on lähinnä:

1) Palautaan kivikauteen ja käytetään eDRAMia kuten Xenos. Se skaalautuu todella huonosti uusille valmistustekniikoille, ei järkeä.

2) Ei tehdä eDRAMia, mutta matkitaan zen2sta ja laitetaan sinne erillinen IO-piiri joka tehdään vanhalla valmistustekniikalla. Sille IO-piirille tulisi vain muistiohjaimet, pcie-väylän PHYt ja TMDS-lähettimet. Sen logiikan määrä olisi hyvin melko pieni, mutta sieltä tarvittaisiin suuri määrää pädejä ulos. Käytännössä sille tulisi paljon hukkatilaa niiden pädien takia. ja sitten tältä tarvisi tehdä hyvin järeät väylät niille varsinaisille näyttispiireille. Aivan turhaan vaan lisää virrankulutusta siitä että kaikki muistiliikenne(jota on paljon) kiertää tämän toisen piirin kautta. Säästöt siitä että muistiohjaimet yms. tehdään vanhalla valmistustekniikalla jäisi kuitenkin hyvin pieniksi.

3) Kuten 2, mutta laitetaan tänne suuri määrä uloimman tason välimuistia. Nyt sen piirin koko olisi niin iso, että siihen ei tulisi turhaa hukkatilaa, mutta se uloimman tason välimuisti olisi kalliimpaa valmistaa sillä vanhalla valmistustekniikalla, ja lisäksi sen käyttäminen haaskaisi virtaa kun sinne pitäisi mennä piilastuja yhdistävän väylän yli.

4) Tungetaan vaan monta pientä uudella valmistustekniikalla valmistettua "kokonaista" GPUta samaan pakettiin. Nyt meillä on NUMA-arkkitehtuuri jossa toiseen piirin kytketyn muistin käyttäminen on hitaampaa. Joko A) kärsitään random-hitaudesta tilanteissa joissa data on värässä muistissa(kohtalaisen hyvät keskimääräsitä-FPSt muta ärsyttävää satunnaistökkimistä), tai tehdään B) piilastuja yhdistävistä väylistä hyvin järeitä (lisää virrankulutusta)

Näistä oikeastaan vain 4B:tä pidän jossain määrin järkevänä, ja sitäkin vain siinä tilanteessa, että halutaan tehdä hyvin iso piiri, ja tämän ison piirin saanto-ongelmaa ei voida ratkaista sillä, että rikkinäiset ytimet vaan kytketään piiriltä pois päältä (esim. koska liian usein vika osuu esim. ytimiä yhdistävään väylään tms. kohtaan jossa ei ole redundanssia)

Entäs jos laitetaan ne chipletit pinoon päällekkäin?
 
Jep todella lastenkengissä ollaan vielä tämän RTX:n kanssa. Ja varmasti tulevaisuudessakin vastuu mullistavista uudistuksista lepää pelien grafiikkamoottoreiden suunnittelijoiden harteilla. Siellä niitä oikeasti mullistavia eroja tehdään, eikä Nvidian markkinointilaboratoriossa. Esim. Cry Enginen ja siitä jatkokehitetyn Dunia Enginen peleissä heijastukset on parhaimmillaan hemmetin realistisia, eikä siihen ole mitään RTX:ää tarvittu. Far Cry 5:sessa RTX tuo ehkä aavistuksen realistisempia valon heijastuksia joissain kohtaa, mutta ei sellaista lisäarvoa tuo mun silmissä, josta olisin valmis maksamaan ylimääräistä.

:facepalm:

Se, että meiltä löytyy raudalta säteenjäljityksen törmäystarkastusyksiköt nimenomaan mahdollistaa sen, että ne pelinkehittäjät voivat tehdä asioita, mitä ennen ei ole voinut (järkevällä suorituskyvyllä) tehdä.

Se, että rasteroinnin päälle aletaan laskea varjoja ja heijastuksia on hirveää purkkaa purkan päälle. Sieltä jää aina joissain tilanteissa ihan hassuja artefakteja.

Käytännössä siellä JOKO rendataan scene uusiksi JOKAISEN valonlähteen näkökulmasta joka suuntaan jotta saadaan laskettua paljonko valoa tulee mihinkäkin eli saadaan varjoja tai heijastuksia, tähän kuluva aika skaalautuu suoraan valonlähteiden määrän mukaan, mutta tämä ei vielä ratkaise YHTÄÄN sitä että mitäs tehdään valolle, joka heijastuu monta kertaa. Sen kanssa pitää keksiä jälleen uusia purkkavirityksiä. Lisätään jotain ambient-valoa. Nämä menee heti epärealistisiksi.

Ja jos ei haluta rendata kaikkea uusiksi joka valonlähteen suunnasta, sitten purkataan jotain että vain tietyt asiat luo varjoja, toiset ei. NÄistä tulee aina artifakteja.
Käytännössä rasteroinnissa nuo "muka-luonnolliset heijastukset" tyypillisesti heijastaa yleensä tasan yhden valonlähteen valoa, vain suorina heijastuksina.


Säteenjäljityksellä voidaan saada triviaalisti mukaan mm. moninkertaiset heijastukset (toki se vaatii vähän lisää sekundäärisäteitä, mutta tästä tuleva lisätyö on silti melko pientä)


Lisäksi rasteroinnin kanssa pitää kikkailla paljon mm. levelin suunnittelun kanssa, että saadaan kolmiomäärä pysymään pienenä. Lisää purkkaa.

Työ siitä että kolmiota aletaan piirtää skaalautuu rasteroinnissa O(N). Jos tuplataan kentän koko molempiin suuntiin, tekee se O(N^2) tähän työhön.

Säteenjäljityksessä taas koko homma skaalautuu O(ln(N)) kolmiomäärään nähden, koska suuri osa kolmioista putoaa pois heti BVH-puun ylimmillä tasoilla.

Eli siis, jos kolmiomäärä kasvaa vaikka 100000 => 400000, se on nelinkertainen työ rasteroinnissa kolmion alustukseen, säteenjäljityksesssä n. ~15% lisää BVH-puun läpikäymistä


Siinä vaiheessa, kun rasteroinnista voidaan kokonaan luopua, pelinkehittäjien homma helpottaa ja tuottavuus paranee paljon kun suurimäärä purkkaa voidaan jättää levelinsuunnittelustakin pois.
 
Viimeksi muokattu:
Entäs jos laitetaan ne chipletit pinoon päällekkäin?

Se vaan tarkoittaa, että jäähdytys käy melko tehottomaksi ja kellotaajuuksia joidutaan tämän takia pudottamaan reippaasti, jotta yhdistelmän energiatiheys ei käy liian suureksi.

Järkeä lähinnä läppäreissä/kännyköissä tms. missä jäähdytyksen ongelma on saada lämpö kotelosta ulos eikä piiriltä tuulettimelle, ja kellotaajuudet ja energiankulutukset on muutenkin peniä.
 
Se vaan tarkoittaa, että jäähdytys käy melko tehottomaksi ja kellotaajuuksia joidutaan tämän takia pudottamaan reippaasti, jotta yhdistelmän energiatiheys ei käy liian suureksi.
No, mikä on tehotonta ja mikä ei. Se on varmaan suhteellinen käsite. Jopa 500 watista huhutaan neljän Foveros/EMIB-chipletin pinolla, eikä suorituskyvystä ole vielä mitään takeita. Mutta pointtina oli tässä vaiheessa käsittääkseni se, mikä on ylipäänsä mahdollista. Valmistajana tässä huhussa siis Intel. Pahoittelut kaikille topic-puristeille, että tämä on sikäli väärässä ketjussa.
 
Jotenkin toivoisin näyttiksiinkin jo jonkinlaista chiplettisuunnittelua, älkää kysykö miten tuo tehtäisiin, nämä on vain ajatustasolla omassa ja toivottavasti myös monen kehittäjän päässä.

Huhut kertovat, että Nvidian Hopper-arkkitehtuuri olisi joku tuon tyyppinen ratkaisu. AMD on muistaakseni sanonut, että suunnitteluhaasteiden takia ei ole tulossa ihan lähiaikoina. Intel ilmeisesti on kehittelemässä jotain vastaavaa näyttiksiinsä, viimeisimmän huhun perusteella.

Ymmärtääkseni hyöty tällaisesta designista olisi skaalautuvuus samaan tapaan kuin AMD:n Zen2:lla. Sen sijaan, että on GPU, josta kytketään pois epätoimivia osia ja saadaan halvempi malli, voitaisiin skaalata tarvittaessa ylöspäin lisäämällä moduulien määrää ja näin saada vaikkapa kahden GPU:n nopeus ilman, että tarvitaan erillistä SLI-tukea yms. Esim. "5080 Ti" olisi vaikka kaksi "5080" chipletia yhdessä paketissa. Samalla vältetään tarve kutistaa arkkitehtuuria pienempiin ja pienempiin nanometreihin, siinäkin kun alkaa rajat pikkuhiljaa tulla vastaan.

Tämä ei varmasti ole mikään helppo toteuttaa ilman, että latenssit ym kasvavat pilviin, mutta ainakin minusta kuulostaa järkevältä tulevaisuuden ratkaisulta.
 
Huhut kertovat, että Nvidian Hopper-arkkitehtuuri olisi joku tuon tyyppinen ratkaisu. AMD on muistaakseni sanonut, että suunnitteluhaasteiden takia ei ole tulossa ihan lähiaikoina. Intel ilmeisesti on kehittelemässä jotain vastaavaa näyttiksiinsä, viimeisimmän huhun perusteella.

Ymmärtääkseni hyöty tällaisesta designista olisi skaalautuvuus samaan tapaan kuin AMD:n Zen2:lla. Sen sijaan, että on GPU, josta kytketään pois epätoimivia osia ja saadaan halvempi malli, voitaisiin skaalata tarvittaessa ylöspäin lisäämällä moduulien määrää ja näin saada vaikkapa kahden GPU:n nopeus ilman, että tarvitaan erillistä SLI-tukea yms.

Ihan samalla tavalla se "SLI"-tuki" sieltä vaadittaisiin. Se, että erilliset piirit on samassa paketissa vs että piirit on erillisillä korteilla ei arkkitehtuurillisesti muuta mitään, samassa paketissa vaan kommunikaatio on jonkin verran nopeampiaa ja vähävirtaisempaa, joten sen "SLIn" overheadit olisivat pienempiä.

Esim. "5080 Ti" olisi vaikka kaksi "5080" chipletia yhdessä paketissa. Samalla vältetään tarve kutistaa arkkitehtuuria pienempiin ja pienempiin nanometreihin, siinäkin kun alkaa rajat pikkuhiljaa tulla vastaan.

Paljon pahemmin ne lämpörajat tulee vastaan kun samaan pakettiin pieneen tilaan yritetään änkeä montaa piilastua saman siilin alle. Kun taas uudet valmistustekniikat on käytännössä aina energiatehokkaampia.

Tämä ei varmasti ole mikään helppo toteuttaa ilman, että latenssit ym kasvavat pilviin, mutta ainakin minusta kuulostaa järkevältä tulevaisuuden ratkaisulta.

Ei; Pii-pinta-ala tulee vain kallistumaan, ei halpenemaan, mutta samaan pinta-alaan saatava logiikkamäärä tulee jatkamaan kasvuaan, joskin hitaammin.

MCM oli kova juttu POWER2ssa vuonna 1992 ja Pentium Pro:ssa vuonna 1995. Molemmista luovuttiin vuonna 1997 (RSC+ ja Pentium 2). Koska Mooren laki mahdollisti kaiken mahduttamisen samalle piilastulle.

Ainoa mikä pidemmällä tähtäimellä ajaa kohti MCMää on se, että jostain "uudesta syystä" halutaan entistä pienempään tilaan ängetä enemmän laskentakapasiteettia, piittaamatta hinta- ja jäähdytysrajoitteista.

Normaalikuluttajan pöytäkone-PC ei ole yhtään tilarajoitteinen.

AMDn Zen2 ei ollut niinkään "suunnannäyttäjä" vaan "anomalia" johon oli omat ihan hyvät syynsä (7nm valmistustekniikan transistorien kalleus johtuen hyvin moninkertaisesta multipatternista, sopimus GFn kanssa joka pakottaa valmistamaan jotain sen tehtaisssa, AMDn tuotekehitysresurssien vähyys että piti selvitä pienellä määrällä erillisiä piirejä). Ja Zen2n myötä AMD nimenomaan siirtyi EPCYeissään/Threadrippereissään POIS siitä että siellä on vaan rinnakkain pari piilastua NUMAlla (mitä siis nyt olisit ehdottamassa).

Ja intelillä on Pentium Pro:n lisäksi ollut lukuisia muitakin MCM-piirejä (pentium Duo, core 2 quad, Clarkdale). Eli vastaavia "anamalioita on ollut paljon aikaisemminkin.



nVidialta tosiaan löytyi joku slide(aitoudesta en ole varma) jossa puhuttiin MCM-Hopperista, mutta tällä ilmeisesti viitattiin vain siihen linjaston järeimpään datacenter-AI-piiriin, ei kuluttajapiireihin.

Datacenter-käytössä sähkö ja koko tilan jäähdytys maksaa, joten piirejä halutaan ajaa matalalla kellolla paremman energiatehokkuuden takia. joten se, että kellotaajuutta joudutaan alentamaan itse piirin energiatiheyden takia ei niin paljoa haittaa. Ja niissä ilmeisesti pienellä tilalllakin on väliä.
 
Nuo 19.12 ajurit oli varmasti jossain kohdassa käytössä, noita vanhempia en muista koska viimeksi käytin, enkä tietenkään muistanut testata niitä näin jälkikäteen ajatellen. Nyt on ollut 20.1.3 käytössä reilun viikon eikä ole vielä ainakaan mitään ongelmia ilmennyt, tosin koputetaan puuta varmuuden vuoksi.
Ja eilen eli maanantaina taas näytönohjain veti itsensä jumiin. Ei noista 20.1.3 ollut itselle mitään apua nähtävästi.
 
Far Cry 5:sessa RTX tuo ehkä aavistuksen realistisempia valon heijastuksia joissain kohtaa, mutta ei sellaista lisäarvoa tuo mun silmissä, josta olisin valmis maksamaan ylimääräistä.
Aika hyvin että toisi aavistuksen realistisempia valon heijastuksia ottaen huomioon ettei peli tue DXR:ää tai mitään muutakaan RT-kiihdytystä ;)
(eli se siis näyttää just eikä melkein samalta oli siellä RTX-näyttis tai ei)

Kyllähän Nintendo käyttää nvidian järjestelmäpiirejä, eli kyllä se siellä konsolibisneksessäkin on mukana.
Tosin off-the-shelf-kamaa joka oli verrattain vanhaa jo kun Nintendo päätti niitä käyttää.

nVidialta tosiaan löytyi joku slide(aitoudesta en ole varma) jossa puhuttiin MCM-Hopperista, mutta tällä ilmeisesti viitattiin vain siihen linjaston järeimpään datacenter-AI-piiriin, ei kuluttajapiireihin.
Jos meinaat sitä missä oli 36 pikkusirua niin se on ihan aito (jopa niin aito että sellaisia on siis tuotettu eikä jää vain slidetasolle) mutta ei GPU vaan AI inference -kiihdytin
 
:facepalm:

Se, että meiltä löytyy raudalta säteenjäljityksen törmäystarkastusyksiköt nimenomaan mahdollistaa sen, että ne pelinkehittäjät voivat tehdä asioita, mitä ennen ei ole voinut (järkevällä suorituskyvyllä) tehdä.

Naamapalmua ja kirvesvartta vaan sullekkin. Kuten olen moneen kertaan kirjoittanut, RT on varmasti tulevaisuutta, mutta just nyt se ei ole merkittävä ominaisuus pelikäyttäjälle. Tai no merkittävä on subjektiivista. Just nyt se ei kuitenkaan tuo säteenjäljitystä kuluttajille järkevällä suorituskyvyllä, vaan jopa päinvastoin. Kuluttajia ei kiinnosta kuinka hienoja ominaisuuksia siellä taustalla on, just nyt se on enemmän FPS-imuri kuin mullistava graafinen ominaisuus. Tulevaisuutta on mahdotonta ennustaa, siksi puhun enemmän nykyhetkestä.

Ja kiitos tuosta teknisestä selonteosta, osa meni mulla yli hilseen, osan jopa ymmärsin. Kenen tämä RT ''idea'' tai patentoitu toteutus alunperin oli? Onko Nvidian idea, pohjautuen pelienkehittäjien toiveisiin tms.? Mietin vaan että näkeekö pelienkehittäjät yhtä ison tulevaisuuden tässä, kuin Nvidia.

Kyllähän Nintendo käyttää nvidian järjestelmäpiirejä, eli kyllä se siellä konsolibisneksessäkin on mukana.

Kylläkyllä, olisi pitänyt tarkentaa että tarkoitin siis ihan kokonaan omaa konsolia, tai vaikka eri valmistajaa jossa olisi Nvidian näytönohjain joka voittaisi selvästi Sonyn ja Microsoftin. Helpommin sanottu kuin tehty, teho maksaa, varsinkin Nvidialla *hymiö*.

Aika hyvin että toisi aavistuksen realistisempia valon heijastuksia ottaen huomioon ettei peli tue DXR:ää tai mitään muutakaan RT-kiihdytystä ;)
(eli se siis näyttää just eikä melkein samalta oli siellä RTX-näyttis tai ei)

Eli lankesin youtube-videoiden RTX ON/OFF huijaukseen. Perkele. My bad. Sen siitä saa kun tekee väsyneenä nopeita johtopäätöksiä. Olisikohan noissa käytetty sitten jotain Reshadia tms. Jolla saa btw aika paljon lisää silmäkarkkia moniin peleihin, ilmaiseksi, tai no pienet FPS-hitit niissäkin on. Näin huonomman näytön omistajalle Reshade on aika hyödyllinen kun pitää vaikkapa yöhämärässä riehua aseen kanssa. Samoin värimaailman saa yhdellä klikkauksella eloisammaksi. Kunnon pelinäytön omistajille nuo ei varmaan tuo vastaavaa lisäarvoa. Huonon näytön kuva-asetusten säätäminen on vähän kuin heittäisi soran tilalta hiekkaa silmiin. Reshaden kanssa joutunut tekemään vähemmän kompromisseja.
 
Viimeksi muokattu:
Eli lankesin youtube-videoiden RTX ON/OFF huijaukseen. Perkele. Olisikohan noissa käytetty sitten jotain Reshadia tms. Jolla saa btw aika paljon lisää silmäkarkkia moniin peleihin, ilmaiseksi, tai no pienet FPS-hitit niissäkin on. Näin huonomman näytön omistajalle Reshade on aika hyödyllinen kun pitää vaikkapa yöhämärässä riehua aseen kanssa. Samoin värimaailman saa yhdellä klikkauksella eloisammaksi. Kunnon pelinäytön omistajille nuo ei varmaan tuo vastaavaa lisäarvoa.
Pikaisella googletuksella vaikuttaisi joltain reshade-tyyppiseltä ratkaisulta tuo "RT patch" mitä video mainostaa nimessään muttei kerro muuta
 
Naamapalmua ja kirvesvartta vaan sullekkin. Kuten olen moneen kertaan kirjoittanut, RT on varmasti tulevaisuutta, mutta just nyt se ei ole merkittävä ominaisuus pelikäyttäjälle. Tai no merkittävä on subjektiivista. Just nyt se ei kuitenkaan tuo säteenjäljitystä kuluttajille järkevällä suorituskyvyllä, vaan jopa päinvastoin. Kuluttajia ei kiinnosta kuinka hienoja ominaisuuksia siellä taustalla on, just nyt se on enemmän FPS-imuri kuin mullistava graafinen ominaisuus. Tulevaisuutta on mahdotonta ennustaa, siksi puhun enemmän nykyhetkestä.

Ja kiitos tuosta teknisestä selonteosta, osa meni mulla yli hilseen, osan jopa ymmärsin. Kenen tämä RT ''idea'' tai patentoitu toteutus alunperin oli? Onko Nvidian idea, pohjautuen pelienkehittäjien toiveisiin tms.? Mietin vaan että näkeekö pelienkehittäjät yhtä ison tulevaisuuden tässä, kuin Nvidia.

Säteenjäljityksen idea on tunnettu kymmeniä vuosia, paljon ennen kuin koko nVidia-firmaa on edes ollut olemassakaan, jos siitä itse säteenjäljityksen perusideasta on ollut jotain patentteja, ne ovat expiroituneet kymmeniä vuosia sitten.

Sen sijaan säteenjäljityksenkäytännön toteutukseen ja sen nopeuttamiseen on paljon erilaisia toteutustapoja ja optimointeja. Tärkeimpiä ei kuitenkaan tietääkseni ole patentoitu.

Ja säteenjäljitysrautakin tuli PowerVRltä ennen nVidiaa.

SÄTEENJÄLJITYS EI OLE MIKÄÄN NVIDIAN JUTTU

Elokuvissa siirryttiin jo rasteroinnista säteenjäljitykseen jo vuosia sitten, kun konetehot kasvoivat tarpeeksi, että siihen oli varaa. Peleissä on tulossa sama kehitys perässä, ja käytännössä kaikki yhtään 3d-grafiikan parissa yöskentelevät pelikehittäjät tietävät sen.


Tekniikan tulevaisuutta on joiltain osin itse asiassa melko helppo ennustaa, kun vaan ymmärtää sitä, mitä sen "tulevaisuuden tekniikan" tekemiseen vaaditaan, ja suorittaa tarvittavat laskutoimenpiteet, esim. Intelin perustaja Gordon moore ennusti 1960-luvulla kotitietokoneet, kännykät jne oikein hyvin.

Käytännössä (melkein) kaikki tietotekniikassa on keksitty kymmeniä vuosia ennen kuin niiden käyttö on yleistynyt - on vaan pitänyt odottaa, että tietokoneiden valmistuksen hinta laskee ja suorituskyky kasvaa tasolle, että niiden keksintöjen käytännön toteuttaminen on mahdollista ja tarpeeksi halpaa. Ja Mooren laki on ollut aika hyvä apuväline sen laskemiseen, koska joku asiat tulevat käyttökelposeeksi.

Sen sijaan ihmiselle, joka sitä tekniikkaa Ei ymmärrä sen tulevaisuuden ennustaminen on vaikeaa. Kun joko
1) Ei ole hajuakaan niistä jo keksityistä keksinnöistä jotka vaan odottavat rautaa, jolla ne voi toteuttaa, tai sitten
2) Luotetaan sokeasti johonkin hypeen ja mainoslauseisiin kun ei itse omata mitään kompetenssia arvioda sen hypetetyn asian negatiiviisia puolia joiden takia se ei tulekaan yleistymään
3) Ollaan petytty siihen kun joku uusi tekniikka sai hypeä mutta on aluksi ollut liian kallis tai hidas ja se on typerästi tuomittu se turhaksi ja ikuisesti huonoksi tekniikaksi, vaikka sen läpilyönti joidenkin vuosien päästä on täysin varmaa, kun sen vaatima muu tekniikka ympärillä kehittyy
4) Ei edes YRITETÄ laskea mitään niihin tekniikoihin oleellisesti liittyvää numerodataa joista usein näkisi aika helposti, onko sillä mitään edellytyksiä toimia, tai KOSKA tai MISSÄ OLOSUHTEISSA sillä olisi edellytyksiä toimia.

Ja usein sitä tekniikkaan kehitystä melko äänekkäästi ennustaa myös ihmiset, jotka eivät sitä oikeasti ymmärrä, ja sitten ennustukset menee pieleen. Esim. monilta tekniikan alan toimittajiltakin puuttuu syvmepi ymmärrys asioista, mistä he kirjoittavat, ja he lähinnä toistelevat yleisiä myyttejä
 
Viimeksi muokattu:
Rt liittyen hyvä pätkä Control pelin osalta:


Ja typerää tuomita Rt ensimmäisen sukupolven raudan mukaan, jostakin kehittäminen on aloitettava raudan suhteen. Kuitenkin pelinkehittäjät pääsevät toteuttamaan jo tekniikkaa näillä ensimmäisillä RTX korteilla. Tämä kuitenkin lupaa parempaa tulevaisuutta kummankin kuluttajan ja kehittäjien osalta, kaikki voittaa, jos Rt yleistyy jatkossa (saadaan realistinen valaistus peleihin ja kehittäjiltä jää turhat "baked in" efektien "liimailut" pois, eli pelien kehitys nopeutuu ajan kanssa).

Mutta empä ollut yllättynyt, että tässä ketjussa eräällä tarve nostaa Rt "Nvidian tekniikaksi", joka on täysin turha keksintö (verrataan hair works, joka on ihan eri asia)... (Ainiin ja minä olen se Nvidia sokea fanipoika...)

Edit. Enkä nyt sano, että pelkästään Rt takia kannattaa ostaa Nvidian korttia, itselle 2080 Ti oli omaan käyttöön paras vaihtoehto, eikä AMD tarjoa tosiaan mitään vaihtoehtoa tässä teholuokassa. Rt on tässä vaiheessa kiva lisäominaisuus, mutta sitä yksinään ei vielä tässä vaiheessa ei voi sanoa ainoaksi näytönohjaimen valinta perusteeksi. Vaikka tulee taas paskamyrsky, niin Nvidian etuja on: kypsemmät ajurit, kilpailun puute ylimmissä teholuokassa (2080/Super ja 2080 Ti) ja parempi perf/watt (jäähdytyksen kannalta, ei se lisävirrankulutus kenenkään sähkölaskua räjäytä, virtalähteen valinnan kannalta toki on merkitystä, jos sattuukin menemään juurikin sen lisävirrankulutuksen yli, eli joutuu ostamaan isomman virtalähteen).
 
Viimeksi muokattu:
Rt liittyen hyvä pätkä Control pelin osalta:

Ja typerää tuomita Rt ensimmäisen sukupolven raudan mukaan, jostakin kehittäminen on aloitettava raudan suhteen. Kuitenkin pelinkehittäjät pääsevät toteuttamaan jo tekniikkaa näillä ensimmäisillä RTX korteilla. Tämä kuitenkin lupaa parempaa tulevaisuutta kummankin kuluttajan ja kehittäjien osalta, kaikki voittaa, jos Rt yleistyy jatkossa (saadaan realistinen valaistus peleihin ja kehittäjiltä jää turhat "baked in" efektien "liimailut" pois, eli pelien kehitys nopeutuu ajan kanssa).

Mutta empä ollut yllättynyt, että tässä ketjussa eräällä tarve nostaa Rt "Nvidian tekniikaksi", joka on täysin turha keksintö (verrataan hair works, joka on ihan eri asia)... (Ainiin ja minä olen se Nvidia sokea fanipoika...)
PowerVR:llä on ollut RT-rautakiihdytystä tarjoavaa rautaa tarjolla viime vuosikymmenen alkupuolelta lähtien. Sen lisäksi että PowerVR:n setit tulivat vuosia aiemmin, ne ovat myös kehittyneempiä tarjoten valinnaisena vaihtoehtona kiihdytyksen myös BVH-puiden luontiin.
Ainut asia mitä NVIDIA mahdollisesti tarjosi kehittäjille uutena on enemmän suorituskykyä, koska PowerVR:n ratkaisua ei ole tullut markkinoille työpöytäformaatissa.
 
PowerVR:llä on ollut RT-rautakiihdytystä tarjoavaa rautaa tarjolla viime vuosikymmenen alkupuolelta lähtien. Sen lisäksi että PowerVR:n setit tulivat vuosia aiemmin, ne ovat myös kehittyneempiä tarjoten valinnaisena vaihtoehtona kiihdytyksen myös BVH-puiden luontiin.
Ainut asia mitä NVIDIA mahdollisesti tarjosi kehittäjille uutena on enemmän suorituskykyä, koska PowerVR:n ratkaisua ei ole tullut markkinoille työpöytäformaatissa.
Niin tarkoitinkin tällä ensimmäisen sukupolven Rt raudalla juurikin sitä, ettei aikaisemmin kuluttajien käsissä ole ollut ko. rautaa. Tämä keskustelu on kuitenkin pyörinyt pitkälti kuluttajien kannalta, ammattilaispiirit sitten täysin eri kuvio.

Edit. Kuitenkin tämä Nvidian RTX puoli pyrkii nytten isommalti ajamaan Rt markkinoille pelien osalta.
 
Viimeksi muokattu:
HU sanoo ettei voi enää suositella AMD:n näyttiksiä ajuriongelmien vuoksi :hmm:

Ei oo nyt aikaa/olen mobiililla/ referoida koko videota mutta:

  • Monilla käyttäjillä ajuriongelmia vaikka kortit ollu myynnissä jo 7kk
  • Juontaja 'järkyttyi' ongelman laajuudesta perusteena HU:n oma kysely
  • Systembuilderit ja kaupat raportoi 5x suurempia palautusprosentteja kuin vastaavat NVIDIA mallit
  • AMD toimitti heille vastineen jossa ongelmat tiedostettiin ja luvattiin korjata


Screenshot_20200213-170022.jpg
 
HU sanoo ettei voi enää suositella AMD:n näyttiksiä ajuriongelmien vuoksi :hmm:

Ei oo nyt aikaa referoida koko videota mutta:

  • Monilla käyttäjillä ajuriongelmia vaikka kortit ollu myynnissä jo 7kk
  • Juontaja 'järkyttyi' ongelman laajuudesta perusteena HU:n oma kysely
  • Systembuilderit ja kaupat raportoi 5x suurempia palautusprosentteja kuin vastaavat NVIDIA mallit
  • AMD toimitti heille vastineen jossa ongelmat tiedostettiin ja luvattiin korjata

Nämähän AMD ajuriongelmat on mielikuvitusta monen käyttäjän mukaan, jos tätä ketjua uskoo. Allekirjoittanuttakin haukuttu Nvidia fanipojaksi, kun "erehtynyt" nostamaan ajuripuolen Nvidian eduksi tiettyjen muiden etujen lisäksi.
 
Tohon on fanboyn enää vaikee laittaa vastaan kun AMD itse myöntänyt kirjallisessa vastineessa että "joojoo kaatuvat perkeleet, laittakaa vaa raporttia tulee nii fiksataan ku ehditään" :x3:
 
Höpönlöpön, jos ei ole disabloinut FreeSyncciä työpyödällä, vaihtanut näyttökaapeleita, vaihtanut virtalähdettä vähintään kahdesti ja kaapeleita kolmesti tai asentanut korttia ennenkuin oli uhrannut lampaan tai pari, kyseessä on käyttäjästä johtuva vika. Unohdinko kertoa että Nvidian ajurit olivat paskoja vuonna 2007, eli ei se ruoho ole niin vihreää siellä toisella puolella!
/s
 
Eipä ole kaatuillut. Taitaa olla vain Navi korttien kanssa alkuvaikeuksia.
 
Eipä ole kaatuillut. Taitaa olla vain Navi korttien kanssa alkuvaikeuksia.
Sitä ne tuossa HU:n videossa nosti esiin, että 7kk julkaisun jälkeen ei pitäis enää olla "lastentauteja" ja tämä on suuri syy siihen miksi "on erittäin vaikea suositella AMD:n tuotteita kun kilpailijan tuotteet toimivat varmemmin/paremmin".
 
PowerVR:llä on ollut RT-rautakiihdytystä tarjoavaa rautaa tarjolla viime vuosikymmenen alkupuolelta lähtien. Sen lisäksi että PowerVR:n setit tulivat vuosia aiemmin, ne ovat myös kehittyneempiä tarjoten valinnaisena vaihtoehtona kiihdytyksen myös BVH-puiden luontiin.
Ainut asia mitä NVIDIA mahdollisesti tarjosi kehittäjille uutena on enemmän suorituskykyä, koska PowerVR:n ratkaisua ei ole tullut markkinoille työpöytäformaatissa.

No ei välttämättä nvidia, mutta yhteistyö Microsoftin kanssa mahdollisti tuon raudan oikean hyödyntämisen. Imagination tech on ollut tuon rautansa kanssa niin kovin yksin ja demoaminen jotain asiakaskunnalle(mobiili), jolle kyseinen feature ei ole se hirveän korkea prioriteetti, on ehkä se suurin syy miksi tuota ei missään oikeassa kuluttajatuotteessa ole. Ehkä jos saisivat jotenkin Nintendon houkuteltua lisenssoimaan tuon Switch²...
 
Varmasti on tuossa tilastossa tottakin, mutta Nvidian korttien omistajien kanssa on myös sellaista Mersu efektiä. Koskaan ei ole mitään vikaa ollut...

Jotain ohjelma / rauta yhteensopivuus ongelmaa on Navien kanssa, koska on paljon käyttäjiä joilla ei ole mitään ongelmia ollut. En tuota uusinta HWU videota ole katsonut, mutta aiemmassa molemmat HWU jantterit sanoivat että heillä ei ole ollut mitään ongelmia vaikka Steve käyttää omassa koneessaan 5700 XT:tä päivittäin...

MSI Afterburner esim. alkuun aiheutti vaikka ja mitä.
 
Oleellisin fakta tuossa HWU videossa oli tuo AMD yli 5x isompi palautusprosentti jälleenmyyjillä vs Nvidia. Käyttäjiltä tehdyt kyselyt on herkkiä vääristelyille, jälleenmyyjiltä saatu tieto on se tarkin tässä tapauksessa.

Ja hyvin Steve toteaakin tuossa videossa, ettei jälleenmyyjiä Nvidia lahjo laittamaan kokoonpanoihin Nvidian kortteja, vaan Nvidia on ollut vakaampi ja turvallisempi jälleenmyyjän kannalta (ei niin iso palautusprosentti vs AMD).
 
Juuri näin. Tosin noihin palautusprosentteihin on varmasti vaikuttanut rajusti ne muutamat täysin epäonnistuneet 5700XT mallit, ei pelkästään ajuriongelmat.
 
Tohon on fanboyn enää vaikee laittaa vastaan kun AMD itse myöntänyt kirjallisessa vastineessa että "joojoo kaatuvat perkeleet, laittakaa vaa raporttia tulee nii fiksataan ku ehditään" :x3:

Mitä minä olen tätä topicia seurannut niin täällä on paljon vihreän leirin faneja, mutta eipä punaisen leriin porukkaa niinkään fanittamassa.
Enemmän kellä nyt sattuu olemaan AMD nyt tai on "oikeasti" niistä kokemusta + nvidian korteista puolustaa niitä ihan oikein.
Vihreillä on joku hemmetin vimma ylistää omaansa ylikaiken. Maksaako Nvidia teille jotain tuosta vai ?
Vai miten muuten jaksatte ?

Oikeaa fanittamista kummaltakin osapuolelta on havaittavissa tuolla AMD vs Intel väittelyketjussa.

Itse muuten vastasin tuohon kyselyyn kyllä. Kun 19.12 ajurit oli kasa paskaa ja aiheutti ongelmia (se musta ruutu juttu).
Muuta ongelmia millään kortilla ??? hhhmmm... no RX 480:llä ne textuurit ongelmat high ja ultra asetuksilla NFS: Heatissä... mutta se kortti nipin napin riitti edes medium asetuksille.
Testi penkissä olevalla Vega 64:lla ei ole ollut vielä mitään ongelmia kun aloin sillä benchmarkkaamaan eri prossuja eri alustaja.
Ja kyllä sisässä vieläkin samat 19.5.2 ajurit sama windows asennus ;)

Onko ollut ongelmia Nvidian korteilla ? No ei muuta kuin video editorini ei tykännyt 399.24 ajureita tuoreemmista. Eli jos tuoreemmat niin laitteistokiihdytys hävis.
 
No ei välttämättä nvidia, mutta yhteistyö Microsoftin kanssa mahdollisti tuon raudan oikean hyödyntämisen. Imagination tech on ollut tuon rautansa kanssa niin kovin yksin ja demoaminen jotain asiakaskunnalle(mobiili), jolle kyseinen feature ei ole se hirveän korkea prioriteetti, on ehkä se suurin syy miksi tuota ei missään oikeassa kuluttajatuotteessa ole. Ehkä jos saisivat jotenkin Nintendon houkuteltua lisenssoimaan tuon Switch²...
Mites se Microsoftin DXR (jonka kehityksessä on kaikki DirectX:n kehityksessä yhteistyötä tekevät tahot ihan samalla tasolla mukana) nyt mitään muutti? Kyllä se RT-kiihdytys oli ihan samalla tavalla mahdollista eri rajapinnoilla ennen sitä.
Se on sitten toinen juttu että PowerVR keskittyy mobiilipuoleen, mutta ei se sitä teknologian olemassaoloa poista millään tasolla. Jos kehittäjät (muutkin kuin Carmack) olisivat nähneet sen aikoinaan kyllin merkitykselliseksi, olisi sitä varmasti lähdetty ajamaan eteenpäin ja skaalattu myös työpöytäpuolelle lisensoituna, eikä kehittäjät nytkään vaikuta sitä minään maailmaa mullistavana teknologiana pitävän, kun sen verran harvaan peliin sitä tukea ympätään. Mm. id totesi Doom Eternalin osalta että kyllähän sillä vähän leikittiin ja ideoita on olemassa, mutta meillä on tärkeämpiäkin asioita, palataan asiaan myöhemmin jos palataan.
 
Itse muuten vastasin tuohon kyselyyn kyllä. Kun 19.12 ajurit oli kasa paskaa ja aiheutti ongelmia (se musta ruutu juttu).

Mikä versio noista 19.12 ajureista aiheutti ongelmia Vegalla? Minulla on näköjään 19.12.2 ajurit (ne ekat uudella käyttöliittymällä) ja ei ole ollut Radeon VII:n kanssa mitään ongelmia.
 
Oleellisin fakta tuossa HWU videossa oli tuo AMD yli 5x isompi palautusprosentti jälleenmyyjillä vs Nvidia. Käyttäjiltä tehdyt kyselyt on herkkiä vääristelyille, jälleenmyyjiltä saatu tieto on se tarkin tässä tapauksessa.

Ja hyvin Steve toteaakin tuossa videossa, ettei jälleenmyyjiä Nvidia lahjo laittamaan kokoonpanoihin Nvidian kortteja, vaan Nvidia on ollut vakaampi ja turvallisempi jälleenmyyjän kannalta (ei niin iso palautusprosentti vs AMD).

Ei näy kyllä mindfactorysta kootussa taulukossa, tietty jenkeissä tuo RMA taitaa olla enemmän kansanhuvia vs eurooppa. Siinä on linkit kortteihin ja kortin sivulta löytyy palautusprosentti.

5700XT RMA rate 0-6%.
5700 RMA rate 0-8%
2080 RMA rate 0-9%
2070 RMA rate 0-12%
2060 RMA rate 0-6%

Oma kortti on kylläkin Vega ja siinä tilanne on sama mitä videon Tim/Steve osastolla, eli on toiminut oikein nätisti.

Edit: onhan tuossa kokonaislukematkin lopussa, siellä ero alkaa näkyä:
2060: 13790 korttia, palautusprosentti 1.63%
2070: 16765 korttia, palautusprosentti 1,38%
2080: 4760 korttia, palausprosentti 1,53%
5700: 5530 korttia, palautusprosentti 2.56%
5700XT: 14740 korttia, palautusprosentti 2,84%

Powercolor näyttää olevan palautusten kärjessä. Sen perusmallit ei yllätä, mutta Red Devil yllätti. Senhän piti olla ihan hyvää tekoa.
 
Viimeksi muokattu:

Statistiikka

Viestiketjuista
259 266
Viestejä
4 507 029
Jäsenet
74 347
Uusin jäsen
Si-Pe

Hinta.fi

Back
Ylös Bottom