Virallinen: NVIDIA vs AMD (vs Intel) keskustelu- ja väittelyketju

  • Keskustelun aloittaja Keskustelun aloittaja Sampsa
  • Aloitettu Aloitettu
Tässä kun väitellään RT:stä mikä on edelleen alkutekijöissään, kun katsotaan sitten AMD:n ja Nvidian RT nopeuksia kun suurinosa peleistä on täysin RT:llä toteutettu kuten nyt ne Minecraftin ja Quake 2:n RTX versiot.
Ennen kuin päästään nykypelejä grafiikka tasolle RT:llä, niin siihen menee vielä vuosia ja vuosia. Kun tämä nykyiset "RT-pelit" ovat vaan purkalla päälle liimattuja heijastus ja varjo juttuja, mitkä ovat olleet ilmankin RT:täkin ihan riittävän hienoja.
Kun itse en ainakaan jää peleissä graffoja niin tuijottamaan että huomaisin eroa, joten painoarvo näille kikkailuille täys 0.

Mutta mukavaa että AMD pääsi taas mukaan high-end näytönohjain kisaan ettei Nvidia voi vai jatkuvasti pökittää hintoja ylöspäin. Tosin onhan nuo AMD:n kortitkin aivan liian kalliita itselleni.
Ja hauska nähdä Nvidia fanit täällä heti "muokkaamassa" testejä että saadaan vaikka väkisin "oma" lemppari firman kortti ykköseksi :rofl:
Muuta voi sanoa että hemmetin typerää fanittaa jotain firmaa, jonka tehtävä on kerätä rahat sinulta pois.

Jos taas vihaa jotain firmaa kun se on toiminut typerästi, niin yksilönä helpoin ja ainoa tapa näyttää mieltään on olla ostamatta kyseisen firman tuotoksia.
Itselläni tämmöisiä firmoja ovat Apple, EA, Nvidia sekä Ubisoft.

En usko, että kukaan on täällä ollut sen takia mitään testitapoja muuttamassa, että saadaan NVIDIA ykköseksi.

Vaikka itselle on ihan sama sinänsä, että onko ne RT testit erillisiä, niin vähän harmittaa ko. puolen ylimalkainen käsittely ja se heitetään monissa eri saittien testeissä rooliin, "Pieni huomautus sivulauseessa". Samalla maalaillaan ruusuista kuvaa AMD:n tulevasta vahvasta asemasta ja suorituskyvystä RT hommissa, vaikka mitään takeita semmoisesta ei oikeasti ole, vaikka hyvin mahdollistahan se on.

Tämän hetken tilanne on kuitenkin se, että NVIDIA on isolla erolla edellä RT hommissa ja sillä on hyvin todennäköisesti vaikutusta parin vuoden sisään tulevissa AAA peleissä, joissa RT on käytössä. Pahimmillaan AMD:n korteilla on minimiasetukset RT:ssä ja silti mennään alle 60 FPS 1440p resolla, kun DLSS vastinetta ei ole. 2080Ti:llä RT oli/on käytettävä (yli 60 FPS) vain oikeastaan 1080p resolla, jos DLSS:a ei ole käytettävissä. AMD:n RT nopeushan on niillä 2080Ti hoodeilla noissa hybriditoteutuksissa.

RT on asia, mikä tulee koko ajan ajankohtaisemmaksi, ja kyllä ensi vuonna julkaistavassa AAA peleissä on varmaan suurimmassa osassa jo RT jossain muodossa käytössä. Aika todennäköisesti DLSS on monessa uutuuspelissä mukana myös, varsinkin jos siihen tulee RT toteutus.
 
Kannattaa lukaista noita RDNA2 deep dive artikkeleita ja patentteja aiheesta, lyhykäisyydessään siinä missä nvidialla on turinassa ja amperessa rasterointia hoitavista shadereista erillinen yksikkö millä BVH tarkastelu suoritetaan, RDNA2 kanssa käytetään simd yksiköitä eli shadereita ja ne eivät amd:llä kykene hoitamaan kumpaakin asiaa yhtä aikaa.

Kyllä pystyvät hoitamaan kumpaakin asiaa yhtä aikaa.

Jokaisella shader-ytimellä (DCUlla) on
1) monta laskentayksikköä, mm.
1a) 4 x 32-leveää SIMD-arraytä jotka tekee normaalin laskennan
1b) 4 * skalaariyksikköä jotka laskee osoitteita ja indeksejä jne
1c) 2 * 4-leveä TMU, jotka tekevät JOKO tekstuurioperaatioita TAI säteenjäljitystä
1d) jotain normaaleita lataus- tallennusyksiköitä

2) Frontend, joka lukee sisään käskyjä neljästä säikeestä yhtä aikaa

3) Jonot ja rekisterit sille, että siellä voi olla neljän suorituksessa olevan säikeen lisäksi muistaakseni 60? säiettä valmiina suoritukseen.


Eli siis, siellä voi siis joka ytimellä samalla kellojaksolla aloittaa käskyn suoritus suoritus neljästä säikeestä, siten että esim. 2 säiettä tekee säteenjäljitystä ja 2 säiettä jotka tekeee mitä tahansa muuta, Säteenjäljitys korkeintaan pudottaa "muun tekemisen" suorituskyvyn puoleen, ei estä sen tekemistä yhtä aikaa, mikäli se "muu asia" ei tarvi tekstuuriyksiköitä.

Ja jos siihen säteenjäljitykseen tulee mikä tahansa stalli jonka takia sitä ei voida tehdä täydellä teholla, sitten voidaan heti suorittaa normalia laskentaa neljällä säikeellä, neljällä laskentayksiköllä.

Tai, jos säteenjäljitysyksiköiden rajapinta(käskykanta) on sellainen, että yhdellä käskyllä pystytään syöttämään sille enemmän laskettavaaa kuin mitä se yhdessä kellojaksossa laskee, esim. jos vaikka kolmiotestikäsky pystyy ottamaan useamman kolmion (kaikki yhden laatikon kolmiot) kerralla parametrina ja rouskuttelee niitä useamman kellojakson ajan(tiedetään että tarkastaa yhden kolmion kellojaksossa), tai laatikkotestikäskyille on tuettu myös esim. radix8-puut joiden testit lasketaan kahdessa kellojaksossa (tiedetän että kykenee 4 laatikkotestiin kellojaksossa) sillon sillä seuraavalla kellojaksolla kun se säteenjäljitysyksikkö on täystyöllistetty voidaankin silläkin liukuhihnalla suorittaa normaalia shader-koodia jostain toisesta säikeestä. Eli suorittaessa kaksi kellojaksoa kestäviä "isompia operaatiota" pystytään muuta shader-koodia suorittamaan keskimäärin n. 75% suorituskyvyllä.

En kuitenkaan tiedä varmaksi, onko siellä mitään käskyjä joiden thoughput on enemmän kuin yksi kellojakso/käsky, RDNA2n käskykantamanuaali ei taida olla vielä pihalla? Kaikista aiemmista arkkitehtuureistaanhan AMD on julkaissut tarkat käskykantaspeksit(toisin kuin nVidia, joka ei julkaise mitään muuta kuin PTX-välikielen speksin), varmaan tulee tällekin pian.


Summa summarum: se säteenjäljitys ainoastaan

1) Estää tekemästä tekstuurihakuja yhtä aikaa. Enkä keksi, mihin BVH-puun rakennus tarvisi teksturointia; Siellä on kuitenkin normalit LSUt niiden lisäksi.
2) Maksimissaan puolittaa sen "muun shadereilla tehtävän laskennan" suorituskyvyn samaan aikaan tehtynä (jos se siis ei tee tekstuurihakuja). Ja usein hitti on ehkä selvästi vähemmän kuin puolitus.

edit:

Mutta: törmäystarkastusyksiköiden tehdessä törmäystarkastuksia shadereilla tyypillisesti ajetaan shader-koodia jolla tehdään siitä koko säteenjäljityshommasta muita osia kuin sitä törmäystarkastusta. Lasketaan sitä, mihin suuntaan pitäisi laukoa toisiosäteitä, lasketaan pikselin väriarvoa toisiosäteiden perusteella jne. Ja näissä kyllä tekstuurihakuja on kohtalaisesti, eli siinä tulee AMDllä hidastusta siitä että tekstuurihakuyksiskkö ja säteenjäljitysyksikkö jakaa rautaa.
 
Viimeksi muokattu:
Itse veikkaan että RT tulee olemaan muutenkin vaikea testattava. Aivan erilaisesta toteutuksesta johtuen voi olla että osaan peleistä tulee säteenseurantarutiinitkin erikseen molemmille korteille

Kun käytetään yleisiä rajapintoja eikä jotain nVidian suljettua rajapintaa, ei se toteutuksen ero vaikuta mitenkään oleellisesti siihen, miten softa sitä kutsuu, toteutuksen suurin ero on vain siinä, miten ne yksiköt on kytketty ja ryhmitelty piirillä.

Se, että (Ampere-sukupolvessa) nVidian kolmiotestien nopeus on puolet laatikkotesteistä ja AMDllä neljäsosa vaikuttaa hiukan siihen, millainen BVH-puu on kummallekin optimaalinen, mutta tämä rakennetaan kuitenkin ajurien toimesta. (AMD haluaa käyttää pienempiä lehtitason laatikoita jotta kolmioiden testit saadaan minimoitua, nVidia halunnee Amperella tunkea vähintään kaksi kolmiota joka lehtilaatikkoon jotta ei tule tilanteita joissa rt-ydin tekee vain yhtä kolmiotestiä kerrallaan).

Oleellinen laatuun ja nopeuten liittyvä kysymys on se, että montako sädettä/pikseli lauotaan, ja millaista kohinanvaimennusta käytetään, mutta käsittääkseni tämän toteutus on softan itsensä vastuulla eikä näyttiksen tai näyttisajurin.

Nykykorteilla säteenjälityksen nopeus ei siis käytännössä kunnolla riitä moneen primäärisäteeseen/pikseli, ja polunjäljitystä käyttäessä tämä johtaa triviaalitoteutuksella kohinaiseen kuvaan. Joten pitää tehdä jonkinlainen kohinanvaimennus jossa pikselin väliarvoa lasketaan sekä pikselin itsensä että
1) viereisten pikselien perusteella
2) saman pikselin edellisen framen väriarvon perusteella (vaatii sen, että etsitään se pikseli, joka oli samassa paikassa maailmaa edellisellä framella, tämä kuitenkin aiheuttaa viivettä esim. liikkuvien valojen ja varjojen tapauksessa)

Ja eri algoritmeja tähän kohinanvaimennukseen on paljon ja niille erilaisia konfigurointiparametreja. nVidia yritti jossain vaiheessa myös tuputtaa tensoriyksiköillään tehtävää neuroverkkopohjaista kohinanvaimennusta.

Teoriassa voisi tehdä sitäkin, että adaptiivisesti vaihtelee sitä sädemäärää/pikseli eri pikselien välillä sen mukaan
1) Onko pikseli "tärkeä", eli esim. keskelle kuvaa käytettäisiin enemmän säteitä/pikseli
2) Onko samasta pikselin paikasta olemassa väridataa edelliseltä framelta vai ei


Eli odotellaan sitä, koska pelien asetusruudut alkaa täyttyä optioilla joilla tähän liittyviä juttuja säädetään.
 
Viimeksi muokattu:
Ei ole kun nvidian korteilla se ei toimi vielä. Nvidia sais panostaa vähän enemmän pelitukeen.

Kohta joku tähän heittää että se on AMD:n vika, että tukea ei ole, mutta toisaalta nvidian sponssaamissa peleissä se on myös AMD:n vika että tukea ei löydy AMD:n korteille. :confused:
Siis kyllähän se ilmeisesti toimii muuttamalla rivin kaksi ini-tiedostossa. Kehittäjä on tietoisesti sulkenut ominaisuuden Nvidian korteilta syystä X.
 
Tämäkin se vanha legenda jaksaa edelleen elää vahvana, mutta kumpi näistä skenaarioista lienee todennäköisempi:
-ATi huijasi tarkoituksella ja kun se huomattiin löysi sopivasti heti seuraaviin ajureihin korjauksen, jolla laatu on sitä mitä pitääkin ilman että suorituskyky muuttui huijaukseen verrattuna
-Kyseessä oli bugi ajureissa, joka korjattiin seuraavassa julkaisussa
?

Vastaan viestiin samalla linkillä kuin joskus aikaisemminkin (ehkä muroaikoina):
 
Siis kyllähän se ilmeisesti toimii muuttamalla rivin kaksi ini-tiedostossa. Kehittäjä on tietoisesti sulkenut ominaisuuden Nvidian korteilta syystä X.
Joo ja joku oli jo testannut, että laittamalla päälle nvidialla tulee lisää fps, että nyt kyllä jotain legendaarista bullshittiä menossa. Amd on näköjään liittynyt nyt viimeistään pimeälle puolelle gimppaamaan partner pelejä kilpailijan hardwarelle. Toivottavasti tämä paska ei yleisty lisää....
 
Aivan noviisina näissä piireissä, mitkä asiat lukeutuvat edukseen AMD näyttiksissä ja mitkä taas sataa Nvidian laariin? Mitä kannattaa ottaa huomioon näyttistä valitessa?

Aikeissa hankkia tuoreimmasta linjastosta 3070/3080/6800xt, sittenkun ensi vuonna niitä on saatavilla... En aio ylikellottaa tms. Rauta koneeseen ja kovaa ajoa.
 
Aivan noviisina näissä piireissä, mitkä asiat lukeutuvat edukseen AMD näyttiksissä ja mitkä taas sataa Nvidian laariin? Mitä kannattaa ottaa huomioon näyttistä valitessa?

Aikeissa hankkia tuoreimmasta linjastosta 3070/3080/6800xt, sittenkun ensi vuonna niitä on saatavilla... En aio ylikellottaa tms. Rauta koneeseen ja kovaa ajoa.

Näillä näkymin AMD jos pelaat 1080/1440p resoluutiolla ja pääsääntöisesti pelejä ilman RT:tä.

Nvidia jos pelaat 4k pelejä ja haluat enemmän FPS RT-peleissä. Ehkä myös pieni etu VR:ssä.

Toisaalta, aivan sama jos ostat ensimmäisen mainitsemistasi korteista minkä saat käsiisi. Et pety.
 
Jos striimaaminen kiinnostaa kannattaa ehkä harkita tuota AMD:n hankkimista :asif:
 
Aivan noviisina näissä piireissä, mitkä asiat lukeutuvat edukseen AMD näyttiksissä ja mitkä taas sataa Nvidian laariin? Mitä kannattaa ottaa huomioon näyttistä valitessa?

Aikeissa hankkia tuoreimmasta linjastosta 3070/3080/6800xt, sittenkun ensi vuonna niitä on saatavilla... En aio ylikellottaa tms. Rauta koneeseen ja kovaa ajoa.

AMD:lla enemmän näyttömuistia, paremmat frametimet ja ovat hellempiä virtalähteille (pienemmät piikit). Nvidialla parempi softapaketti rtx voice, streamaus, dlss ja säteenseuranta on tällä hetkellä parempi (vain 3080 ja ylöspäin).

Frametimen voi ajatella vaikka näin, jos molemmat vetää avg täsmälleen 120fps, niin toinen vetää vaikka 90-150 ja toinen 110-130 välillä. Ei ole ongelma, kun on synkronoiva näyttö ja matkaa 60fps lukemaan.

Näyttömuisti on vähän kysymysmerkki, computerbasen testeissä on muutamissa peleissä saatu jo rajat paukkumaan. Ei näy avg. fps, mutta codissa tuli nvidialla teksturepopuppia horisonttiin mitä AMD:lla/3090:lla ei ollut isoilla resoilla ja wildlandissa nvidian frametimet heitti paljon enemmän 3080:lla mitä 3090/6800xt. Sanoisin, ettei tule olemaan ongelma, ellet pelaa 4K:lla. Silläkin voi tiputtaa tekstuureja pykälän alaspäin.

Nvidialla on kovemma resurssit, joten se saa lobattua/tuettua omaa säteenseurantapainosta ja DLSS:ää paremmin AAA peleihin, eli se on ihan selkeä valtti. Eikä AMD:n super resolution (niiden versio DLSS:tä) ole vielä valmis. Se voi olla hyvä, tai sitten aika meeh. Ajuripuolesta on paha sanoa, AMD on panostanut siihen aika tavalla viime aikoina. Niissä ei välttättä ole enää eroa.

Saatavuus on ihan kauhea kummallakin.
 
Aivan noviisina näissä piireissä, mitkä asiat lukeutuvat edukseen AMD näyttiksissä ja mitkä taas sataa Nvidian laariin? Mitä kannattaa ottaa huomioon näyttistä valitessa?

Aikeissa hankkia tuoreimmasta linjastosta 3070/3080/6800xt, sittenkun ensi vuonna niitä on saatavilla... En aio ylikellottaa tms. Rauta koneeseen ja kovaa ajoa.
6800-sarjan etuna se, että huomenna alkaa AIB-korttien (Asus, MSI, Powercolor jne.) myynti eli jonkunlaiset mahikset saada kortti koneeseen jo täksi viikonlopuksi.

3070-kortteja oli tosin myöskin eilen hyvän aikaa hyllyssä Jimmsillä, että niitäkin kyllä saattaa saada jo ennen ensi vuotta.

edit: itseasiassa siellä on muutama 3070 hyllyssä Jimssillä tälläkin hetkellä.
 
Viimeksi muokattu:
Kiitos vastauksista. Ajatuksissa olisi ostaa 1440p näyttö ja puolet peleistä pelata sillä ja puolet 4k telkkarilla.
Vaikuttaisi että Nvidia olisi ray tracingillä ja dlss:llä parempi sijoitus tulevaisuuteen? Jos katsotaan 3-5 vuoden päähän


Mitä pitäisi sitten ottaa huomioon ostaessa? Kaikista malleista tuntuu olevan tuhat erilaista versiota: tuf, evga, msi....
 
Vastaan viestiin samalla linkillä kuin joskus aikaisemminkin (ehkä muroaikoina):
Ja minä luultavasti samaan tapaan kuin ennenkin, eli ongelma oli korjattu seuraavissa ajureissa ilman suorituskykytappiota.
 
Onko muuten näyttiksen valinnassa väliä mikä prossu tulee käyttöön? Vaikuttaisi AMD:n prosessori olevan voittajan valinta niin toimisiko amd+amd paremmin kuin amd+nvidia?
 
Nvidialla on kovemma resurssit, joten se saa lobattua/tuettua omaa säteenseurantapainosta ja DLSS:ää paremmin AAA peleihin, eli se on ihan selkeä valtti. Eikä AMD:n super resolution (niiden versio DLSS:tä) ole vielä valmis. Se voi olla hyvä, tai sitten aika meeh. Ajuripuolesta on paha sanoa, AMD on panostanut siihen aika tavalla viime aikoina. Niissä ei välttättä ole enää eroa.
AMD ei tosin tiettävästi ole yksin tuossa veneessä omine lompakoineen, vaan ainakin toinen konsolivalmistaja (Microsoft) on tiettävästi mukana kehittämässä tuota ja taatusti lobbaa tukea Xboxin puolelle. AMD:n Super Resolution tulee olemaan tuttuun tapaan myös avoin.
Onko muuten näyttiksen valinnassa väliä mikä prossu tulee käyttöön? Vaikuttaisi AMD:n prosessori olevan voittajan valinta niin toimisiko amd+amd paremmin kuin amd+nvidia?
Tällä hetkellä AMD+AMD-kombolla, jos ne on Ryzen 5000 + Radeon RX 6000, saa käyttöön SAM:n, mistä on hyötyä pelistä riippuen muutamia prosentteja, mutta NVIDIA aikoo saada saman PCIe:n Resizable BAR -tuen käyttöön myös omilla näyttiksillään, jolloin tuo ero katoaisi. Muuten ei ole merkitystä vaan AMD+NVIDIA toimii siinä missä AMD+AMD
 
Ja minä luultavasti samaan tapaan kuin ennenkin, eli ongelma oli korjattu seuraavissa ajureissa ilman suorituskykytappiota.

Ja jos en väärin muista niin Nvidia tuohon aikaan teki "pienen" optimoinnin ajureihinsa koskien silloista 3dmarkia (oisko ollut 3dmark03???). Eli kortti jätti rendaamatta taustalta kaiken kun ATI:n kortit rendas kaiken normaalisti.
Tämä oli sitä aikaa kun ATI laitto Nvidian koville ja Nvidia otti kaikki keinot käyttöön että pärjäsi jollain tavoin.

Eikä ne "optimoinnit" koskeneet ainoastaan 3dmarkia vaan suosituissa benchmark peleissä myös kikkailivat minkä kerkesivät ja jäivät kiinni. Kun porukka alko ihmettelemään kun Geforcen tuottama kuvanlaatu on paljon surkeampi kuin Radeoneitten.
 
Kiitos vastauksista. Ajatuksissa olisi ostaa 1440p näyttö ja puolet peleistä pelata sillä ja puolet 4k telkkarilla.
Vaikuttaisi että Nvidia olisi ray tracingillä ja dlss:llä parempi sijoitus tulevaisuuteen? Jos katsotaan 3-5 vuoden päähän


Mitä pitäisi sitten ottaa huomioon ostaessa? Kaikista malleista tuntuu olevan tuhat erilaista versiota: tuf, evga, msi....

3080/3090 on varmin paketti 3-5 vuoden aikajänteellä. Ja jos ei ole kiire, niin 3080:nkin voi kevättalvesta jostain saada. 3070:n en usko jaksavan noin pitkään ilman merkittäviä kompromisseja, ja AMD:n 6000-sarjaan liittyy isoja epävarmuustekijöitä RT/SR-sektorilla.
 
Kiitos vastauksista. Ajatuksissa olisi ostaa 1440p näyttö ja puolet peleistä pelata sillä ja puolet 4k telkkarilla.
Vaikuttaisi että Nvidia olisi ray tracingillä ja dlss:llä parempi sijoitus tulevaisuuteen? Jos katsotaan 3-5 vuoden päähän

Mielestäni NVIDIA on vahvoilla juuri nyt, johtuen DLSS:stä ja RT kun on käytännössä optimoitu peleissä NVIDIAn raudalla. Jos 3-5 vuoden päähän haluat katsoa niin ehdottomasti sitten AMD. Tuo 10 gigan näyttömuisti on parin vuoden sisään ongelma samalla tavalla kuin 8gigan muisti 3070 on jo nyt (eli käytännössä pelisuorituskyky heikkenee hivenen 1 gigan yli menevällä muistille mutta tuon päälle suorituskyky ottaa osumaa todella merkittävästi). Jos tekstuurien lasku hivenen ei haittaa ja haluaa maksimaalisen hyödyn RT:stä ja DLSS:stä nyt, niin kyllähän Nvidia on tuossa parempi ostos.

Itse olen samoilla linjoilla kuin Hardware Unboxedin testaaja että yli 500 euron näytönohjaimella jos joutuu karsimaan tekstuurien laadusta niin silittää henkilökohtaisesti liikaa vastakarvaan. 300:n näytönohjaimella tuo olisi ihan perus kauraa ja paremmin perusteltavissa. High endissä ei niinkään. Mutta tämä aika paljon riippuu henkilökohtaisista käyttökohteista miten paljon millekin ominaisuudella antaa arvoa.
3070 on mielestäni kyllä huono ostos jos 6800 korttia saa lähelle 3070 hintaa. Eri asia sitten onko 6800 sitten myöskään hyvä jos sen hinta taas on lähellä 6800xt ja 3080 hintaa.
 
Summa summarum: se säteenjäljitys ainoastaan

1) Estää tekemästä tekstuurihakuja yhtä aikaa. Enkä keksi, mihin BVH-puun rakennus tarvisi teksturointia; Siellä on kuitenkin normalit LSUt niiden lisäksi.
2) Maksimissaan puolittaa sen "muun shadereilla tehtävän laskennan" suorituskyvyn samaan aikaan tehtynä (jos se siis ei tee tekstuurihakuja). Ja usein hitti on ehkä selvästi vähemmän kuin puolitus.
Tulihan sieltä osaavampi vastaus, kiitos.

Mikähän tämän todellinen vaikutus suorituskykyyn sitten mahtaa olla, ts jos meillä on skenario jossa on maltillinen määrä RT:tä kuormittavaa laskentaa mutta raskasta rasterointia.
 
Eikö näitä side-by-side videoita ja kuvia ole tässä ketjussa esitelty jo aivan tarpeeksi?

Sitten kun ajetaan benchmarkki jossa ei päästä mielivaltaisesti päättämään että mitä rendataan niin se näyttää tältä:
(Radeon RX 6800 & RX 6800 XT Review: AMD’s Back With Big Navi - Page 2)

1606150145283.png


Minusta tuo menee täysin 1:1 sen mukaan miten esim raytrace minecraft toimii ilman DLSS:ää amd vs nvidia.

Suorituskyvyn hyödyntäminen on sitten se missä pelinkehittäjät voi onnistua tai epäonnistua, mutta tässä tämä pohja-asetelma.

En nyt hirveästi laittaisi painoarvoa millekkään RT testille kun hommat on ihan levällään. EIköhän se toi 3dmarkin testikin ole nvidia vetoisesti tehty kun muuta ei ole ollut silloin mahdollista käyttää.

- Nvidia pyöritti OpenGL työryhmää käytännössä yksin monet vuodet.

3DLabs kun alkoi tippua kelkasta niin pakkohan niiden oli.

- Nvidia tekee hemmetisti duunia sen eteen että Vulkan versiot on tuettuna heidän raudallaan heti ekana päivänä, ja että Vulkaniin saadaan feature parity DX12 ultimaten kanssa. Valta-osa siitä duunista mitä tapahtuu Vulkanin parantamiseksi tänäpäivänä on Nvidian heppujen duunia.

- Vulkanin ekat debuggerit ja profilerit olivat Nvidian käsialaa.

- Vulkanin C++ binderit on nekin Nvidia käsialaa.

- Vulkanin tänään ratifioidut ray tracing speksit ovat nekin suurilta osin Nvidian kyhäämiä (toki yhteistyössä mm. AMD:n, ARM:n, Epicin, Samsungin, ja muiden firmojen heppujen kanssa) ja Nvidia tarjoaa niiden käyttöönottoon Nsight työkalut jotta devit pääsevät nopeammin kärryille.

Jos katotaan tuon ratifioidun Vulkan ray tracingin dokumentaatiota, niin huomataan että suurilta osin kyseessä on Nvidian jo kauan kyhäämä VK_NV_ray_tracing pienillä lisäyksillä ja muutoksilla.

Ja missähän koko Vulkanin juuret on? AMD kehitti Mantlen ja luovutti sen sitten Kronokselle ja nyt meillä on Vulkan. Se on toki hienoa että nvidia on alkanut osallistua Vulkanin kehitykseen.

Nvidia on opportunistinen firma, ja he tukevat avoimia ratkaisuja silloin kun niistä on heille hyötyä. Vulkanin ja OpenGL:n osalta kyseessä on halu päästä irti Microsoftin ja DirectX:n kynsistä, ja halu on ollut olemassa parikymmentä vuotta kun ottaa huomioon sen miten paljon Nvidia puski OpenGL:ää eteenpäin 2000-luvun alusta alkaen. Jos avoimista ratkaisuista ei ole Nvidialle hyötyä, he keksivät oman ja pitävät huolen siitä että tuotteet ja teknologiat toimivat kuten pitääkin. G-sync on tästä hyvä esimerkki.

G-Sync on hieno esimerkki siitä kuinka yritetään lukita kuluttajat omaan suljettuun ekosysteemiin. Onneksi Nvidia tuon ottelun on jo myöntänyt hävinneensä. Se tapahtui sinä päivänä kun alkoivat vihdoinkin tukemaan avointa stantardia.
Meillä on tälläkin forumilla useita jotka nyt olisi olleet halukkaita ostamaan AMD:n kortin, mutta kun ruutu on vanha G-Sync eikä sitä olla valmiita päivittämään, niin joutuu ostamaan edelleen nvidian kortin.

3080 on käytännössä tuplasti nopeampi RT:ssä, kun perus 2080.

Ja jos verrataan RTX2060 niin ainakin kolminkertainen. Hienosti se Jensenin aivopesu on kyllä uponnut. Edelleen, verrattuna RTX2080Ti vs RTX3090 ei todellakaan ole ero 2x ja toi 3090 on aikalailla se maksimi mitä tuosta sirusta saadaan irti, eli vaikka sieltä tulisi 3080Ti niin ei se tule tuomaan sitä 2x eroa.

Vanhempiin peleihin ei ilman jotain definite version tyylistä päivitystä RT:tä välttämättä kauheasti päivitellä. Eihän noihin DLSS 1.0 peleihinkään ole tullut päivitystä uudempaan versioon niin tuskin niiden RT toteutustakaan lähdetään optimoimaan ellei peli sitten uudelleen julkaista konsoleilla tms. (jolloin AMD voisi optimointia saada osakseen).

Tämä juuri tuntuu unohtuvan monelta. Kun ei ole ollut mielenkiintoa edes DLSS päivittää niin tuskin on hirveästi motivaatiota alkaa enää vanhan pelin RT toteutuksen kanssa pelehtimään, ellei sitten AMD käy kippaamassa kotikarryllistä seteleitä pelifirman aulaan ja tote että laittakaas kuntoon.

Tämän hetken tilanne on kuitenkin se, että NVIDIA on isolla erolla edellä RT hommissa ja sillä on hyvin todennäköisesti vaikutusta parin vuoden sisään tulevissa AAA peleissä, joissa RT on käytössä. Pahimmillaan AMD:n korteilla on minimiasetukset RT:ssä ja silti mennään alle 60 FPS 1440p resolla, kun DLSS vastinetta ei ole. 2080Ti:llä RT oli/on käytettävä (yli 60 FPS) vain oikeastaan 1080p resolla, jos DLSS:a ei ole käytettävissä. AMD:n RT nopeushan on niillä 2080Ti hoodeilla noissa hybriditoteutuksissa.

Se on isolla erolla edellä toteutuksissa jotka on tehty täysin heidän rahoittamana ja heidän raudalle. Mitäs jos otettaisiin happea ja katsottaisiin vaikka puoli vuotta että mihin tää koko homma lähtee kehittymään. Nyt on aivan liian aikaista tehdä mitään suuria päätelmiä. Se tiedetään lähes täysin varmasti että nvidia on jonkin verran edellä, mutta se etumatka tuskin on noin valtava mitä se jossain tilanteissa nyt on.

Lähinnä itteäni ärsyttää se että täällä ringissä onanoidaan nvidian ylivoimalle ja ummistetaan silmät ja korvat täysin siltä mahdollisuudelta että ne nykyiset toteutukset ei välttämättä vielä toimi optimaalisesti AMD:n raudalla, kuten ei varmasti joku Dirt 5 pyöri optimaalisesti nvidian raudalla.
Sen sijaan että tunnistettaisiin realiteetit, täällä vain kliimaksissa juhlitaan nvidian ylivertaisuutta.

Tää AMD:n RT toteutus kuitenkin poikkeaa paljon nvidian toteutuksesta ja se on devaajillekkin uusi juttu.

3080/3090 on varmin paketti 3-5 vuoden aikajänteellä. Ja jos ei ole kiire, niin 3080:nkin voi kevättalvesta jostain saada. 3070:n en usko jaksavan noin pitkään ilman merkittäviä kompromisseja, ja AMD:n 6000-sarjaan liittyy isoja epävarmuustekijöitä RT/SR-sektorilla.

Aika rohkeaa kyllä alkaa 5v päähän katsomaan että 10G muistia on riittävästi. Kuten HUB videollaan totesi, niin jo nyt 8G alkaa käydä ahtaaksi joissain peleissä. Kun ylitys on gigan verran, niin se ei vielä juurikaan vaikuta suorituskykyyn, jotain visuaalista alkaa näkymään eli popuppeja. Mutta kun mennään tuon gigan ylitte, niin sitten alkaa nylkytys.
10G on varmaan pariksi vuodeksi ihan ok.
 
Viimeksi muokattu:
En nyt oikein keksinyt mikä olisi paras ketju, niin eiköhän tämä toimine
Korttien saatavuuteen liittyen
For the quarter in review, Nvidia sold at least $175 million worth of new generation GPUs to ethereum miners, helping the outperformance, according to a note from RBC Capital Markets analyst Mitch Steves. The analyst had guided sales to miners to come in at $150 million for the quarter.
 
Hienosti se Jensenin aivopesu on kyllä uponnut. Edelleen, verrattuna RTX2080Ti vs RTX3090 ei todellakaan ole ero 2x ja toi 3090 on aikalailla se maksimi mitä tuosta sirusta saadaan irti, eli vaikka sieltä tulisi 3080Ti niin ei se tule tuomaan sitä 2x eroa.
Jensenhän lateli 2x jytkytyksiä nimenomaan 2080 vs 3080 vertauksista puhuessaan. Olen melko varma, ettei puhunut tällaisia 2080 Ti vs 3090 -suhteen, mutta pistä linkki jos muistan väärin.

Eipä sillä, onhan tuo tuplaperffi 2080 vs 3080 välilläkin liioittelua, jos peleistä puhutaan.
 
Jensenhän lateli 2x jytkytyksiä nimenomaan 2080 vs 3080 vertauksista puhuessaan. Olen melko varma, ettei puhunut tällaisia 2080 Ti vs 3090 -suhteen, mutta pistä linkki jos muistan väärin.

Eipä sillä, onhan tuo tuplaperffi 2080 vs 3080 välilläkin liioittelua, jos peleistä puhutaan.

2080 -> 3080 oli todellakin tuo up to 2x ja ei se tainnut toteutua kuin quake/minecraft osastolla. Muuten jäätiin reilusti. Teknisesti ottaen täytti lupauksen, vaikka olihan se ihan klassista hypemarkkinointia.
 
Nvidialla on kovemma resurssit, joten se saa lobattua/tuettua omaa säteenseurantapainosta ja DLSS:ää paremmin AAA peleihin, eli se on ihan selkeä valtti. Eikä AMD:n super resolution (niiden versio DLSS:tä) ole vielä valmis. Se voi olla hyvä, tai sitten aika meeh. Ajuripuolesta on paha sanoa, AMD on panostanut siihen aika tavalla viime aikoina. Niissä ei välttättä ole enää eroa.
Mielestäni NVIDIA on vahvoilla juuri nyt, johtuen DLSS:stä ja RT kun on käytännössä optimoitu peleissä NVIDIAn raudalla. Jos 3-5 vuoden päähän haluat katsoa niin ehdottomasti sitten AMD. Tuo 10 gigan näyttömuisti on parin vuoden sisään ongelma samalla tavalla kuin 8gigan muisti 3070 on jo nyt (eli käytännössä pelisuorituskyky heikkenee hivenen 1 gigan yli menevällä muistille mutta tuon päälle suorituskyky ottaa osumaa todella merkittävästi). Jos tekstuurien lasku hivenen ei haittaa ja haluaa maksimaalisen hyödyn RT:stä ja DLSS:stä nyt, niin kyllähän Nvidia on tuossa parempi ostos.

En tiedä miksi kaikki tuntuu hehkuttavan tuota DLSS:ää kun tuki peleissä on TODELLA rajallinen. Avoimilla tekniikoilla on yleensä paremmat mahdollisuudet yleistyä ja varsinkin kun Microsoft on tuota Super Resolutionia kehittämässä voi olla että 3-5 vuoden päästä on DLSS kokonaan kuopattu.
 
En tiedä miksi kaikki tuntuu hehkuttavan tuota DLSS:ää kun tuki peleissä on TODELLA rajallinen. Avoimilla tekniikoilla on yleensä paremmat mahdollisuudet yleistyä ja varsinkin kun Microsoft on tuota Super Resolutionia kehittämässä voi olla että 3-5 vuoden päästä on DLSS kokonaan kuopattu.
Porukka tietysti hehkuttaa sitä, mikä nyt kuitenkin on olemassa eikä ehkä joskus. Firmat lupaa ummet lammet ja liikaa painoarvoa ei kannata antaa lupauksille vaan saatavilla oleville asioille. Katsotaan sitten dlss kuolemaa ja super resolutionin voittomarssia, jos joskus sen saavat ulos ensin.
 
Porukka tietysti hehkuttaa sitä, mikä nyt kuitenkin on olemassa eikä ehkä joskus. Firmat lupaa ummet lammet ja liikaa painoarvoa ei kannata antaa lupauksille vaan saatavilla oleville asioille. Katsotaan sitten dlss kuolemaa ja super resolutionin voittomarssia, jos joskus sen saavat ulos ensin.
Mutta kun ei suurin osa peleistä DLSS2.0:aa nytkään tue? Eli ei ole saatavilla nyt.
 
En tiedä miksi kaikki tuntuu hehkuttavan tuota DLSS:ää kun tuki peleissä on TODELLA rajallinen. Avoimilla tekniikoilla on yleensä paremmat mahdollisuudet yleistyä ja varsinkin kun Microsoft on tuota Super Resolutionia kehittämässä voi olla että 3-5 vuoden päästä on DLSS kokonaan kuopattu.
Itsekin kun sain uuden sukupolven kortin niin olin innoissani että hei, pääsee testaamaan DLSS ja kun katsoi listan sitä tukevista peleistä niin siihen se kiinnostus sitten lopahti. Tuosta ois varmasti iloa 4k (itse pääsin just päivittämään 1440p-aikaan) ja RT päällä, mutta sitten on noita kavereita jotka on innoissaan raytracingista, mutta eivät voi kuvitellakaan jotain kuvanhuononnustekniikoita vaan haluavat pelata natiiviresolla. 1440P:llähän tuosta koko DLSS:stä taida olla oikeastaan edes iloa.

Tuo RT on kyllä tällä hetkellä Nvidian vahvuus, mutta kun ottaa huomioon niidenkin pelien vähäisyyden, sen tosiasian että valtaosa on suoraan optimoitu nvidialle ja AMD:lläkin näyttää vielä siedettäviin fpsiin päästä 1440p:llä RT päällä, olen valmis antamaan altavastaajalle rahani jotta kilpailu saadaan pidettyä yllä. En jotenkin edes näe itseäni pelaamassa juurikaan RT-titlejä kun ei ole nopeatempoisten ja kilpailullisten fpsien ykkösjuttu.
Onhan tuolla kuitenkin Dirt 5 ja WOW:Shadowlands joissa Amd:n RT-perffi on edellä, joten odotan innolla sitä päivää kun optimoinnit on tehty molemmille korteille tasapuolisesti ja päästään vertaamaan kuinka merkittävä se ero oikeasti onkaan, kyllä, uskon että tasapuolisessa kisassa Nvidia on edellä, mutta kuinka paljon.
 
Mutta kun ei suurin osa peleistä DLSS2.0:aa nytkään tue? Eli ei ole saatavilla nyt.
On se saatavilla vaikkapa uudessa codissa vai eikö se ole peli? Siis on saatavilla. Eli onko saatavuus jossain ominaisuudessa nyt se, että pitää aina toimia kaikissa peleissä...
 
En tiedä miksi kaikki tuntuu hehkuttavan tuota DLSS:ää kun tuki peleissä on TODELLA rajallinen. Avoimilla tekniikoilla on yleensä paremmat mahdollisuudet yleistyä ja varsinkin kun Microsoft on tuota Super Resolutionia kehittämässä voi olla että 3-5 vuoden päästä on DLSS kokonaan kuopattu.

Todella rajallinenhan se tuki on, mutta se alkaa saada pelimoottoreilta tukea ja nvidialla on resursseja laittaa kavereitaan auttamaan sen lisäämisessä.

Tietty jos amd/microsoft superresolution on riittävän hyvä, niin se valtaa markkinat. Jos kehitys maksetaan omasta pussista, niin tukeakko kaikilla toimivaa ratkaisua, joka käy konsoleihinkin, vai yhden valmistajan suljettua? Ei ole vaikea ratkaisu.

Silti DLSS on olemassa nyt ja super resolution on kerran avoin ratkaisu, niin sekin pyörii Nvidialla. Lyhellä tähtäimellä on siis varmempaa lyödä ropot peliin DLSS:n osalta. Jos se säilyy, voittaa, jos super resolution kaappaa markkinat, niin ei silti häviä. Ynnä Cyberpunk nyt pitää huolen siitä, että ko tekniikan hype ei katoa vähään aikaan.
 
Siinä listaus DLSS 2.0 peleistä:

  • Bright Memory
  • Call Of Duty: Black Ops Cold War
  • Control
  • Death Stranding
  • Deliver Us The Moon
  • Enlisted
  • F1 2020
  • Fortnite
  • Ghostrunner
  • Justice
  • Marvel’s Avengers
  • Mechwarrior V: Mercenaries
  • Minecraft
  • Watch Dogs Legion
  • Wolfenstein Youngblood
  • War Thunder
  • Xuan-Yuan Sword VII

Tulevat
  • Amid Evil
  • Atomic Heart
  • Boundary
  • Cyberpunk 2077
  • Edge Of Eternity (November update)
  • JX3
  • Mortal Shell (November update)
  • Mount & Blade II Bannerlord (November update)
  • Ready Or Not (early access launch)
  • Scavengers
  • Vampire: The Masquerade – Bloodlines 2
 
Viimeksi muokattu:
En nyt hirveästi laittaisi painoarvoa millekkään RT testille kun hommat on ihan levällään. EIköhän se toi 3dmarkin testikin ole nvidia vetoisesti tehty kun muuta ei ole ollut silloin mahdollista käyttää.



3DLabs kun alkoi tippua kelkasta niin pakkohan niiden oli.



Ja missähän koko Vulkanin juuret on? AMD kehitti Mantlen ja luovutti sen sitten Kronokselle ja nyt meillä on Vulkan. Se on toki hienoa että nvidia on alkanut osallistua Vulkanin kehitykseen.



G-Sync on hieno esimerkki siitä kuinka yritetään lukita kuluttajat omaan suljettuun ekosysteemiin. Onneksi Nvidia tuon ottelun on jo myöntänyt hävinneensä. Se tapahtui sinä päivänä kun alkoivat vihdoinkin tukemaan avointa stantardia.
Meillä on tälläkin forumilla useita jotka nyt olisi olleet halukkaita ostamaan AMD:n kortin, mutta kun ruutu on vanha G-Sync eikä sitä olla valmiita päivittämään, niin joutuu ostamaan edelleen nvidian kortin.



Ja jos verrataan RTX2060 niin ainakin kolminkertainen. Hienosti se Jensenin aivopesu on kyllä uponnut. Edelleen, verrattuna RTX2080Ti vs RTX3090 ei todellakaan ole ero 2x ja toi 3090 on aikalailla se maksimi mitä tuosta sirusta saadaan irti, eli vaikka sieltä tulisi 3080Ti niin ei se tule tuomaan sitä 2x eroa.



Tämä juuri tuntuu unohtuvan monelta. Kun ei ole ollut mielenkiintoa edes DLSS päivittää niin tuskin on hirveästi motivaatiota alkaa enää vanhan pelin RT toteutuksen kanssa pelehtimään, ellei sitten AMD käy kippaamassa kotikarryllistä seteleitä pelifirman aulaan ja tote että laittakaas kuntoon.



Se on isolla erolla edellä toteutuksissa jotka on tehty täysin heidän rahoittamana ja heidän raudalle. Mitäs jos otettaisiin happea ja katsottaisiin vaikka puoli vuotta että mihin tää koko homma lähtee kehittymään. Nyt on aivan liian aikaista tehdä mitään suuria päätelmiä. Se tiedetään lähes täysin varmasti että nvidia on jonkin verran edellä, mutta se etumatka tuskin on noin valtava mitä se jossain tilanteissa nyt on.

Lähinnä itteäni ärsyttää se että täällä ringissä onanoidaan nvidian ylivoimalle ja ummistetaan silmät ja korvat täysin siltä mahdollisuudelta että ne nykyiset toteutukset ei välttämättä vielä toimi optimaalisesti AMD:n raudalla, kuten ei varmasti joku Dirt 5 pyöri optimaalisesti nvidian raudalla.
Sen sijaan että tunnistettaisiin realiteetit, täällä vain kliimaksissa juhlitaan nvidian ylivertaisuutta.

Tää AMD:n RT toteutus kuitenkin poikkeaa paljon nvidian toteutuksesta ja se on devaajillekkin uusi juttu.



Aika rohkeaa kyllä alkaa 5v päähän katsomaan että 10G muistia on riittävästi. Kuten HUB videollaan totesi, niin jo nyt 8G alkaa käydä ahtaaksi joissain peleissä. Kun ylitys on gigan verran, niin se ei vielä juurikaan vaikuta suorituskykyyn, jotain visuaalista alkaa näkymään eli popuppeja. Mutta kun mennään tuon gigan ylitte, niin sitten alkaa nylkytys.
10G on varmaan pariksi vuodeksi ihan ok.

Niin 2080 vs 3080 vertailuko on jotenkin huijaamista... Eikös sen olen ihan kahden peräkkäisen generaation vertailua toisiinsa. Sinä itsehän täällä vertailet eri malleja eri generaarioista toisiinsa ja vaahtoat, kuinka se on huijausta tms.

Dirt5 ja WOW on pari hassua poikkeusta, joiden RT:n huono toimivuus NVIDIA:lla johtuu ihan selvästi joistain ajuriongelmista ko. pelien kanssa. Ei ole edes teoriassa mahdollista, että AMD:n korteilla pystyisi laskemaan RT:a nopeammin, jos ajurit/softa toimii molemmilla, niin kun pitää.

Itseä ärsyttää kun täällä ringissä onanioidaan rx6000 sarjan rasterointikykyä (joka on siis käytännössä tasoissa 3000 sarjan kanssa, jos kaikki resot lasketaan yhteen) ja kaikki muu ympärillä on yhden tekevää.

Jos asiaa katsoo objektiivisesti, niin mitä AMD:llä on tarjota enemmän... Pari hassua prosenttia Rasterointiperffiä 1080p ja 1440p resoilla ja enemmän muistia, jonka merkitys on vähintäänkin kyseenalaista. Hinnat on about samat. Kaikessa muussa NVIDIA tarjoaa enmmän ja parempaa.

Hyviä korttejahan nuo uudet AMD laput ovat, mutta jos saatavuus olisi molemmilla normaalilla tasolla, niin aika vähän olisi järkisyitä ostaa AMD:n kortti. Nythän tuo saatavuus saattaa olla huomenna julkaistavissa AMD:n custom malleissa parempaa, mikä toki heilauttaisi vaa-an vahvasti AMD:n puolelle tässä vaiheessa. Se nähdään sitten huomenna. Itse epilen vahvasti, että ei niitäkään montaa minuuttia kauempaa saldoilla tule pyörimään.
 
Godfallin outouksille löytyi myös selitys, kyseisen pelin kehittäjä on päättänyt toteuttaa säteenseurannan ilmeisesti screenspacessa (vrt esim reshade-setit) ja sen myötä performance hit on olematon
 
Godfallin outouksille löytyi myös selitys, kyseisen pelin kehittäjä on päättänyt toteuttaa säteenseurannan ilmeisesti screenspacessa (vrt esim reshade-setit) ja sen myötä performance hit on olematon

Tätähän minä vähän yritin hakea takaa, kyseessä kuitenkin RDNA2 showcase peli ja silti säteenseurantaa ei käytetä edes varjoissa kunnolla joiden pitäisi olla RT opseja keveimmästä päästä?

Tuli kyllä iltapäiväkahvit nenästä melkein
 
Ei taida Dirtissäkään olla kuin RT-varjot. Heijastukset on ihan vanhanaikaiseen tapaan toteutettuja. Aika kepeä toteutus, mikä voi osaltaan selittää sitä, miksi AMD:kin jaksaa sitä ajaa. Kukas jaksaa syynää Dirtin varjot läpi, ettei sielläkin olisi screenspace-toteutus?
 
Tuli kyllä iltapäiväkahvit nenästä melkein

Aivan kuten minulla tulee sama reaktio näiden raytracing hehkutusten takia. Toki jos sillä osaa oikeuttaa itselleen kalliimman näytönohjaimen hankinnan, niin senkun vain mutta itsepetosta uskotella itselleen RT olevan millään asteella vielä järkevää vrt. performance hit.
 
Aivan kuten minulla tulee sama reaktio näiden raytracing hehkutusten takia. Toki jos sillä osaa oikeuttaa itselleen kalliimman näytönohjaimen hankinnan, niin senkun vain mutta itsepetosta uskotella itselleen RT olevan millään asteella vielä järkevää vrt. performance hit.

Eiköhän jokainen päätä omalle kohdalleen mikä on järkevää omassa käytössä. Siihen ei ole muilla mitään sanomista.
 
Godfallin outouksille löytyi myös selitys, kyseisen pelin kehittäjä on päättänyt toteuttaa säteenseurannan ilmeisesti screenspacessa (vrt esim reshade-setit) ja sen myötä performance hit on olematon


Ja tämä piti sitten laittaa piiloon NVIDIA:n korteilta sieltä pelin valikosta... :hmm:
 
Toki jos sillä osaa oikeuttaa itselleen kalliimman näytönohjaimen hankinnan
Saanen hieman nauraa tälle.... :facepalm: Niin mihin hintaan saan huomenna RX6800XT:tä ostettua 660€? 750€? 800€? ja hups taitaa rtx 3080 lähteä alkaen 800€ eli jos yli 800€ ei ole edes nykyhinnoilla halvempaa lystiä tiedossa.
 
Saanen hieman nauraa tälle.... :facepalm: Niin mihin hintaan saan huomenna RX6800XT:tä ostettua 660€? 750€? 800€? ja hups taitaa rtx 3080 lähteä alkaen 800€ eli jos yli 800€ ei ole edes nykyhinnoilla halvempaa lystiä tiedossa.
Tänään oli taas AMD:n omassa kaupassa uusi erä kortteja ihan MSRP-hintaan, saatavilla myös Suomeen.
 
Onko näytönohjaimen ostaminen lopulta vain fanitusta lasit tiukasti silmillä vai ottaako kukaan mieleisemmän arkkitehtuurin myös huomioon? Minulle viime kädessä aina ratkaisee hinta silloin kun meinaan jotain ostaa, mutta jokaisessa sukupolvessa on myös vaikuttanut fiiliksiin arkkitehtuurimuutokset tai täysin uusi arkkitehtuuri. Käytännössä noilla jutuilla ei ole niinkään väliä kunhan kuva tulee ja ruutuja tarpeeksi, mutta olenko ainoa jonka mielestä Nvidian ratkaisu tässä sukupolvessa on "luotettavampi" mitä 'rajaton välimuisti'? 4K-tulokset jo osoittavat ettei muistikaistaa voi noin vain karsia ilman jotain takapakkia, mutta hieno ja innovatiivinen ratkaisu noin muuten tuo välimuisti. En lähtisi juuri enempää maksamaan GeForcesta, mutta enemmän saat raudan muodossa rahallesi vastinetta toisin kuin Pascalin aikoihin, kunhan vain tulee ne isomman muistin mallit.

...

Liittyen säteenseurantavääntöön: Nyt tukee Vulkan säteenseurantaa rautaan katsomatta.

 
Viimeksi muokattu:
Tänään oli taas AMD:n omassa kaupassa uusi erä kortteja ihan MSRP-hintaan, saatavilla myös Suomeen.
Saa? Nvidian kortteja oli kuukausi aikaa tilata useasta paikasta alkaen 739€ näitä pitää olla botti ostamassa tai f5 valmiina juuri oikeaan aikaan on kyllä pelleilyä. Ja kertokaa joku huomisen hinnat. Ainiin ne on salaisuus sentään Nvidian korteilla löytyi hinta ennen kun koetti tilata.
 

Liitteet

  • Jaa.PNG
    Jaa.PNG
    53 KB · Luettu: 33
Saanen hieman nauraa tälle.... :facepalm: Niin mihin hintaan saan huomenna RX6800XT:tä ostettua 660€? 750€? 800€? ja hups taitaa rtx 3080 lähteä alkaen 800€ eli jos yli 800€ ei ole edes nykyhinnoilla halvempaa lystiä tiedossa.

No toista saa nykyisillä hinnoilla alle 700€, toinen on alle 800€. Eli kalliimpi on.

Huomennahan se nähdään mikä on AIB hinnat ja saatavuudet.

Esit: Oho katoinkin väärin että 6800 eikä xt. My bad
 
Viimeksi muokattu:
No toista saa nykyisillä hinnoilla alle 700€, toinen on alle 800€. Eli kalliimpi on.

Huomennahan se nähdään mikä on AIB hinnat ja saatavuudet.
Kumpaakaan ei saa tilattua yhtään mistään eli ei saa ja RX6800 ei kilpaile 3080 kanssa mitenkään. Nvidia rtx 3080 voin vaikka heti laittaa tilauksen sisään 800€ ja sillä hinnalla sen joskus saan. Ja on aika scam tyyli, että hinnat näkee samalla sekunnilla kun pitää jo tykittää tilaus sisään, siinä ei paljoa kerkeä tietää/katsoa etukäteen mikä on edullisin kortti ennenku kaikki myyty.
 
Kumpaakaan ei saa tilattua yhtään mistään eli ei saa ja RX6800 ei kilpaile 3080 kanssa mitenkään. Nvidia rtx 3080 voin vaikka heti laittaa tilauksen sisään 800€ ja sillä hinnalla sen joskus saan.

Edelleen, osta sieltä AMD sivuilta jos niin paljon kiinnostaa.

Tai sitten odottaa huomiseen ja katsoo miten saatavuuden ja hintapolitiikan käy.

Ja nimenomaan.. joskus sen siihen hintaan saat.
 
Saa? Nvidian kortteja oli kuukausi aikaa tilata useasta paikasta alkaen 739€ näitä pitää olla botti ostamassa tai f5 valmiina juuri oikeaan aikaan on kyllä pelleilyä. Ja kertokaa joku huomisen hinnat. Ainiin ne on salaisuus sentään Nvidian korteilla löytyi hinta ennen kun koetti tilata.
Sai, näkyy myynnissä niin kauan kuin saldoa riittää sen sijasta, että kuluttajat tilaisivat tusina korttia ja arpovat sitten sen mukaan mikä sattuu ekana tulemaan. Huomisen hinnat, olettaen että myös huomenna tulee uusi erä, on ihan sama MSRP-hinta kuin ennenkin (tai oikein pilkkua viilaten aavistuksen alle virallisen MSRP:n). AIB-valmistajien hinnat ovat AIB-valmistajien, tukkureiden ja jälleenmyyjien käsissä.
 
Sai, näkyy myynnissä niin kauan kuin saldoa riittää sen sijasta, että kuluttajat tilaisivat tusina korttia ja arpovat sitten sen mukaan mikä sattuu ekana tulemaan. Huomisen hinnat, olettaen että myös huomenna tulee uusi erä, on ihan sama MSRP-hinta kuin ennenkin (tai oikein pilkkua viilaten aavistuksen alle virallisen MSRP:n). AIB-valmistajien hinnat ovat AIB-valmistajien, tukkureiden ja jälleenmyyjien käsissä.
Mulle ainakin parempi tapa oli, että saa laittaa tilauksen sisään ja venata kun kamppeen saa. Pitäs käydä välyllä töissä ym. ei ole aikaa kokoajan kytätä, milloin ehkä tulis kortteja myyntiin ja rämpyttää epätoivoisesti f5.
 

Statistiikka

Viestiketjuista
259 250
Viestejä
4 501 764
Jäsenet
74 375
Uusin jäsen
wookie

Hinta.fi

Back
Ylös Bottom