Virallinen: NVIDIA vs AMD (vs Intel) keskustelu- ja väittelyketju

  • Keskustelun aloittaja Keskustelun aloittaja Sampsa
  • Aloitettu Aloitettu
Mahtaa Nvidia tippua kelkasta, siksi kunnes saa oikean valmistajan(TSMC) piirejä.
Luulenpa että ensiviikon jälkeen kiukaat ostetaan taas rautakaupasta ja Samsung saa rauhassa jatkaa puhelimien parissa eikä Nahkatakkimies™ enää kiekkoja sieltäpäin tilaile.
t: Harvia 3080 -lottoaja

Ongelma ei ole Samsung valmistajana vaan se, että käyttävät Samsungilta vanhaa valmistusprosessia. Esim oma luurini, joka on julkaistu yli puolitoista vuotta sitten, käyttää SoC-piiriä joka tehty samalla valmistusprosessilla.

Tuo Samsungin "8nm" on vaan viilattu versio Samsungin "10nm" prosessista (joka siis on lähempänä Intelin "14nm" prosessia mitoiltaan).

Samsungilla olisi myös uusi EUV-tekniikalla tehty "7nm" prosessi, joka olisi kehittyneempi kuin TSMCn "7nm", mutta jostain syystä päätyivät tuohon vanhempaan "8nm" prosessiin.
 
Ongelma ei ole Samsung valmistajana vaan se, että käyttävät Samsungilta vanhaa valmistusprosessia. Esim oma luurini, joka on julkaistu yli puolitoista vuotta sitten, käyttää SoC-piiriä joka tehty samalla valmistusprosessilla.

Tuo Samsungin "8nm" on vaan viilattu versio Samsungin "10nm" prosessista (joka siis on lähempänä Intelin "14nm" prosessia mitoiltaan).

Samsungilla olisi myös uusi EUV-tekniikalla tehty "7nm" prosessi, joka olisi kehittyneempi kuin TSMCn "7nm", mutta jostain syystä päätyivät tuohon vanhempaan "8nm" prosessiin.

Muistelin vain, että tuo olisi aikanaan Jensen olisi kuittailut Vega VII launchia kärjistetysti viestillä: Ei tartte käyttää kallista prosessia, kun tehdään halvemmalla ja viilatulla prosessilla hyvillä saanneilla isoja kiviä ja on energiatehokas arkkitehtuuri. Piti luntanta sijoittajalausunnot. Se Jensenin lausunto olikin perinteistä diibadaabaa. Eli käytetään prosessia, jossa on meille järkeä ja viilataan sitä yhdessä valmistajan kanssa ja se yhdessä energiatehokkuusarkkitehtuurin kanssa on prioriteetti.

Silti tuo kärjistetty versio taisi olla Amperen idea, otetaan halpa ja kypsynyt prosessi, jolla transistoritiheys nousee vanhaan verrattuna ja luotetaan arkkitehtuurin etumatkaan, ettei AMD pääse ohittamaan. Joko Samsung oli odotettua huonompi, tai sitten AMD/konsolit/jotain uhkasi yllättää ja kellot piti vetää tappiin.
 
No tuskin nyt päin naamaa sentään valehtelee, kun nöytti 3 tuulettimista korttia ja puhui big navista ja sitten sanoi että nyt saadaan pikku maistiaiset tästä. Vähintään 6800XT tuloksia niiden oli oltava tai sitten on taas ihme kikkailua ja kepulihommaa.

Liian hyvää on ollakseen totta omasta mielestä tuo 6800xt:n 20% parempi suorituskyky vs 3080. Olisi kyllä aikamoinen jumalkortti kyseessä, jos se pitää paikkansa. Parempi pitää odotukset maltillisena, niin ei tule pettymyksiä.
Jos oikein hubblella zoomaa ääniaaltoihin, saattaa huomata että Su puhui koko ajan "Radeon RX 6000-sarjasta" ja sen suorituskyvystä, ei mistään yksittäisestä mallista vaikka 3 tuulettimella varustettua mallia esittelikin.
 
Jos oikein hubblella zoomaa ääniaaltoihin, saattaa huomata että Su puhui koko ajan "Radeon RX 6000-sarjasta" ja sen suorituskyvystä, ei mistään yksittäisestä mallista vaikka 3 tuulettimella varustettua mallia esittelikin.
Ja jos oikein tarkasti katsoo niitä tuloksia, sanottiinko missään että ne oli avg fps? Ties vaikka olivat low fps...

Eikö siinä vaan lukenut että Frame rates.


(Kyllä 99.9% varmuudella olivat avg)
 
Samsungilla olisi myös uusi EUV-tekniikalla tehty "7nm" prosessi, joka olisi kehittyneempi kuin TSMCn "7nm", mutta jostain syystä päätyivät tuohon vanhempaan "8nm" prosessiin.

Kestää aikansa ennenkuin uudet prosessit saadaan viilattua suurille piireille sopiviksi. Nvidian ongelmahan ei ole tuo 8nm prosessi, sangen hyviä piirejähän sillä saavat tehtyä, vaan se että 8nm saannotkin suurille piireille ovat vielä huonoja.
 
Kestää aikansa ennenkuin uudet prosessit saadaan viilattua suurille piireille sopiviksi. Nvidian ongelmahan ei ole tuo 8nm prosessi, sangen hyviä piirejähän sillä saavat tehtyä, vaan se että 8nm saannotkin suurille piireille ovat vielä huonoja.
Monta kappaletta 1000:sta chipistä EI kelpaa edes 3080:aan, kun kerran tiedät nuo saannot?
 
Monta kappaletta 1000:sta chipistä EI kelpaa edes 3080:aan, kun kerran tiedät nuo saannot?

Vähän aikaa sitten oli uutisissa että nVidia rajoittaa tuotantoa kunnes Samsung saa yieldejä parannettua. Eli tuotanto em. saannoilla ei ollut edes kannattavaa - voisi veikata että aika moni.

Toinen uutinen oli että 30% 3080:sistä menee roskabinniin - ei saavuta haluttuja kellotaajuuksia.
 
Viimeksi muokattu:
Vähän aikaa sitten oli uutisissa että nVidia rajoittaa tuotantoa kunnes Samsung saa yieldejä parannettua. Eli tuotanto em. saannoilla ei ollut edes kannattavaa - voisi veikata että aika moni.

Toinen uutinen oli että 30% 3080:sistä menee roskabinniin - ei saavuta haluttuja kellotaajuuksia.
Eli saannot on siis 70 %! sehän on oikein hyvä, kun niistä heikommista voidaan tehdä sitten 3070:a ja sitä kehnompia, kunhan niitä pyörii nurkissa tarpeeksi.
Uutissa oli myös siitä, että tuotantomääriä ei rajoita pii coret vaan ihan muu asia. ja ko asia ei korjautune tämän vuoden puolella.
 
Eli saannot on siis 70 %! sehän on oikein hyvä, kun niistä heikommista voidaan tehdä sitten 3070:a ja sitä kehnompia, kunhan niitä pyörii nurkissa tarpeeksi.
Uutissa oli myös siitä, että tuotantomääriä ei rajoita pii coret vaan ihan muu asia. ja ko asia ei korjautune tämän vuoden puolella.

70% saannot 3080:n binnistä joka on jotain luokkaa 2/3 piiri. Turha arvailla todellisia saantoja mutta jos jo kellotaajuusbinnaus tiputtaa 30% leikatuista piireistä niin ei olla kovin korkealla. Jos kuitenkin oletetaan että Samsung ei hyväntekeväisyyttään anna nVidialle kiekkoja ihan ilmaiseksi niin 630 neliömillin piirejä hyvillä saannoilla kustantaa satasen per piiri - kaksi jos leikattujen piirien kanssakin saannot jää 50 prosenttiin. Kovin huonoilla yieldeillä ei vaan kannata noiden teko - 3080 on kohtuullisen alhaiseksi hinnoiteltu.
 
Vähän aikaa sitten oli uutisissa että nVidia rajoittaa tuotantoa kunnes Samsung saa yieldejä parannettua. Eli tuotanto em. saannoilla ei ollut edes kannattavaa - voisi veikata että aika moni.

Toinen uutinen oli että 30% 3080:sistä menee roskabinniin - ei saavuta haluttuja kellotaajuuksia.
Ei mitään tuollaista ensimmäistä ”uutista” ole ollut. Yhden nimettömän lähteen ”arvaus” piiriperumisten mahdollisesta syystä. Keksit ihan omiasi taas tässä.
 
Ei mitään tuollaista ensimmäistä ”uutista” ole ollut. Yhden nimettömän lähteen ”arvaus” piiriperumisten mahdollisesta syystä. Keksit ihan omiasi taas tässä.

Eli joku muukin arvaus kuin Samsungin saanto-ongelmat on esitetty huonon saatavuuden syyksi?

Ja ennen sivuraiteille lähtöä pointti oli että edes 8nm Samsungin prosessi ei ole juorujen perusteella valmis näin suurien piirien valmistamiseen ja 7nm on vielä paljon kauempana. Eli nVidialla oli syynsä 8nm valintaan 7nm sijasta Samsungin valikoimasta, ja mahdollisesti jopa palaavat käyttämään TSMC:tä jos Samsung ei saantoja saa kuntoon suurille piireille.
 
Ja ennen sivuraiteille lähtöä pointti oli että edes 8nm Samsungin prosessi ei ole juorujen perusteella valmis näin suurien piirien valmistamiseen ja 7nm on vielä paljon kauempana. Eli nVidialla oli syynsä 8nm valintaan 7nm sijasta Samsungin valikoimasta, ja mahdollisesti jopa palaavat käyttämään TSMC:tä jos Samsung ei saantoja saa kuntoon suurille piireille.

Toisaalta luulisi, että Nvidia:lla olisi ollut jo kauan sitten tiedossa mahdolliset saanto-ongelmat, mutta silti pistettiin 20x0 korttien tuotanto seis ja nythän tilanne on aika pitkälle se, että et pysty ostamaan mitään high-end korttia Nvidialta, ei vanhoja eikä uusia. Jossain joku on ryssinyt aika huolella oli syy sitten mikä tahansa. Tai sitten siellä on todettu, että 6800xt menee rtx3080:n ohi ja nyt siirretään tuotanto takaisin TSMC:lle jotta saadaan kelloja ylös.
 
Toisaalta luulisi, että Nvidia:lla olisi ollut jo kauan sitten tiedossa mahdolliset saanto-ongelmat, mutta silti pistettiin 20x0 korttien tuotanto seis ja nythän tilanne on aika pitkälle se, että et pysty ostamaan mitään high-end korttia Nvidialta, ei vanhoja eikä uusia. Jossain joku on ryssinyt aika huolella oli syy sitten mikä tahansa. Tai sitten siellä on todettu, että 6800xt menee rtx3080:n ohi ja nyt siirretään tuotanto takaisin TSMC:lle jotta saadaan kelloja ylös.

Sehän on vain kehitystä, samoin kävi aikanaan kun nVidia lopetti GTX285:n tuotannon kun epäilivät niiden saamista kaupaksi parempaa AMD:n vastinetta vastaan. Nämä uudet piirithän ovat paljon parempia kuin vanhat, tuotannon kuprut kun saadaan oiottua niin ei ole mitään syytä tuottaa vanhaa sarjaa - tosin siinähän on aina se kysymysmerkki.
 
Tai sitten siellä on todettu, että 6800xt menee rtx3080:n ohi ja nyt siirretään tuotanto takaisin TSMC:lle jotta saadaan kelloja ylös.

Ei sitä tuotantoa noin vain siirretä eri valmistajalle ja prosessille. Pitää suunnitella uusi piiri ja se ei hetkessä tapahdu...
 
En tiedä, mikä olisi oikea ketju, mutta tulin vain valittamaan AMD:n ajureista. Kirjoitin AM4-emolevyketjuun, että kombinaatio C6H+3600X olisi ollut joskus epävakaa, mutta nuo ongelmat hävisivät, kun Vega56 poistui koneesta. Peleissä ei kaatunut, eikä rasitettaessa, mutta videota (!) katsellessa netistä (esim. ihan youtube) pätki ja oireili.

Otin Vega56:n pois, kun valmistauduin odottamaan RTX 3080:ia, ja korvasin sen GTX 660:lla (luit oikein). Kaikki ongelmat loppui, paitsi tuo ei nyt kiihdyttänyt jotain videoita oikein, mutta 8-ydin prosessori hoitaa sen.

Ymmärrän, ettei videotuki ole sen kehityksen ykkösprioriteetti, mutta tässä on nyt RX 570:kin käynyt koneessa ja sillä toimi mainiosti. Myös toisessa koneessa, jossa on GTX 1080.

Lisäksi ICM-väriprofiilit katosi joskus sleepistä herättäessä, mutta se ei ole nyt maailmaa kaatava ongelma.

Peleissä tosiaan ei mitään ongelmia miesmuistiin.

--

Ajurit aina tuoreimmat mahdolliset ja AMD:n päivitys failasi sekin kerran niin pahasti, että jouduin DDU:lla poistamaan ajurit ja asentamaan ne puhtaalta pöydältä. Tuo uusi Radeon Software on kuitenkin tämän vuoden toiminut ok.
 
Lisäksi ICM-väriprofiilit katosi joskus sleepistä herättäessä, mutta se ei ole nyt maailmaa kaatava ongelma.
Tämä ainakin on vaan windowsin ominaisuus. Joku ICM manager kannattaa olla koneella jos on tähdellistä että värit on aina oikein. Esim. displayCal asentaa moisen sulle, samoin kuin vaikka spyderin kalibrointisofta.
 
En tiedä, mikä olisi oikea ketju, mutta tulin vain valittamaan AMD:n ajureista. Kirjoitin AM4-emolevyketjuun, että kombinaatio C6H+3600X olisi ollut joskus epävakaa, mutta nuo ongelmat hävisivät, kun Vega56 poistui koneesta. Peleissä ei kaatunut, eikä rasitettaessa, mutta videota (!) katsellessa netistä (esim. ihan youtube) pätki ja oireili.

Otin Vega56:n pois, kun valmistauduin odottamaan RTX 3080:ia, ja korvasin sen GTX 660:lla (luit oikein). Kaikki ongelmat loppui, paitsi tuo ei nyt kiihdyttänyt jotain videoita oikein, mutta 8-ydin prosessori hoitaa sen.

Ymmärrän, ettei videotuki ole sen kehityksen ykkösprioriteetti, mutta tässä on nyt RX 570:kin käynyt koneessa ja sillä toimi mainiosti. Myös toisessa koneessa, jossa on GTX 1080.

Lisäksi ICM-väriprofiilit katosi joskus sleepistä herättäessä, mutta se ei ole nyt maailmaa kaatava ongelma.

Peleissä tosiaan ei mitään ongelmia miesmuistiin.

--

Ajurit aina tuoreimmat mahdolliset ja AMD:n päivitys failasi sekin kerran niin pahasti, että jouduin DDU:lla poistamaan ajurit ja asentamaan ne puhtaalta pöydältä. Tuo uusi Radeon Software on kuitenkin tämän vuoden toiminut ok.

Itsellä ei koskaan ole ollut ongelmia amd:n saati nvidian ajureissa.

Nytkään emme tiedä, onko se vega 56 ollut jossain määrin heikko kappale.. yleensä ajurien ja koneiden kaatumiset itsellä johtunut raudasta (kellottelusta).
 
Itsellä ei koskaan ole ollut ongelmia amd:n saati nvidian ajureissa.

Nytkään emme tiedä, onko se vega 56 ollut jossain määrin heikko kappale.. yleensä ajurien ja koneiden kaatumiset itsellä johtunut raudasta (kellottelusta).

Sapphire Vega56 PULSE ja Silent BIOS valittuna (eli kellot , lämpö ja kulutus alaspäin).

Nvidian ajureissa ei ole minullakaan ollut ongelmaa, sama tilanne oli joskus Sapphire RX 480 NITRO ja Asus GTX 1060 STRIX kanssa. Toisella oli vakausongelmia, toisella ei. Kryptomainaajalle kuitenkin kelpasi RX 480, kun siinä oli paremmat Samsungin muistit ja vaihdoin vihreään ja pääsin ongelmistani. Silloin ongelmat oli kanssa työpöydällä, videotoistossa ja siinä AMD:n kikkareessa, joka tallentaa pelivideota (Ei siis tarvinnut olla käytössä. Riitti, että oli asennettuna ja epävakautta tuli). Ei peleissä.
(Asuksen GPU Tweak kyllä aiheutti ongelmia samalla kokoonpanolla, mutta ei Nvidian ajurit.. Myös Sapphiren TRIXX-softa temppuili, mutta netin mukaan kaikilla muillakin)

edit: siis yksi ongelma oli, että silent-tila ei toiminut RX 480:lla multimonitor-ympäristössä, koska se tietyllä versiolla nosti GPU:n kellot pelitilaan, niin kiva se oli työpöydällä kuunnella niitä tuulettimia. Tämäkin oli tunnettu ongelma (ja kyllä korjattiinkin myöhemmin).
 
Viimeksi muokattu:
Aika monella jolla on ollut noita ongelmia videoiden katselun kanssa on käytössä Chrome... Itsellä toimii hyvin ja käytän Firefoxia/Edgeä...
 
Aika monella jolla on ollut noita ongelmia videoiden katselun kanssa on käytössä Chrome... Itsellä toimii hyvin ja käytän Firefoxia/Edgeä...
Tiedä sitten että mikä siellä on vikana, ehkä joku API kutsu on kirjoitettu väärin tai muuta. AMD vois tommoset tapaukset kyllä käydä läpi ja korjailla virheet paljon käytetyistä vapaan lähdekoodin projekteista.
 
Chrome ei ole vapaan lähdekoodin projekti vaan ihan googlen omat palvelut ja modifikaatiot pultattuna Chromiumin päälle. Ei toki muuta sitä etteikö sen soisi toimivan.
 
Chrome ei ole vapaan lähdekoodin projekti vaan ihan googlen omat palvelut ja modifikaatiot pultattuna Chromiumin päälle. Ei toki muuta sitä etteikö sen soisi toimivan.
Aivan, tosin noi GPU kiihdytetyt videosoittimet taitaa löytyä chromiumistakin ja ihmettelisin jos sen ja Chromen välillä on eroa siltä osin.
 
Kyllä siinä eroja on, mutta en ole tutustunut kuinka paljon. Esim. Netflix ei toimi linuxissa kuin Chromessa, kun se käyttää noita Googlen lisäilemiä DRM rajapintoja (no hyvä että toimii edes jossain). En tosin Radeonilla ole tässä läppärissä testaillut (noh, kun nvidian vanhempi piiri on ja näihin ei lähdetä vaihtelemaan ;), joten en tiedä onko ajuripuolella tuolta osin eroja ja miten noi toimivat multigpu tilanteissa. Tällä nykyajurilla näytönohjaimen vaihtaminen nvidian ja intelil välillä on jo aika purkkaviritys. Community viritelmillä ja vanhemmilla versioilla toimivat ihan ok softakohtaisesti, mutta virallisten ajureiden puolen tuki vaatii ulos kirjautumista mikä on jokseenkin syvältä). AMD olisi siis seuraavaksi ostolistalla kun ei se ainakaan tätä huonommin voi enää toimia.
 
Ei sitä tuotantoa noin vain siirretä eri valmistajalle ja prosessille. Pitää suunnitella uusi piiri ja se ei hetkessä tapahdu...

Niin siis sitähän ei tiedetä etteikö Nvidialla olisi ollut protoja Samsungilta/TSMC:ltä jo aikoja sitten ja silloin oltaisiin päädytty Samsungiin ja nyt sitten pikavauhtia takaisin TSMC:lle. No, pian varmaan selviää.
 
Niin siis sitähän ei tiedetä etteikö Nvidialla olisi ollut protoja Samsungilta/TSMC:ltä jo aikoja sitten ja silloin oltaisiin päädytty Samsungiin ja nyt sitten pikavauhtia takaisin TSMC:lle. No, pian varmaan selviää.
Aika paljon on resursseja tuhlattu jos on kahta piiriä suunniteltu yhtä aikaa... Onhan se toki mahdollista, mutta tuskin kovin taloudellisesti järkevää...
 
Aika paljon on resursseja tuhlattu jos on kahta piiriä suunniteltu yhtä aikaa... Onhan se toki mahdollista, mutta tuskin kovin taloudellisesti järkevää...

Ja siinä hypoteettisessa keississä että OLISI suunniteltu molemmille yhtäaikaisesti ei ole kuluttajalle kauhean montaa hyvää vaihtoehtoa.

1. Suorituskyvyssä ei ole eroa, Nvidia on valinnut halvemman = Samsungin loogisista syistä. Ei ole odotettavissa suurta eroa suorituskykyyn TSMC:n piireillä.

2. Valittu parempi piireistä, jolloin ei ole odotettavissa suorituskyvyn lisäystä TSMC:n piireiltä.

3. Valittu halvempi ja huonompi piiri. Yritetään siirtää suorituskyvyn nousua tulevaisuuteen ja rahastaa kuluttajilta helpot rahat useaan kertaan kun kilpailu jää jalkoihin joka tapauksessa. Todistaa sen, että Nvidialla ei ole riittävää painetta maksimoida tuotekehitystä ja tämä on kuluttajalle pitkässä juoksussa huono tilanne. Lisäksi rahaa tuhlattiin turhaan R&D:hen kehittämällä tuotantolinjat kahdelle samalle, mutta hieman erilaiselle piirille. Luulisi olevan imagolle huono ratkaisu vaihtaa valmistajaa heti julkaisun jälkeen.
 
Hieman nyppi tuo, että 6900 XT vs. 3090 oli tehty rage mode ja muistioptimointi päällä.
 
Eipä ollu oikein mitään mainitaa RT suorituskyvystä. :tdown:

Tulkitsen sen niin, että ei todennäköisesti oikein tasaväkisesti kilpaile RTX 3000 sarjan kanssa siinä...

Muutenhan nuo aika koville jytkyille vaikuttaa. :tup:
 
Viimeksi muokattu:
Hieman nyppi tuo, että 6900 XT vs. 3090 oli tehty rage mode ja muistioptimointi päällä.
Tuskin kovin paljon vaikutusta muistioptimoinnilla 4k resolla.
Jos Rage moden kanssa kulutus samaa luokkaa 3090 kanssa niin eiköhän se ole ihan reilu vertailu?

Toki kannattaa odotella kolmansien osapuolten testit ensin...
 
Eipä ollu oikein mitään mainitaa RT suorituskyvystä. :tdown:

Tulkitsen sen niin, että ei todennäköisesti oikein tasaväkisesti kilpaile RTX 3000 sarjan kanssa...

Muutenhan nuo aika koville jytkyille vaikuttaa. :tup:
Tai sitten RTX pelit ei toimi suoraan näillä... Uudet pelit sitten toimii molemmilla.
 
Tai sitten RTX pelit ei toimi suoraan näillä... Uudet pelit sitten toimii molemmilla.
Ei ne ole mitään "RTX-pelejä", ei RTX ole mitään muuta kuin NVIDIAn nimi omille seteilleen. Vulkan-pohjaiset pelit eivät toimi oletettavasti AMD:n näytönohjaimilla ennen kuin ne päivitetään käyttämään sopivaa laajennosta, koska tällä hetkellä käyttävät tiettävästi NVIDIAn omaa laajennosta siellä. DirectX-puolella kyse on DXR-rajapinnasta, toimii molemmilla.
 
Onkohan Tomb Raiderissa ja Youngbloodissa ollut Ray Tracing päällä, kun tuloksia kuitenkin vertailtiin? Muutoin tosiaan aika kummallista, että RT suorituskyvystä ei mitään mainintaa.

Harmi ettei tuo 6800 varsinaisesti kilpaile edes hinnalla RTX 3070 kanssa, vaan sijoittuu hieman sen yläpuolelle hieman kalliimpana. Kaipaisi tuohon ~500e hintaluokkaan yhden tuotteen myös.

Tosin täällähän moni oli vakuuttunut, ettei AMD yllä kuin juuri ja juuri RTX 2080ti tasolle tai vähän yli parhaalla kortillaan :lol: siltä kantilta ainakin AMD julkaisu aika jytky ja pitää nyt harkita tilaako sitä RTX 3070 kuitenkaan huomenna.
 
Noh, ainakin tuo esitelty WoW Shadowlandsin DXR-implementaatio pyörii ongelmitta jo 2060:llä, joka on aivan tuhnu vaativammissa säteenseurantapeleissä.
 
Onkohan Tomb Raiderissa ja Youngbloodissa ollut Ray Tracing päällä, kun tuloksia kuitenkin vertailtiin? Muutoin tosiaan aika kummallista, että RT suorituskyvystä ei mitään mainintaa.

Harmi ettei tuo 6800 varsinaisesti kilpaile edes hinnalla RTX 3070 kanssa, vaan sijoittuu hieman sen yläpuolelle hieman kalliimpana. Kaipaisi tuohon ~500e hintaluokkaan yhden tuotteen myös.

Tosin täällähän moni oli vakuuttunut, ettei AMD yllä kuin juuri ja juuri RTX 2080ti tasolle tai vähän yli parhaalla kortillaan :lol: siltä kantilta ainakin AMD julkaisu aika jytky ja pitää nyt harkita tilaako sitä RTX 3070 kuitenkaan huomenna.

Voisin panna vaikka RTX 3090:ni pantiksi, että ei ollut RT päällä Tomb Raiderissa tai Young Bloodissa... :p
 
RTX:ssä on huomionarvoista se, että se nojaa vahvasti hieman DLSS:n tyyliseen kuvanparannukseen. Eli säteitä ammutaan huomattavan vähän ja niistä poistetaan kohina jollain Nvidian algolla. Ennen algoa heijastukset näyttävät melko surkeilta. Tähän ja DLSS:n kilpailijan puutteeseen nojaten rakentaisin aasinsillan, että radeonin DXR-toteutus ei ole mikään kummoinen.

Mutta tuo nojaa aika moneen oletukseen, enkä ole minkään tason asiantuntija säteenseurannassa tai millään muullakaan tietokonegrafiikan alalla.
 
Onkohan Tomb Raiderissa ja Youngbloodissa ollut Ray Tracing päällä, kun tuloksia kuitenkin vertailtiin? Muutoin tosiaan aika kummallista, että RT suorituskyvystä ei mitään mainintaa.
Ei ole RT päällä noissa, netistä löytyy 3090 revikat, joissa esiintyy hyvin samanlaiset suorituskykylukemat, kun RT pois päältä.

Varmaan se RT suorituskyky jätettiin täysin näyttämättä, koska ovat tuntuvasti jäljessä. Tai sitten jostain syystä haluavat jytkyttää ylivertaista RT perffiä vasta myöhemmin, mutta tätä en pidä kyllä todennäköisenä.
 
Ei ole RT päällä noissa, netistä löytyy 3090 revikat, joissa esiintyy hyvin samanlaiset suorituskykylukemat, kun RT pois päältä.

Varmaan se RT suorituskyky jätettiin täysin näyttämättä, koska ovat tuntuvasti jäljessä. Tai sitten jostain syystä haluavat jytkyttää ylivertaista RT perffiä vasta myöhemmin, mutta tätä en pidä kyllä todennäköisenä.
Ajattelisin juuri näin. Niinkin vahvasti että ostin ”käytetyn” 3080 tuffin.
On täysin varmaa minun mielestä että jos siellä olisi ollut lihaa luiden ympärille niin se olisi heitetty lisälöylynä kiukaalle.
 
Olisikohan tuo 6900XT:n julkaisu viimeinen vahvistus sille että NVidialta tulee 3080 Ti tuohon $999 hintaluokkaan n. 3090:n suorituskyvyllä.
 
Olisikohan tuo 6900XT:n julkaisu viimeinen vahvistus sille että NVidialta tulee 3080 Ti tuohon $999 hintaluokkaan n. 3090:n suorituskyvyllä.

Jää tuo 3090 aika marginaalituotteeksi, jos näin on. Jos tuossa ei nyt sitten jotain erityistä eroa ole jossakin devaus/sovellus puolella, mikä uupuu alemmista korteista. Mutta 3090 jo puhtaasti pelaamiseen ostaneet tuossa ottaa jonkin verran takkiin rahallisesti.
 
Olisikohan tuo 6900XT:n julkaisu viimeinen vahvistus sille että NVidialta tulee 3080 Ti tuohon $999 hintaluokkaan n. 3090:n suorituskyvyllä.
Mä väittäsin että Nvidian 3080 Ti (Super?) julkaisu on se viimeinen vahvistus, jos sellaista tulee. :asif:
 
Mä väittäsin että Nvidian 3080 Ti (Super?) julkaisu on se viimeinen vahvistus, jos sellaista tulee. :asif:
Olihan tuosta jo huhuja suht luotettavasta lähteestä ja on aikaa odotella, 3080 TUF tuskin tän vuoden puolella saapuu. :x3:
 
Miten noissa tämän päiväisissä julkaisuissa menee virtavaatimukset vrt. oletettu kilpailija. Eli 6800 vs 3070, 6800XT vs 3080 ja 6900 vs 3090? AMD:n julkaisukuvissa pyörähti jossain vaiheessa perinteinen 2x8-pin liitin, mutta en huomannut katsoa minkä mallin kohdalla.
 
Miten noissa tämän päiväisissä julkaisuissa menee virtavaatimukset vrt. oletettu kilpailija. Eli 6800 vs 3070, 6800XT vs 3080 ja 6900 vs 3090? AMD:n julkaisukuvissa pyörähti jossain vaiheessa perinteinen 2x8-pin liitin, mutta en huomannut katsoa minkä mallin kohdalla.

Recommend PSU 6900 XT 850W ja 6800 XT 750W ja 6800 650W.

Edit. Löytyy AMD:n tuotesivuilta nuo tiedot.
 
Ei ne ole mitään "RTX-pelejä", ei RTX ole mitään muuta kuin NVIDIAn nimi omille seteilleen. Vulkan-pohjaiset pelit eivät toimi oletettavasti AMD:n näytönohjaimilla ennen kuin ne päivitetään käyttämään sopivaa laajennosta, koska tällä hetkellä käyttävät tiettävästi NVIDIAn omaa laajennosta siellä. DirectX-puolella kyse on DXR-rajapinnasta, toimii molemmilla.
Ja kaikki pelit joista säteenseuranta löytyy on tehty täysin standardien mukaan?

Jos niin on niin toki silloin ei ole ongelmaa...
 
Ja kaikki pelit joista säteenseuranta löytyy on tehty täysin standardien mukaan?

Jos niin on niin toki silloin ei ole ongelmaa...

Eiköhän tulevat pelit ainakin tehdä, kun AMD:n suhtautuminen säteenseurantaan on ollut pelintekijöillä jo pitkään tiedossa. Nyt olemassa olevista RT peleistä saattaa löytyä muutama, jossa nVidialla valtava etu. Kaikkiin tulee varmasti joku patchi kuitenkin AMD näyttiksiä varten.
 
Ja kaikki pelit joista säteenseuranta löytyy on tehty täysin standardien mukaan?

Jos niin on niin toki silloin ei ole ongelmaa...
Eiköhän tulevat pelit ainakin tehdä, kun AMD:n suhtautuminen säteenseurantaan on ollut pelintekijöillä jo pitkään tiedossa. Nyt olemassa olevista RT peleistä saattaa löytyä muutama, jossa nVidialla valtava etu. Kaikkiin tulee varmasti joku patchi kuitenkin AMD näyttiksiä varten.
Ei ole mitään, mikä viittaisi johonkin muuhun kuin DXR:n käyttöön DirectX 12 RT -peleissä.
 

Statistiikka

Viestiketjuista
257 127
Viestejä
4 466 389
Jäsenet
73 897
Uusin jäsen
hal90210

Hinta.fi

Back
Ylös Bottom