AMD-spekulaatioketju (RDNA:n ja CDNA:n tulevat sukupolvet)

Joo ja vähän liian tieteellisesti porukka näitä selvittää... Mun logiikalla custom vesijäähdytys on tehokkain tapa jäähdyttää näytönohjain. Ja täällä on ollut sen tasoisia vastauksia, että ohjaimen pitää käydä todella kuumana, että tehokkaampi jäähdytys on mahdollinen. Eli jos käytän custom vesijäähdytystä valmiiksi viileämmän kortin kanssa, jossa korkeampi power limit (strix ym.) niin tämä ei ilmeisesti olekaan hyvä vaan tehokas jäähdytys on, jos kortti käy 90c, vakio tuulettimilla, jotka ovat nyt sitten maagisesti paras jäähdytys näytönohjaimelle koskaan vai miten homma nyt menee?

Riippuu miten se tehokkain määritellään. Jos piiriä voidaan käyttää kuumemapana niin siinä voidaan käyttää joko kevyempää jäähyä (säästöä), tai sitä tuulettimia voidaan käyttää matalammilla kierroksilla (hiljaisuus). Vesijäähy on asteissa mitattuna tehokkain, mutta se on tehottomin siirrettyn ilmamäärään nähden tai tarvittavavaan jäähdytyspinta-alaan nähden. Pienemmän lämpötilaeron vuoksi lämpöä siirtyy vähemmän veteen ja vähemmän radiaattoreista ilmaan. Eli tuo kuumemman tehokkuus tulee siitä, että isompi lämpötilaero aiheuttaa paremman lämmön siirtymisen, jota jäähdytys lopulta on. Sen huomaa vesijäähyssäkin, toisen radin lisäys ei laskekkaan veden lämpötilaa odotetusti, vaan hyötysuhde heikkenee.

Noista lämmöistä ja käyttöiästä on aika tarkat simulaatiot, eikä se ole mitään uutta. Esim autojen moottorit on nykyään paljon kevyempiä, kun metallurgia on parempaa ja ei tarvitse tehdä niin isoja toleransseja. Ynnä niiden käyttöikä voidaan mallintaa paremmin, joten sekin vähentää "varmuuden vuoksi" marginaaleja.
 
Joo ja vähän liian tieteellisesti porukka näitä selvittää... Mun logiikalla custom vesijäähdytys on tehokkain tapa jäähdyttää näytönohjain. Ja täällä on ollut sen tasoisia vastauksia, että ohjaimen pitää käydä todella kuumana, että tehokkaampi jäähdytys on mahdollinen. Eli jos käytän custom vesijäähdytystä valmiiksi viileämmän kortin kanssa, jossa korkeampi power limit (strix ym.) niin tämä ei ilmeisesti olekaan hyvä vaan tehokas jäähdytys on, jos kortti käy 90c, vakio tuulettimilla, jotka ovat nyt sitten maagisesti paras jäähdytys näytönohjaimelle koskaan vai miten homma nyt menee?
Ehkä kannattaa vielä lukaista ne vastaukset läpi ajatuksella. Olet tainnut lukea ne vähän huonosti jos tuollaisia ajatuksia jäi päällimmäiseksi.
 
Ehkä kannattaa vielä lukaista ne vastaukset läpi ajatuksella. Olet tainnut lukea ne vähän huonosti jos tuollaisia ajatuksia jäi päällimmäiseksi.
Kyllä sanon yleisenä koontina, koska normaalille kuluttajalle ei ole noilla tieteellisillä asioilla mitään väliä, että jäähdytys on paras jos samalla piirillä saadaan enemmän kelloja hiljaisemmalla toiminnalla ja viileämmillä lämpötiloilla verrattuna toiseen jäähdytysratkaisuun. Tässä tapauksessa jäähdytyksen on oltava myös tehokas, eikä vain silloin jos surkealla jäähyllä kortti throttlaa vakiona(radeon vii) yms. Lisäksi kuten tuossa aiemmin sanottiin, että viileämpi kortti vie vähemmän sähköä, eli hukkaa turhana lämpönä vähemmän tehoja.

En oikeasti ymmärrä miten porukka väittää, että on hienoa jos kortti käy todella kuumana vs. Että ei käy, mutta kukin tavallaan en jaksa näistä enempää vääntää.
 
Minä testailin ainakin 3090:lla, joka kulutti 50 asteisena noin 40-50 wattia vähemmän kun 69 asteisena.
Ettei ois kovemmat buustikellot+jänöt pienemmällä lämmöllä? Näinhän tuo kortti toimii. Kyllähän kuumassa piirissä on suurempi vastus, joka muuttuu lämmöksi, mutta jos erot on 50 wattia niin jossain muussa on jo vika. Tuo on kuitenkin vaikka yhden voltin jännitteellä 50 amppeeria lisäkulutusta..
 
Ettei ois kovemmat buustikellot+jänöt pienemmällä lämmöllä? Näinhän tuo kortti toimii. Kyllähän kuumassa piirissä on suurempi vastus, joka muuttuu lämmöksi, mutta jos erot on 50 wattia niin jossain muussa on jo vika. Tuo on kuitenkin vaikka yhden voltin jännitteellä 50 amppeeria lisäkulutusta..

Samaa veikkaan. Tietämättä tarkemmin veikkaisin että 60->90 asteen käyttölämpötilaero ei vielä tunnu kuin max muutamia prosentteja enempää hukkawatteina.
 
Ettei ois kovemmat buustikellot+jänöt pienemmällä lämmöllä? Näinhän tuo kortti toimii. Kyllähän kuumassa piirissä on suurempi vastus, joka muuttuu lämmöksi, mutta jos erot on 50 wattia niin jossain muussa on jo vika. Tuo on kuitenkin vaikka yhden voltin jännitteellä 50 amppeeria lisäkulutusta..

Juu ei. Jönnite ja kellot oli cäpätty ja pysyivät koko ajan samana.
 
Joo ja vähän liian tieteellisesti porukka näitä selvittää... Mun logiikalla custom vesijäähdytys on tehokkain tapa jäähdyttää näytönohjain. Ja täällä on ollut sen tasoisia vastauksia, että ohjaimen pitää käydä todella kuumana, että tehokkaampi jäähdytys on mahdollinen. Eli jos käytän custom vesijäähdytystä valmiiksi viileämmän kortin kanssa, jossa korkeampi power limit (strix ym.) niin tämä ei ilmeisesti olekaan hyvä vaan tehokas jäähdytys on, jos kortti käy 90c, vakio tuulettimilla, jotka ovat nyt sitten maagisesti paras jäähdytys näytönohjaimelle koskaan vai miten homma nyt menee?
Referenssijäähyissä eritoten puhutaan kustannustehokkuudesta, mitä kevyemmällä jäähdytyksellä saadaan luvatut kellot aikaiseksi sitä parempi. Blowereissa siedettävä äänentaso on hiukan mahdoton yhtälö, toivottavasti nuo uudet toimisivat samalla tasolla kuin Nvidian FE -jäähyt.
AIB:ssakin järeämmän jäähyn ensisijaiset edut ovat äänentaso ja mahdolliset kellot, ei lämpötila. Nykyään tosin varsinaisen throttlausrajan alapuolellakin pidempiaikaiset kellotaajuudet tietääkseni hyötyvät pienemmistä lämmöistä.

Tähän sellainen pikkukorjaus, että piirit kuluttavat enemmän sähköä, kun ne käyvät kuumempina. Joku täällä omalla 3080:aan testaili lämptötilan vaikutusta, ja taisi saada jopa useamman kymmenen watin eron aikaiseksi.
Juu ei. Jönnite ja kellot oli cäpätty ja pysyivät koko ajan samana.
Yllättävän isoja eroja sitten kuitenkin, oletin että vaikutus olisi mitätön tässä kontekstissa (pari-kolmekymmentä astetta).
 
Tuolla tuloksella ja logiikalla kannattaa jo jäähdyttää kortti vaikka -100 asteeseen, se alkaa lineaarisella kaavalla tuottamaan sinulle sähköä samalla kuin pelaat.

No jännite ja taajuus oli afterburnerin voltage curvella capattu. 1890MHz@0,850mV. Avasin suoerpositionin "Game" moden ja asetin kameran katsomaan tiettyyn suuntaan. Tarkoitus oli vaan katsoa, mihin asti lämmöt nousee tuolla jännitteellä ja volteilla. Mulla oli afterburnerissa päällä myös wattien mittaus ja se oli laitettu näkymään OSD:ssä. Siinä lämpöjen nousua kytätessä huomasin, että wattimäärä nousi tadaisesti sitä mukaa, kun lämmötkin, vaikka jännite oli koko ajan se 0,850mV ja kellot 1890MHz. Alussa kulutus oli n.345w ja lopussa n. 380w.

Miten sinä tuota sitten tulkitsisit...
 
Juu ei. Jönnite ja kellot oli cäpätty ja pysyivät koko ajan samana.
Voihan se olla että GDDR6X on jotenkin erityisen herkkä lämmölle? En nyt siihen jaksa lähteä diipdaivaamaan. Itse chippi n. 20c lämpimämpänä vie ehkä jonkun 10-15 wattia enemmän. Mainaushommissa huomaa.
 
No jännite ja taajuus oli afterburnerin voltage curvella capattu. 1890MHz@0,850mV. Avasin suoerpositionin "Game" moden ja asetin kameran katsomaan tiettyyn suuntaan. Tarkoitus oli vaan katsoa, mihin asti lämmöt nousee tuolla jännitteellä ja volteilla. Mulla oli afterburnerissa päällä myös wattien mittaus ja se oli laitettu näkymään OSD:ssä. Siinä lämpöjen nousua kytätessä huomasin, että wattimäärä nousi tadaisesti sitä mukaa, kun lämmötkin, vaikka jännite oli koko ajan se 0,850mV ja kellot 1890MHz. Alussa kulutus oli n.345w ja lopussa n. 380w.

Miten sinä tuota sitten tulkitsisit...
Siitä kun jatkat lisäämällä jäähdytystä ja kulutus laskee samaan mitä oli niin onhan se uskottava.
 
Mutta, mutta, Chief Architect sanoi että ei ole paper launch!?
Se että nuokin myydään loppuun ei tarkoitta etteikö varastot olisi selvästi isompia ja määrät mahdollisesti jopa normaalin launchin tasolla, kuin NVIDIAlla on nyt ollut. Sitten se nähdään kun varastosaldoja alkaa tulemaan julki.
 

No siis täähän on siis ollut itsestäänselvästi tiedossa jo siitä lähtien kun riittävästi pystyi katsomaan 6800, 3070, 6800XT ja 3080 suorituskyvyerot ja hinnat. 6800XT on liian halpa suhteessa suorituskykyyn. Ei kannata myynnin alettua sitten itkeä jos saatavuus on 3 kuukautta myöhemmin ja hinnatkin nousseet siihen mennessä.
 
No siis täähän on siis ollut itsestäänselvästi tiedossa jo siitä lähtien kun riittävästi pystyi katsomaan 6800, 3070, 6800XT ja 3080 suorituskyvyerot ja hinnat. 6800XT on liian halpa suhteessa suorituskykyyn. Ei kannata myynnin alettua sitten itkeä jos saatavuus on 3 kuukautta myöhemmin ja hinnatkin nousseet siihen mennessä.
Näinhän se on tässä tulee onneksi kerrankin hyvää vaihtoehtoa nvidia näytönohjaimille, mutta uskon että monelle tämä on sitten vaan lisää arpoja vetämään rtx 3080 tilausten lisäksi ero ei kuitenkaan ole aivan jäätävä ja kohta monelle tulee sitä märkää rättiä naamaan jos luulevat, että täällä meillä päin hinnat amd korteilla on kovinkaan halvat. Jimms ym. tulevat mukavasti nostelemaan hintaa saatavuuden mukaan kuten nvidia korteilla...
 
Itse uskon että Amd kykenee silti toimittamaan ensimmäisten viikkojen aikana enemmän kamaa kuin vihreän silmän kilpailija, toki sen verta monella on oletettavasti palanut hihat tohon nvidian julkaisuun että näillekin on varmasti ottajia. Omasta puolesta toivon että ei, ja saan juuri sen mallin minkä sitten haluankaan, mutta yleisen tilanteen puolesta haluan että mahdollisimman moni nostaa keken pystyyn nvidian suuntaan ja hyppää Maranellon punaisen kyytiin.
 
No siis täähän on siis ollut itsestäänselvästi tiedossa jo siitä lähtien kun riittävästi pystyi katsomaan 6800, 3070, 6800XT ja 3080 suorituskyvyerot ja hinnat. 6800XT on liian halpa suhteessa suorituskykyyn. Ei kannata myynnin alettua sitten itkeä jos saatavuus on 3 kuukautta myöhemmin ja hinnatkin nousseet siihen mennessä.
Ei 6800XT tule olemaan liian halpa, vaan hinnoiteltu suoritustuskyvyn mukaan. AMD olettanee ostajien laittavan huippupään korteissa merkittävästi arvoa säteenseurannan suorituskyvylle ja siinä 6800XT tulee selvästi häviämään 3080:lle.

Tämä on ennakkoarvio, eikä asiasta ymmärrettävästi voi olla faktoja ennen kuin suorituskykymittaukset julkaistaan.
 
Ei 6800XT tule olemaan liian halpa, vaan hinnoiteltu suoritustuskyvyn mukaan. AMD olettanee ostajien laittavan huippupään korteissa merkittävästi arvoa säteenseurannan suorituskyvylle ja siinä 6800XT tulee selvästi häviämään 3080:lle.

Tämä on ennakkoarvio, eikä asiasta ymmärrettävästi voi olla faktoja ennen kuin suorituskykymittaukset julkaistaan.

Joo hyvin totta tuo 6000 sarjan säteenseurantasuorituskyky on vielä vähän tuntematon. Siitä ei ole ollut kunnolla vuotoja tai testejä.
 
Joo hyvin totta tuo 6000 sarjan säteenseurantasuorituskyky on vielä vähän tuntematon. Siitä ei ole ollut kunnolla vuotoja tai testejä.
Ainoa vuoto laittaa 6800:n samalle tasolle 3070:n kanssa. 3070:n ja 3080:n ero RT laskentayksiköissä on paljon suurempi kuin 6800:n ja 6800xt:n välillä. 6800XT:n RT suorituskyky on kaiketi suunnilleen 3070:n ja 3080:n puolivälissä.
 
Sotket nyt 2080TI:n ja 3070:n suorituskyvyn "Tulos on testissä suurin piirtein samaa tasoa, kuin GeForce RTX 3070:llä, eli noin 20 % parempi kuin RTX 2080 Ti:llä."

Tuolla testillä ei ole pelisuorituskyvyn kannalta juurikaan merkitystä.

Siinä Shadow of the Tomb Raider vuodossahan 6800 oli selvästi nopeampi kuin 3070. Olikohan 21% ja 6800:ssa on säteenjäljitysyksikköjä 30% enemmän.
Suoraan laskemalla ei se 6800XT paljon 3080 perässä ole kun 6800XT:ssä on 6% enemmän yksiköitä kuin 3080:ssa.
 
Tuolla testillä ei ole pelisuorituskyvyn kannalta juurikaan merkitystä.

Siinä Shadow of the Tomb Raider vuodossahan 6800 oli selvästi nopeampi kuin 3070. Olikohan 21% ja 6800:ssa on säteenjäljitysyksikköjä 30% enemmän.
Suoraan laskemalla ei se 6800XT paljon 3080 perässä ole kun 6800XT:ssä on 6% enemmän yksiköitä kuin 3080:ssa.
Ei kai säteenseurantayksiköiden määrää voi verrata valmistajien välillä suoraa toisiin, mutta niiden suhdetta voi.
3080:ssa on 48% enemmän RT-ytimiä kuin 3070:ssa.
6800XT:ssä on 20% enemmän RT-ytimiä kuin 6800:ssa.

6800 ja 6800XT ovat paljon lähempänä toisiaan suorituskyvyssä kuin nVidian kaksikko, ja mahtuvat hyvin molemmat niiden väliin. Kuten niiden hintakin on.
 
Tuolla testillä ei ole pelisuorituskyvyn kannalta juurikaan merkitystä.

Siinä Shadow of the Tomb Raider vuodossahan 6800 oli selvästi nopeampi kuin 3070. Olikohan 21% ja 6800:ssa on säteenjäljitysyksikköjä 30% enemmän.
Suoraan laskemalla ei se 6800XT paljon 3080 perässä ole kun 6800XT:ssä on 6% enemmän yksiköitä kuin 3080:ssa.

Jotenkin taas tuntuu ihan helvetin ihmeelliselle, että AMD ei hiiskunut RT hommista juuri mitään, jos se RT perffi oikeasti on kilpailukykyinen Amperen kanssa.

Onhan se mahdollista, mutta todella kädetöntä toimintaa AMD:n puolelta siinä tapauksessa.
 
Tomb Raiderissa kaikki on rasteroitu varjoja lukuun ottamatta. RT-suorituskykyä pitäisi mitata jollain mikä käyttää sitä sataprosenttisesti. Quake II RTX olisi muuten hyvä, mutta se käyttää Nvidian poropietari-kirjastoja. Puhtaassa RT:ssä 3080 ja 3090 välinen erokin on paljon suurempi kuin normipeleissä.
 
Sotket nyt 2080TI:n ja 3070:n suorituskyvyn "Tulos on testissä suurin piirtein samaa tasoa, kuin GeForce RTX 3070:llä, eli noin 20 % parempi kuin RTX 2080 Ti:llä."

Aivan tuossahan olikin kaksi eri tulosta ja tuota epävarmempaa muistelin :D
 
Quake II RTX olisi muuten hyvä, mutta se käyttää Nvidian poropietari-kirjastoja.
Sori taas offtopicista, mutta Quake II RTX ei käytä mitään NVIDIA:n kirjastoja. Se käyttää ainoastaan tuota Vulkanin VK_NV_ray_tracing-rajapintaa, ja koska kyseessä on Open Source -tuote, on siihen olemassa jo patsi, joka muuttaa pelimoottorin käyttämään VK_KHR_ray_tracing-rajapintaa, jolloin se toimii kaikilla Vulkan-yhteensopivilla laitteilla, joiden ajureista löytyy VK_KHR_ray_tracing-tuki.
 
Jotenkin taas tuntuu ihan helvetin ihmeelliselle, että AMD ei hiiskunut RT hommista juuri mitään, jos se RT perffi oikeasti on kilpailukykyinen Amperen kanssa.

Onhan se mahdollista, mutta todella kädetöntä toimintaa AMD:n puolelta siinä tapauksessa.
Jospa ne myis näytönohjaimia taskulamppujen ja epilepsian sijasta :)
Veikkaan ettei haluttu näyttää tuloksia joissa jäädään taakse kilpailijaa, itselle kuitenkin sen verran triviaali feature että tulen käyttämään ehkä max kahdessa pelissä, ellei jotain mullistavaa tapahdu pelirintamalla.

Ryzen 5000-alustan featuret alkoi houkuttaa liikaa Radeonin kanssa, on mulla edelleen pari pakollista 3080-tilausta maailmalla, mutta kääntyi kyllä kelkka tuon launchin heikkouteen ja sekoiluun oc/non-oc.

Loppujen lopuksi mulle on tässä vaiheessa yks hailee vaikka radeonit jäis reilusti hitaammiksi kunhan se kompensoidaan hinnassa. Ylikellotuspotentiaalia näyttäis olevan reilummin ja eiköhän se tarvittaessa niitä valojakin piirtele. Vielä kuin löytyis se itselle riittävän hiljainen malli. Kai ne pitää katseet kääntää 6800xt osalta strix lc/sapphire nitro suuntaan vaikka hintaa saattakin tulla. Ei vaan tahdo jaksaa enää odotella, kun on syyskuusta asti venaillut näytönohjainta niin alkaa jo mitta täyttyä, kun muu rauta lahoaa ja vanhenee silmissä, prossu meni jo vaihtoon syyskuussa kasatussa paketissa

Edit: ja tämä siis oletuksella että radeoneita on oikeasti saatavilla
 
Viimeksi muokattu:
Sori taas offtopicista, mutta Quake II RTX ei käytä mitään NVIDIA:n kirjastoja. Se käyttää ainoastaan tuota Vulkanin VK_NV_ray_tracing-rajapintaa, ja koska kyseessä on Open Source -tuote, on siihen olemassa jo patsi, joka muuttaa pelimoottorin käyttämään VK_KHR_ray_tracing-rajapintaa, jolloin se toimii kaikilla Vulkan-yhteensopivilla laitteilla, joiden ajureista löytyy VK_KHR_ray_tracing-tuki.

"On olemassa patsi" joka mm. sisältää kasan merge konflikteja. Eli ei todellakaan toimi heittämällä ilman nVidian rajapintaa.
 
Ei kai tuo sentään nVidian syy ole että Vulkanin kehitys on aneemista eikä virallista RT rajapintaa ole ollut saatavilla. NVidia joutui itse tekemään ekstension.
 
Ei kai tuo sentään nVidian syy ole että Vulkanin kehitys on aneemista eikä virallista RT rajapintaa ole ollut saatavilla. NVidia joutui itse tekemään ekstension.
Ei kai NVIDIAa kukaan ole siitä syyttänyt?
Sori taas offtopicista, mutta Quake II RTX ei käytä mitään NVIDIA:n kirjastoja. Se käyttää ainoastaan tuota Vulkanin VK_NV_ray_tracing-rajapintaa, ja koska kyseessä on Open Source -tuote, on siihen olemassa jo patsi, joka muuttaa pelimoottorin käyttämään VK_KHR_ray_tracing-rajapintaa, jolloin se toimii kaikilla Vulkan-yhteensopivilla laitteilla, joiden ajureista löytyy VK_KHR_ray_tracing-tuki.
VK_NV_ray_tracing on nimenomaan NVIDIAn oma kirjasto, Vulkanissa kuten edeltäjissään on mukana aika tavalla valmistajakohtaisia laajennoksia jotka ovat valmistajien omaa käsialaa. hkultala tuossa jo kommentoikin lopun oleellisen.
 
Tomb Raiderissa kaikki on rasteroitu varjoja lukuun ottamatta. RT-suorituskykyä pitäisi mitata jollain mikä käyttää sitä sataprosenttisesti. Quake II RTX olisi muuten hyvä, mutta se käyttää Nvidian poropietari-kirjastoja. Puhtaassa RT:ssä 3080 ja 3090 välinen erokin on paljon suurempi kuin normipeleissä.

Luulisi että 95 % ihmisistä on tällä hetkellä kiinnostunut paljon on fps uusissa AAA-peleissä RT efektit päällä, koska näin se tulee suurimmaksi osaksi menemään seuraavat vuodet, varsinkin kun uusimmat konsolit määräävät pitkälti tahdin.

Siinä vaiheessa kun tulee nykyaikaisia pelejä 100 % ray tracetettuna niin nämä kortit ovat kaikki liian hitaita niihin.
 
Jotenkin taas tuntuu ihan helvetin ihmeelliselle, että AMD ei hiiskunut RT hommista juuri mitään, jos se RT perffi oikeasti on kilpailukykyinen Amperen kanssa.

Onhan se mahdollista, mutta todella kädetöntä toimintaa AMD:n puolelta siinä tapauksessa.

Täysin samaa mieltä, syyt on todennäköisesti, että jotain ajuripuolta yritetään viilata viime metreille saakka ja ei haluta / pystytä näyttämään suorituskykyä vielä. Toinen syy voisi olla, että jää kilpailijastaan joka hintaluokassa jälkeen raudan takia.
 
Täysin samaa mieltä, syyt on todennäköisesti, että jotain ajuripuolta yritetään viilata viime metreille saakka ja ei haluta / pystytä näyttämään suorituskykyä vielä. Toinen syy voisi olla, että jää kilpailijastaan joka hintaluokassa jälkeen raudan takia.

Tai sitten haluttiin/halutaan säästää vielä toinen jytky itse julkaisuun. Mutta toivottavasti on kilpailukykyinen.
 
Tomb Raiderissa kaikki on rasteroitu varjoja lukuun ottamatta. RT-suorituskykyä pitäisi mitata jollain mikä käyttää sitä sataprosenttisesti. Quake II RTX olisi muuten hyvä, mutta se käyttää Nvidian poropietari-kirjastoja. Puhtaassa RT:ssä 3080 ja 3090 välinen erokin on paljon suurempi kuin normipeleissä.
Niinkuin @HikinenM tuossa jo mainitsikin nimenomaan sillä on väliä miten nopeita nämä kortit on kun osa tehdään rasteroinnilla ja osa sääteenjäljityksellä. Koska näiden korttien nopeus ei riitä puhtaasti säteenjäljityksellä tehtyihin peleihin. Tuskin kukaan pelkkiä Quake II tason pelejä uusimmilla korteilla haluaa pelata...
 
Minä kyllä uskon että Radeonien RT suorituskyky tulee olemaan riittävä, koska molemmat uudet konsolit on varustettu niillä. Pelinkehittäjien on siis tehtävä efektit niiden ehdoilla. Nykyään on kuitenkin aika vähän AAA pelejä jotka olisi PC only.
 
:love::eek:

1604758603121.png
 
"On olemassa patsi" joka mm. sisältää kasan merge konflikteja. Eli ei todellakaan toimi heittämällä ilman nVidian rajapintaa.
Nuo merge conflictit ovat NVIDIA:n nykyiseen master branchiin verrattuna. Siellä on suoraan myös khr-ray-tracing -haara olemassa ihan NVIDIA:n repossakin NVIDIA/Q2RTX

VK_NV_ray_tracing on nimenomaan NVIDIAn oma kirjasto, Vulkanissa kuten edeltäjissään on mukana aika tavalla valmistajakohtaisia laajennoksia jotka ovat valmistajien omaa käsialaa. hkultala tuossa jo kommentoikin lopun oleellisen.
VK_NV_ray_tracing ei ole kirjasto. Se on rajapinnan laajennos, ja se ei ole pelkästään NVIDIA:n käsialaa vaan Contributors-kohdassa mainitaan mm. AMD:n ja Intelin työntekijät.

VK_KHR_ray_tracing on luonnollisesti tulevaisuutta ajatellen sen parempi ratkaisu, ja siinä on Contributors-kohtakin sisältää muitakin kuin näytönohjainvalmistajia. Mutta pointtini tuossa alkuperäisessä viestissä oli se, että Quake 2 RTX ei vaadi mitään NVIDIA:n kirjastoa toimiakseen, se vaati toimiakseen Vulkan-ajurin, jossa oli tuo VK_NV_ray_tracing on toteutettuna.
 
Nuo merge conflictit ovat NVIDIA:n nykyiseen master branchiin verrattuna. Siellä on suoraan myös khr-ray-tracing -haara olemassa ihan NVIDIA:n repossakin NVIDIA/Q2RTX


VK_NV_ray_tracing ei ole kirjasto. Se on rajapinnan laajennos, ja se ei ole pelkästään NVIDIA:n käsialaa vaan Contributors-kohdassa mainitaan mm. AMD:n ja Intelin työntekijät.

VK_KHR_ray_tracing on luonnollisesti tulevaisuutta ajatellen sen parempi ratkaisu, ja siinä on Contributors-kohtakin sisältää muitakin kuin näytönohjainvalmistajia. Mutta pointtini tuossa alkuperäisessä viestissä oli se, että Quake 2 RTX ei vaadi mitään NVIDIA:n kirjastoa toimiakseen, se vaati toimiakseen Vulkan-ajurin, jossa oli tuo VK_NV_ray_tracing on toteutettuna.
Joo, termi oli väärä, mikälie ajatuskatkos käynyt, laajennosta tarkoitin. Vaikka contributoreissa on myös AMD:n ja Intelin kaverit se ei muuta sitä, että kyseessä on NVIDIAn laajennos, jolle oletusarvoisesti ei ole tukea muilta valmistajilta (vaikka tuki voitaisiinkin toteuttaa)
 
Tomb Raiderissa kaikki on rasteroitu varjoja lukuun ottamatta. RT-suorituskykyä pitäisi mitata jollain mikä käyttää sitä sataprosenttisesti. Quake II RTX olisi muuten hyvä, mutta se käyttää Nvidian poropietari-kirjastoja. Puhtaassa RT:ssä 3080 ja 3090 välinen erokin on paljon suurempi kuin normipeleissä.
Merkittävä osa frametimestä kuluu Q2RTX:ssä denosingiin, joka hoidetaan shadereilla (fp32). Kuvankaappaus pelin sisäisestä profileristä, "asvgf full" on denoiserin kuluttama aika.

denoise.png


Minecraft RTX:ssä denoiserit syövät käsittääkseni vielä isomman siivun frametimestä. Puhuivat muistaakseni 40% tai 50% siivusta digital foundryn haastattelussa.

3DMarkissahan on nykyisin feature testi joka testaa puhdasta RT-suorituskykyä.
 
Jotenkin taas tuntuu ihan helvetin ihmeelliselle, että AMD ei hiiskunut RT hommista juuri mitään, jos se RT perffi oikeasti on kilpailukykyinen Amperen kanssa.

Onhan se mahdollista, mutta todella kädetöntä toimintaa AMD:n puolelta siinä tapauksessa.

Luulisi että jotain virallista on vielä tulossa ja ensimmäiset ulkopuoliset testit kai pitäisi tulla samalla kun myynti alkaa, viimeistään. Uskon että 3080 voi päihittää 5800XT:n, mutta tuossa kannattaa pitää mielessä että noi kokonaissuorituskyvyt voivat riippua pelistä peliin, ja toisaalta siellä on aina se rasterointi ja muu myös mitä jatkuvasti tehdään, puhdas RT suorituskyky näkyy kai lähinnä noissa kahdessa puhtaassa RT pelissä.
 
Eikös joku AMD:n kaveri kertonut että säteenjäljityksestä tulee lisää tietoa ennen julkaisua?
 
Tässä alkaa jotenkin kyseenalaistaa, onko ylipäänsä järkevää ostaa jotain vajaan tonnin atk-komponenttia, kun ostoprosessi vertautuu Sagrada Familian rakentamiseen.
Sagrada Familian rakennus alkoi ennen kuin nVidiaa, Inteliä tai AMD:tä oli edes olemassa, joten ehkä ei sitten kuitenkaan. Jos se kuukauden parin odotus vastaa sinusta yli sataa vuotta, niin sitten aikaskaalassa on jotain pielessä
 
Uskoisin myös että säteisiin palataan ennen myynnin aloitusta. Todennäköisesti se puoli oli vielä sen verran vaiheessa että ei uskallettu sanoa mitään ja/tai ajureiden tasapainoa ei ollut vielä löydetty (pelit kuitenkin on tehty rtx korteille optimoiden).
 
Lisää kuvia refumallista. Side by side kun vertaan niin ehkä hieman harvat jäähyrivastot, tietty ilma liikkuu vähän vikkelämmin. Kova pohdinta josko ryhtyisi refumallin kanssa F5 talkoisiin julkaisuissa. NZXT H210 kotelona niin aikalailla tuo 2.5slot max korkeus.

AMD-Radeon-RX-6800-XT-vs-GeForce-RTX-3070-1-850x393.jpg

AMD-Radeon-RX-6800-XT-vs-GeForce-RTX-3070-3-850x393.jpg

AMD-Radeon-RX-6800-XT-vs-GeForce-RTX-3070-2-850x494.jpg


 
Meikäläinen ostaa varmaa refun ja jos on paska jäähy nii lähtee 30pv palautusoikeudel takaisin. AIB:ta saa kuitenkin venttaille lähemmäs kuukauden niin sit sinne suuntaan voi pomppaa kun ne ilmestyy hyllyihin.
 
Onkohan Jimmsiltä tai keneltäkään muulta suomalaiselta firmalta tullut vahvistusta siitä, että tuleeko uudet näytönohjaimet heillekin myytäväksi 18. pvä?
 

Statistiikka

Viestiketjuista
258 245
Viestejä
4 490 770
Jäsenet
74 169
Uusin jäsen
tater

Hinta.fi

Back
Ylös Bottom