NVIDIA GeForce RTX 2070 Super / 2080 / 2080 Super / 2080 Ti -ketju (TU102, TU104)

  • Keskustelun aloittaja Keskustelun aloittaja Kaotik
  • Aloitettu Aloitettu
Ihan yhtä jännää oli katsoa NVIDIA:n RTX-hehkutusta ilman konkreettista FPS-näyttöä. :rolleyes: Kannattaa kuitenkin muistaa että DICE on viilaillut Frostbitea jo vuosia, joten kyse ei ole mistään kesähessujen koodaamasta pelimoottorista. RTX on varmasti lastenkengissä, mutta niin näyttäisi olevan myös itse näyttiksetkin.

Eiköhän se totuus ole siinä ettei nykyisten RTX-korttien Tensor coreiden määrä yksinkertaisesti riitä pyörittämään RayTracingia siedettävillä FPS:lla. Toki kehittäjät voivat helpottaa NIVIDA:n myyntiporukan elämää käyttämällä sitä maltillisesti, mutta riittääkö se perustelemaan korttien hinnoittelun?
Ei kai ne Tensor-coret vaikuta DXR-suorituskykyyn mitenkään vaan RT-coret? Vai oliko jossain faktaa että Tensor-coreja käytetään myös säteenseurantaan?
 
Kannattaa kuitenkin muistaa että DICE on viilaillut Frostbitea jo vuosia, joten kyse ei ole mistään kesähessujen koodaamasta pelimoottorista. RTX on varmasti lastenkengissä, mutta niin näyttäisi olevan myös itse näyttiksetkin

Frostbiten ikä saattaa olla RTX-suorituskyvyn kannalta jopa haittatekijä. Silloin kun Frostbiten kehitystyö aloitettiin, kukaan tuskin uskalsi vielä miettiä sitä, miten säteenseuranta saataisiin integroitua pelimoottoriin mukaan. En väitä, etttä RTX-Frostbite olisi mikään "purkkaviritys", mutta eiköhän sitä suorituskykyä tule vielä lisää, kun käyttöön saadaan sellaisia pelimoottoreita, joissa säteenseuranta-efektit on otettu pelimoottorin arkkitehtuurissa huomioon alusta saakka.
 
Mitä nyt eilen ehdin kokeilemaan DXR:ää BF V:ssä niin ainakaan tehonrajoitukseen se ei vaikuta, pikemminkin päinvastoin. Tänään hieman tarkempaa analyysiä aiheesta.
 
Ei kai ne Tensor-coret vaikuta DXR-suorituskykyyn mitenkään vaan RT-coret? Vai oliko jossain faktaa että Tensor-coreja käytetään myös säteenseurantaan?

Tensor-coret oli koneoppimis-coret? Eikö niillä siistitä tai täydennetä RT-corejen jälkeä? Idea on käyttää koneoppimista RT:n rinnalla, koska muuten ei tehot riitä millään.
 
Tensor-coret oli koneoppimis-coret? Eikö niillä siistitä tai täydennetä RT-corejen jälkeä? Idea on käyttää koneoppimista RT:n rinnalla, koska muuten ei tehot riitä millään.
Tensor-coret on juurikin koneoppimiseen. Voi olla, jos löytyy mustaa valkoisella niin luen mielelläni.:)
 
Ei kai ne Tensor-coret vaikuta DXR-suorituskykyyn mitenkään vaan RT-coret? Vai oliko jossain faktaa että Tensor-coreja käytetään myös säteenseurantaan?
Olkoot ne sitten RT-coret. Ei väliä, koska pointti on kuitenkin sama.

Frostbiten ikä saattaa olla RTX-suorituskyvyn kannalta jopa haittatekijä. Silloin kun Frostbiten kehitystyö aloitettiin, kukaan tuskin uskalsi vielä miettiä sitä, miten säteenseuranta saataisiin integroitua pelimoottoriin mukaan. En väitä, etttä RTX-Frostbite olisi mikään "purkkaviritys", mutta eiköhän sitä suorituskykyä tule vielä lisää, kun käyttöön saadaan sellaisia pelimoottoreita, joissa säteenseuranta-efektit on otettu pelimoottorin arkkitehtuurissa huomioon alusta saakka.

Kyllä. Jos studiot edes lähtevät mukaan. Kyseessä on kuitenkin rankasti lisenssoitu suljetulla koodilla oleva tekniikka, jolla automaattisesti näytetään keskaria AMD-näyttisten omistajille. Aika näyttää.
 
Tensor-coret oli koneoppimis-coret? Eikö niillä siistitä tai täydennetä RT-corejen jälkeä? Idea on käyttää koneoppimista RT:n rinnalla, koska muuten ei tehot riitä millään.

Muistaakseni jossain Eurogamerin jutussa mainittiin muutama viikko sitten, että Frostbitessa käytetään/käytettiin DICE:n itse kehittämää denoising-algoritmia, jossa ei hyödynnetä tensoriytimiä mitenkään. En tiedä, onko tilanne sama vielä tässä julkaisuversiossakin.
 
Pelailin eilen noita infantry mappeja 2k ultralla, fps pyöri dipit poislukien 55-90 välillä riippuen mapista. Sinänsä ihan fine G-syncillä, mutta kyllä se 140fps on vaan namia.

Laitoin RTX:n tunnin session jälkeen pois niin sillon tuntui kuitenkin, että siitä kuvasta puuttuu nyt jotain vaikka en voinutkaan sormella osoittaa mitä.. Häiritsi.
1152953ae9423fe7c611f39cc740dd4f.jpg
5e0e8b08819b483d8c8ce19c6a5eec2f.jpg
 
Viimeksi muokattu:
Pelailin eilen noita infantry mappeja 2k ultralla, fps pyöri dipit poislukien 55-90 välillä riippuen mapista. Sinänsä ihan fine G-syncillä, mutta kyllä se 140fps on vaan namia.

Laitoin RTX:n tunnin session jälkeen pois niin sillon tuntui kuitenkin, että siitä kuvasta puuttuu nyt jotain vaikka en voinutkaan sormella osoittaa mitä.. Häiritsi.
Tämä siis DXR low? Eipä tullut itsellä vertailtua onko iso ero RT:n määrässä Ultra vs low, mutta tuolla low-asetuksella peli on vielä pelattava.

1440.png
 
Tämä siis DXR low? Eipä tullut itsellä vertailtua onko iso ero RT:n määrässä Ultra vs low, mutta tuolla low-asetuksella peli on vielä pelattava.

1440.png
Öäää enpäs osaakkaan sanoa :D
Mun mielestä naputtelin kaikki vaa tappiin, mutta erehdys on mahdollinen.

E: Oli ne kaikki ultralla. Huomionarvoista tosin on se, että nuo infantrymapit ovat pienempiä kuin tavalliset.
 
Viimeksi muokattu:
Muistaakseni jossain Eurogamerin jutussa mainittiin muutama viikko sitten, että Frostbitessa käytetään/käytettiin DICE:n itse kehittämää denoising-algoritmia, jossa ei hyödynnetä tensoriytimiä mitenkään. En tiedä, onko tilanne sama vielä tässä julkaisuversiossakin.

just tää, ja se denoising on se raskain juttu tässä, että olisiko siinä se syy raakaan fps -pudotukseen. olisi kiva saada esim Remedyltä jotain raakaa suorituskykydataa rtx:stä on/off.
 
Se siitä RTX fiilistelystä, kortti vissiin paskana, punanen ruutu HDMI:llä ja tollasia saatanan väreilyitä näyttö täys. Eikun kone purkuun ja vanha kortti sisään.
 
Jahas ei ole kortin vika kokeilin myös vanhalla näyttiksellä (jossa aiemmin käytin DVI:tä) ni sama show, taitaa toi viis metrinen halpis kaapelin olla paska, ja arvatkaa onko mulla muita kaapeleita. Voihan se olla näyttökin, ja pitäskö viel varmistaa toisessa sli slotissa.
 
Ei ollu ainakaan PCI-E vika ja näytössä tasan yks hdmi ja dvi.

Edit: Kiva käyttää konetta kun ei saa mitään selvää ja täynnä häiriöitä ja punanen.

Edit 2: Metkaa se tässä on et se on bootista asti punanen se ruutu joten oisko jopa näytön hdmi rikki, asentamalla ajurit (tarkkuus kasvaa) ni kuva häviää kokonaan, pitää käydä ostaa varuiks varmaan sekä piuha ja adapteri hdmi>dvi...
 
Viimeksi muokattu:
Siitä ensimmäinen DLSS-ominaisuutta hyödyntävä testiohjelma. TPU:n testien mukaan vaikuttaisi toimivan miltei luvatun veroisesti.

Preliminary testing was done using Corsair's Vengeance 5180 Gaming PC, which is equipped with an Intel i7-8700, 16 GB 2666 MHz DDR4 and an NVIDIA GeForce RTX 2080. At 3840x2160 with the highest possible settings, DLSS offered a 36% increase in performance. This is very close to NVIDIA's specified increase and within the expected margin of error.

Looking at the benchmarks running side by side, to my eyes at least NVIDIA's DLSS solution offers slightly better image quality than just using TAA, but this may well be subjective and will depend upon the user to some degree.

Final Fantasy XV Benchmark Gets DLSS Update, GeForce RTX 2080 Performance Tested

FINAL FANTASY XV WINDOWS EDITION Benchmark | SQUARE ENIX

Edit: Testailinpas tuota ja 2080 Ti:llä saavutettu parannus oli juurikin tuo 36%.
 
Viimeksi muokattu:
@Asmola @Hiikeri @Kapteeni_kuolio millä softalla sai näistä korteista katottua minkä valmistajan muistit näissä on? Meinasin ajella vakiona vakiojäähyllä sen verran ettei noita paskamuistien artifaktiongelmia tms esiinny niin vois tässä vähän tarkastella samalla mahdollisia kellotusominaisuuksia kun päätän lyödä vesille.
 
@Asmola @Hiikeri @Kapteeni_kuolio millä softalla sai näistä korteista katottua minkä valmistajan muistit näissä on? Meinasin ajella vakiona vakiojäähyllä sen verran ettei noita paskamuistien artifaktiongelmia tms esiinny niin vois tässä vähän tarkastella samalla mahdollisia kellotusominaisuuksia kun päätän lyödä vesille.
GPU-Z:llä, Memory Type-kohdassa lukee GDDR6 ja vieressä suluissa muistivalmistaja.
 
BF V yksinpeliä 1440p kaikki ultralla. ainoot mitä pois päältä on nää film grainit jne ja future time rendering.

5-11-2018, 16:45:58 bfv.exe benchmark completed, 39301 frames rendered in 504.891 s
Average framerate : 77.8 FPS
Minimum framerate : 0.9 FPS
Maximum framerate : 104.6 FPS
1% low framerate : 55.9 FPS
0.1% low framerate : 0.9 FPS

Noi 0.9 dopit tais tulla kun alko välivideo niin siinä tökkäs enkä ihan siihen kerenny pysäyttää.
 
GPU-Z:llä, Memory Type-kohdassa lukee GDDR6 ja vieressä suluissa muistivalmistaja.
Tattis. Micronia näyttäis olevan. No eipä tuolla niin väliksi kunhan eivät ole niitä valmiiksi rikki olevia.
 
Gigantin evga 2080 ti xc ultra:n toimitusaika siirty 13. Joulukuuta, laitoimpas sitte tulemaan asuksen 2080 ti dual oc:n proshopista.

Onkos porukalla kokemusta kyseisestä kortista, että käykö niin kuumana ku jokkut sanoo ja onko kukaan laitellu vesille ja järeempää biosia sisään?

Pari viikkoa on nyt kyseinen kortti koneessa ollut. Muisteja nostin +500MHz, GPU on vielä vakiokelloilla. Maksimilämpö kävi 3dmark-testeissä noin 80C asteessa. Normaalisti pelatessa pyörii melko tarkasti 70C asteessa, kun puhaltimien max kierrokset ovat 80%. Puhaltimet ovat varsin inhimillisen kuuloisia eivätkä ole itseäni häirinneet. Pelinä on ollut viime aikoina No man's sky 4k-resoilla ja kaikki säädöt tapissa.
 
Hyvä ei ollu muuta vikaa kun onneton HDMI piuha, eka testi I scored 6 955 in Time Spy vanhal setillä tuli +2800, toki kaikki tauhka päällä ja toi siis suoraan ajureiden asennuksen jälkeen. Hieman jarruttaa tämä i7 950.

Tuntuu jotenkin siltä että toi HDMI antaa huomattavasti parempaa kuvaa vs old DVI ja kirkkaudenkin pysty laittaa näytöstä 100 to 65 (vaikka on onneton näyttö).

Nyt pelaamaan...
 
Jahas ei ole kortin vika kokeilin myös vanhalla näyttiksellä (jossa aiemmin käytin DVI:tä) ni sama show, taitaa toi viis metrinen halpis kaapelin olla paska, ja arvatkaa onko mulla muita kaapeleita. Voihan se olla näyttökin, ja pitäskö viel varmistaa toisessa sli slotissa.
Itsellä oli kanssa HDMI ongelmia ja ihan sama ratkaisu, eli lyhempi kaapeli. Tismalleen sama 3 metrin HDMI kaapeli toimii R9 290:llä ok, mutta RTX 2070 ei kykene pitämään singaalia yllä. Ratkaisuna toimi vaihtaminen lyhyempään 1,5m kaapeliin.
 
Siellähän on kaikissa vaan "Auto Notify" ja on ollut aina kun olen vilkuillut. No tulipa nyt liian myöhään laitettua meiliosoite sinnekin spammia varten.

Päivällä oli vielä ”add cart”, niin kerkes laittamaan yhden muistivikaisen kortin tilaukseen joka ei jaksa pyörittää suurinta uudistustaan eli RTXää.
 
Päivällä oli vielä ”add cart”, niin kerkes laittamaan yhden muistivikaisen kortin tilaukseen joka ei jaksa pyörittää suurinta uudistustaan eli RTXää.
Joo taisi olla oma ajoitus sitten juuri väärä kun en löytänyt. Mitäs muuten EVGA:lta on postikulut?

<valivali>
Tekee kyllä mieli tässä vaiheessa perua koko homma heikon saatavuuden ja noiden muistiongelmien takia. RTX:ää en ikinä ajatellutkaan hyödylliseksi kun arvasin että 4K:lla se tiputtaa framet naurettavan alas. Oishan se ollu mukava saada noilla transistoreilla ennemmin puolet lisää CUDA coreja.
</valivali>
 
Kortteja ollut saatavilla useaan otteeseen, itselle soitettu jo kotia asti että kelpaako kortti, sanoin että sain jo toisaalta.:geek: Toki jos erehtyy ostamaan jostain Gigantista niin korttia kuten kaikkea muutakin sieltä ostettua saa odottaa, mutta ostakaa muualta, Jimmsilläkin vähän väliä jotain korttia hyllyssä.
 
Testailinpas tuota ja 2080 Ti:llä saavutettu parannus oli juurikin tuo 36%.

No niin! Sentään hyviäkin uutisia. :tup:
Miltä näytti? Itse aina pitänyt TAA tyylisten AA-ratkaisujen ulkonäöstä sub 4k resoluutioilla. Tuo näyttäisi samantyyliseltä hyvällä performanssilla.
 
Kortteja ollut saatavilla useaan otteeseen, itselle soitettu jo kotia asti että kelpaako kortti, sanoin että sain jo toisaalta.:geek: Toki jos erehtyy ostamaan jostain Gigantista niin korttia kuten kaikkea muutakin sieltä ostettua saa odottaa, mutta ostakaa muualta, Jimmsilläkin vähän väliä jotain korttia hyllyssä.

Läksyni olen oppinut. Gigantin ostokokemus näyttääkin lähinnä tältä:

asdasdasd.jpg


Strix Ti tilauksessa melkein joka paikasta missä on tarjolla, jonottajillehan nuo yksittäiset nettisivuilla näkyvät kappaleetkin menevät (aspan mukaan) joten enempää ei voi oikein tehdä kuin odottaa...

...ei silti estä pakonomaista f5 rämpytystä jokaisessa verkkokaupassa. :rolleyes:
 
Tässä nyt tullu tunnin verran pelattua Destiny 2 ja onhan tää MSI RTX 2070 Armor edelliseen GTX 780 aivan älyttömästi parempi, lämmöt siinä 64-65c (jostain syystä alt+tab jälkeen nousee hetkeks 67-68), core vakaantuu 1845MHz stock kellot ja mikä parasta frametimes on aivan tautisesti parempi, ei enää siitä johtuvia ongelmia.
Vanhalla kortilla lämmöt oli sen 79c (limit) ja poistin kaiken lisäksi kaksi kotelotuuletinta käytöstä, nyt siis enää fractalin define R6 mukana tulleet 3 tuularia käytössä, niin ja laitoin katonkin kii.
 
Pari viikkoa on nyt kyseinen kortti koneessa ollut. Muisteja nostin +500MHz, GPU on vielä vakiokelloilla. Maksimilämpö kävi 3dmark-testeissä noin 80C asteessa. Normaalisti pelatessa pyörii melko tarkasti 70C asteessa, kun puhaltimien max kierrokset ovat 80%.

Aika kuumana kyllä tuntuu käyvän mutta jospa sitä nyt sen aikaa pärjäis ilmalla, että saapi vesille laitettua ja uskaltaa laitella järeempää biosiakin sisään kun vaikuttais aikalailla siltä että vakio jäähyllä ei paljon kannata 380w biosia ajella.
 
Minkälaisia kokemuksia teillä on tuon OC Scannerin toiminnasta?

Itsellä käytössä EVGA 2070 XC Ultra ja EVGA:n uusin Precision X1 (0.3.6) versio.
GPU core boostaa hienosti 2070Mhz-2055Mhz (+130% power limit), mutta muistit pyörii 1750Mhz.
Eli eikö OC Scanner kellota muisteja ollenkaan vai eikö tuo vaan toimi omalla kortilla?
 
Joo taisi olla oma ajoitus sitten juuri väärä kun en löytänyt. Mitäs muuten EVGA:lta on postikulut?

<valivali>
Tekee kyllä mieli tässä vaiheessa perua koko homma heikon saatavuuden ja noiden muistiongelmien takia. RTX:ää en ikinä ajatellutkaan hyödylliseksi kun arvasin että 4K:lla se tiputtaa framet naurettavan alas. Oishan se ollu mukava saada noilla transistoreilla ennemmin puolet lisää CUDA coreja.
</valivali>

12,09€ oli postikulut. Niitä varmaan tipahtelee sinne lisää pikkuhiljaa, sama juttu oli aikoinaan 780Ti kanssa. Silloin oli kuitenkin meininkiä kuntilas kaks korttia samaan lähetykseen :)
 
Minkälaisia kokemuksia teillä on tuon OC Scannerin toiminnasta?

Itsellä käytössä EVGA 2070 XC Ultra ja EVGA:n uusin Precision X1 (0.3.6) versio.
GPU core boostaa hienosti 2070Mhz-2055Mhz (+130% power limit), mutta muistit pyörii 1750Mhz.
Eli eikö OC Scanner kellota muisteja ollenkaan vai eikö tuo vaan toimi omalla kortilla?
Ei kellota muisteja.

Oma kokemus skannerista oli että se on myös erittäin optimistinen niiden kellojen suhteen. Tarjosi +211Mhz offset mutta käytännössä vakaat kellot on siinä +150Mhz (eli ~2000Mhz).
 
Nätti blokki! In other news: Prooshopilta saisi taas Asuksen Dual Ti:tä ja Gigabyten non-oc windforce Ti:tä. Ja Asuksen bloweria myös näyttäisi olevan etävarastossa.

Strixihän tässä on ollut hakusessa, mutta... mitä mieltä te Projäbät olette siitä että tunkisi tuollaisen gigabyten tällaiseen:

Alphacool Eiswolf 240 GPX Pro - NVIDIA GeForce RTX 2080 Ti M01 -vesijäähdytysjärjestelmä näytönohjaimelle, mus - 189,90€

Jäisi vielä hieman alle Strixin hinnankin! :D Tosin noiden saatavuus myös vaakalaudalla että saattaisi joutua ajelemaan ohjaimen omalla jäähyllä joulun yli...
 
Viimeksi muokattu:

Statistiikka

Viestiketjuista
259 414
Viestejä
4 507 025
Jäsenet
74 395
Uusin jäsen
amer

Hinta.fi

Back
Ylös Bottom