- Liittynyt
- 16.10.2016
- Viestejä
- 3 179
Jos se noin sanoi, niin kusetti ihan reilusti. Esim. Witcher 3:ssa 2560x1440-resolla 1080 on 112 % tehokkaampi kuin 980 SLI:ssä.
Muistin väärin, ei ollutkaan GTX 980 mihin vertasi.
Follow along with the video below to see how to install our site as a web app on your home screen.
Huomio: This feature may not be available in some browsers.
Jos se noin sanoi, niin kusetti ihan reilusti. Esim. Witcher 3:ssa 2560x1440-resolla 1080 on 112 % tehokkaampi kuin 980 SLI:ssä.
Tuntuu enempi ja enempi että kuumana käyvät.....
edit. näköjään tulevassa evga 2080ti ftw3 kortissa 19 vaiheinen virransyöttö! vertaa edelliseen classyyn 980ti 14+3vaiheinen ja 1080ti ftw3 10+2vaiheinen. Voidaan nähdä ihan mukavia kulutus lukemia ylikellotettuna...
NVIDIA Announces GeForce RTX 2070, 2080 and 2080 Ti
-2080Ti 1545Mhz, TDP 250W
-2080Ti FE 1635Mhz, TDP 260W
nVlink silta 79€.
Jossain nVidia mainitsikin, tai ainakin huhuiltiin jokunen päivä sitten että FE:ssä olisi normaalia suuremmat GPU kellot.
Hmmm, guru3d benchmarkissa 1080Ti ryllyttää Witcher3 4k max details average 66fps. Vai tarkoititko että saattaa jossain tilanteessa kopsahtaa 20fps eli minimit?Kyllähän lisävääntö kelpaisi, kun modatussa witcher 3:ssa vääntämällä kaikki herkut tappiinsa 1080ti:llä ja 4k resoluutiolla fps laskee ~20 pintaan. Nyt pelailen sitä niin, että varjot on laskettuna mediumille ja fps on +40 joka riittää itselleni, mutta olisihan se komeaa vedellä maksimi varjoilla vastaavaa tai parempaa ruudunpäivitysnopeutta.
Oman noviisiymmärrykseni mukaan tuo on state-of-the-art tensor coreilla pyöritettävä skaalausalgoritmi joka samanaikaisesti antialiasoi kuvan. Ja tuo DLSS x2 mistä haastattelussa mainitaan kai sitten enempikin pelkkä AI-AA algoritmi, jossa kuva rendataan kokonaisena ilman skaalausta tjsp.
DLSS requires a training set of full resolution frames of the aliased images that use one sample per pixel to act as a baseline for training. Another full resolution set of frames with at least 64 samples per pixel acts as the reference that DLSS aims to achieve. At runtime, a full resolution frame with motion vectors is required in addition to the input image to be anti-aliased. The motion vectors are used to temporally transform the previously anti-aliased frame to align with the current frame, enabling the algorithm to use temporal information. Training also requires a variety of scenes from the game in order to generate the best results.
660w vie mun 1080ti kellotettuna, toivottavasti ei hirveesti sitä enempää
Erikoisia kyllä nämä TDP lukemat 2080:lle, kun refu 215w, FE 225w, mutta AIB:t ilmoittelee 250w-285w. Kaipa tuo todellisuus sitten revikoissa selviää.
Tosin FE:lle ilmoitettu 1800mhz ja 225W ja PNY ilmoittaa 1710mhz ja 285W.FE:ssähän taisi olla kovemmat kellot kuin refussa ja AIB:t kellottelee vieläkin korkeammalle.
Tosin FE:lle ilmoitettu 1800mhz ja 225W ja PNY ilmoittaa 1710mhz ja 285W.
PNY tosin ilmoittaa Ti:lleen saman 285W TDP:n, joten ehkä vain kiireessä hutaistuja ennakkotietoja nämä.
Erikoista myös että Nvidia suosittelee 600W virtalähdettä 250W TDP:n 1080Ti:lle, mutta 650W virtalähdettä 215W TDP:n 2080:lle.
550W virtis omassa koneessa alkaa vähän mietityttään vaikka kaikkialla kyllä sanotaan että suositukset on kovasti yläkanttiin jne.
To deliver record-breaking performance, the factory-overclocked GeForce RTX 2080 uses 225 Watts of power out of thebox, and tops out around 280 Watts for enthusiasts chasing ultimate overclocking performance.
Tosin FE:lle ilmoitettu 1800mhz ja 225W ja PNY ilmoittaa 1710mhz ja 285W.
PNY tosin ilmoittaa Ti:lleen saman 285W TDP:n, joten ehkä vain kiireessä hutaistuja ennakkotietoja nämä.
Erikoista myös että Nvidia suosittelee 600W virtalähdettä 250W TDP:n 1080Ti:lle, mutta 650W virtalähdettä 215W TDP:n 2080:lle.
550W virtis omassa koneessa alkaa vähän mietityttään vaikka kaikkialla kyllä sanotaan että suositukset on kovasti yläkanttiin jne.
Esim. Witcher 3:ssa 2560x1440-resolla 1080 on 112 % tehokkaampi kuin 980 SLI:ssä.
Varmasti vakiona onkin noin, mutta kuten totesin käytän modia jolla voi nostaa grafiikka-asetuksia ultrasta > supreme > ultimate > extreme. Varjot jos laittaa extremelle pudottaa fps:ää useita kymmeniä verrattuna ultraan.Hmmm, guru3d benchmarkissa 1080Ti ryllyttää Witcher3 4k max details average 66fps. Vai tarkoititko että saattaa jossain tilanteessa kopsahtaa 20fps eli minimit?
Itse jouduin lähtemään virtalähdeostoksille hankittuani Titan V:n vaikka se tuli speksien mukaan samantehoisen (250W) 1080 Ti:n tilalle, ja kyseessä kumminkin ihan laadukas Seasonicin 660W Platinum poweri.
Väittäisin siis että joko Voltan tehonkulutus on oikeasti Pascalia suurempi, tai kulutusprofiili on erilainen (maksimi tehopiikit lähinnä). Uskoisin Turingin olevan lähempänä Voltaa tässä asiassa, eli sikäli nuo virtalähdesuositukset kävisi järkeen.
Mites tuo ilmeni? Mulla on tuo sama poweri
Sinänsä aika erikoista, että Nvidia virtalähdesuositus Titan V:lle 600W.Kone sammui aina kun näytönohjaimella tuli mitään isompaa kuormaa, oli se sitten neuroverkkojen opetusta tai pelikäyttöä. (Ilmeisesti tosta on uusikin malli samasta powerista, oli siis tämä: Seasonic Platinum 660)
Ettei nyt kuitenkin 12%?
Sinänsä aika erikoista, että Nvidia virtalähdesuositus Titan V:lle 600W.
Vähän kaivoin revikoita ja tuo kuluttaa pikkaisen vähemmän seinästä mitattuna kuin Titan Xp.
Prkl kun tekisi mieli ostaa tuo 2080 Ti malli. Tällä hetkellä 1080Ti ja aikaisemmin oli 980Ti. Vaikka rahaa on tilillä, niin jotenkin ahdistaa laittaa noin suurisumma näytönohjaimeen. Oli minkälainen jumalkortti tahansa.
Jos edes säilyttäisivät jollain lailla arvonsa, mutta kun seuraava tehokkaampi kortti tulee markkinoille, niin arvo putoaa 40%. Tuosta 1350e se on jo aika suurisumma.
550W virtis omassa koneessa alkaa vähän mietityttään vaikka kaikkialla kyllä sanotaan että suositukset on kovasti yläkanttiin jne.
Prkl kun tekisi mieli ostaa tuo 2080 Ti malli. Tällä hetkellä 1080Ti ja aikaisemmin oli 980Ti. Vaikka rahaa on tilillä, niin jotenkin ahdistaa laittaa noin suurisumma näytönohjaimeen. Oli minkälainen jumalkortti tahansa.
Jos edes säilyttäisivät jollain lailla arvonsa, mutta kun seuraava tehokkaampi kortti tulee markkinoille, niin arvo putoaa 40%. Tuosta 1350e se on jo aika suurisumma.
Prkl kun tekisi mieli ostaa tuo 2080 Ti malli. Tällä hetkellä 1080Ti ja aikaisemmin oli 980Ti. Vaikka rahaa on tilillä, niin jotenkin ahdistaa laittaa noin suurisumma näytönohjaimeen. Oli minkälainen jumalkortti tahansa.
Jos edes säilyttäisivät jollain lailla arvonsa, mutta kun seuraava tehokkaampi kortti tulee markkinoille, niin arvo putoaa 40%. Tuosta 1350e se on jo aika suurisumma.
Jep, ainahan voisi pelata ~5v. vanhoja pelejä vain, niin olisi hemmetisti halvempaaJos sen noin ajattelee niin eihä sitä tuu koskaa ostettua mitää "luxusta".
Mieti asiaa toiselta kantilta -mitä ostaisit jos et ostaisi näyttistä, vai ostaisitko mitään? Tekisikö se raha tilillä sinut onnellisemmaksi? Minä sanon go for it, jos ei tarvitse sitten muusta karsia tämän takia. Sitä varten ne rahat on olemassa, että lempitekoihin niitä pääsee käyttämään.
Jos sen noin ajattelee niin eihä sitä tuu koskaa ostettua mitää "luxusta". Itelle tuo kortti tulee riittää ehkä seuraavan generaationki yli kun puhutaa 1440p 144hz meiningeistä ja sillä uskalsin laittaa rahat kiinni siihe vaikka alkuu epäröin. Toki kaikki toimii budjettisa mukaa ja sitä kannata jonkun näyttikse takia ylittää, mut jos on ylimäärästä sen verra ja intohimoa niin mikäjottei.
Olipas harvinaisen mielenkiintonen video
Jos 660W Platinum single rail kyykkää yhden kortin kanssa niin täytyy olla joko 10+ core intel 4.5GHz+ tai sitten powerissa oli jotain vikaa. Kai laitoit sen takuuseen? Vai onko vain kellotettu vedellä tappiinsa?Kone sammui aina kun näytönohjaimella tuli mitään isompaa kuormaa, oli se sitten neuroverkkojen opetusta tai pelikäyttöä. (Ilmeisesti tosta on uusikin malli samasta powerista, oli siis tämä: Seasonic Platinum 660)
Prkl kun tekisi mieli ostaa tuo 2080 Ti malli. Tällä hetkellä 1080Ti ja aikaisemmin oli 980Ti. Vaikka rahaa on tilillä, niin jotenkin ahdistaa laittaa noin suurisumma näytönohjaimeen. Oli minkälainen jumalkortti tahansa.
Jos edes säilyttäisivät jollain lailla arvonsa, mutta kun seuraava tehokkaampi kortti tulee markkinoille, niin arvo putoaa 40%. Tuosta 1350e se on jo aika suurisumma.
Ei se tosiaan aina siitä varallisuudesta ole kiinni. 1080ti sai joskus aikoinaan 750€ (itse maksoin 850€) vrt kun tää maksaa 1350€. Jos tuosta 1080ti haluaa eroon niin veikkaukselta siitä saa ehkä 600€, jos sitäkään. Eli hinnakas päivitys tulee olemaan, ja benchmarkkeja ei ole niin aika moni tätä vielä järjellä ajattelee kuitenkin. Specsit kuitenkin on mitä on, ja suuret epäilykset ilmassa ettei kovinkaan rankkaa tehonlisäystä (yli 30%) ole luvassa vrt 1080ti niin tuosta kun joutuisi maksamaan UUDEN 1080ti verran väliä kun myy vanhan kortin niin saa kyllä itellä ainakin miettimään homman kannattavuutta.Jos kerta omistat 1080 ti kortin niin laitat myyntiin ja saaduilla rahoilla maksat erotuksen?
Ei tuosta tule yhtään sen enempää kuin edellisen sukupolven kanssa. Joten en kyllä ymmärrä tätä valitusta kovista hinnoista. Jos on ollut varaa ostaa 1080 ti niin ei pitäis olla kynnyskysymys hankkia 2080 ti.
Ei se tosiaan aina siitä varallisuudesta ole kiinni. 1080ti sai joskus aikoinaan 750€ (itse maksoin 850€) vrt kun tää maksaa 1350€. Jos tuosta 1080ti haluaa eroon niin veikkaukselta siitä saa ehkä 600€, jos sitäkään. Eli hinnakas päivitys tulee olemaan, ja benchmarkkeja ei ole niin aika moni tätä vielä järjellä ajattelee kuitenkin. Specsit kuitenkin on mitä on, ja suuret epäilykset ilmassa ettei kovinkaan rankkaa tehonlisäystä (yli 30%) ole luvassa vrt 1080ti niin tuosta kun joutuisi maksamaan UUDEN 1080ti verran väliä kun myy vanhan kortin niin saa kyllä itellä ainakin miettimään homman kannattavuutta.
Jos kerta omistat 1080 ti kortin niin laitat myyntiin ja saaduilla rahoilla maksat erotuksen?
Ei tuosta tule yhtään sen enempää kuin edellisen sukupolven kanssa. Joten en kyllä ymmärrä tätä valitusta kovista hinnoista. Jos on ollut varaa ostaa 1080 ti niin ei pitäis olla kynnyskysymys hankkia 2080 ti.
Lisäksi vaikuttaa siltä että uusi Ti ei tule pyörittämään 3440x1440 resolla mitään pelejä RTX päällä sulavasti.
Eihän kukaan yli 1000€ kortista maksava lähde pelaamaan 1080p. Ja jos tuo on Ti:n suorituskyky, niin 2070:llä ei ole mitään tekemistä RTX:n kanssa..Metro Exoduksen renderöinnin parissa työskentelevän devin mukaan tähtäävät 1080p60 RTX-efektien kanssa. Raskasta tekniikkaa on.
Metro Exoduksen renderöinnin parissa työskentelevän devin mukaan tähtäävät 1080p60 RTX-efektien kanssa. Raskasta tekniikkaa on.
Kuinkakohan moni RTX kortin ostaja pelailee vielä 1080p näytöllä?Metro Exoduksen renderöinnin parissa työskentelevän devin mukaan tähtäävät 1080p60 RTX-efektien kanssa. Raskasta tekniikkaa on.
Meinasin tässä juuri hommata 240hz 1080p:n 2k gsyncin kaveriksi [emoji14]Kuinkakohan moni RTX kortin ostaja pelailee vielä 1080p näytöllä?
Itse en ole enään 4v..
Tai konsoleista tuttu skaalautuva resoluutio 720@30 - 1080@60 kohtauksesta riippuen.Tai sitten konsoleista tuttu 1080p 30fps
Kuinkakohan moni RTX kortin ostaja pelailee vielä 1080p näytöllä?
Itse en ole enään 4v..