NVIDIA-spekulaatioketju (Lovelace ja tulevat sukupolvet)

Itse ainakin tykkään alivoltittaa näitä. Lämpö-melu-sähkönkulutus laskee rajusti ja fps vain muutaman framen. :tup:

Tämähän se. Tällä hetkellä 1070 nestemetalleilla, 0,925V-alivolteilla ja vähän agressiivisemmalla tuuletuksella: kellot 1936Mhz ja maksimilämmöt 56°C. FPS muutaman prosentin huonompi kuin stockina.
 
Viimeksi muokattu:
Tähän hinnantiputtelu- yms. yleiseen hintaspekulointiin lisäisin pari ajatusta.

Leikitään että omistaisin Nvidian. Miten tekisin maksimaalisen voiton lippulaivalla, nyt ja tulevaisuudessa?

1080ti: 800€
2080ti: 1500€
3080ti: 2000€

Kun AMD joskus saa ulos Vega 2:den, niin hinnat tarkastetaan tehon mukaan. Mikäli Vega 2 64 ylittää tehoissa 2080ti:n, niin tällöin hinnat pudotetaan puoleen, jolloin 2080ti maksaa 750€.

Mikäli Vega 2 ei ylitä tehoiltaan 2080ti:tä, hinnat pidetään samassa. Ei sillä ole merkitystä mikä on hinta-laskentateho -suhde. Paras kortti on se, mistä ollaan valmiita maksamaan. Tehokkaimman pelikortin valmistaja on kaikkien huulilla, hinnasta viis. Imago luo brändin. Ainoa mistä tässä annetaan periksi, on jos jossain halvemmassa hintaluokassa AMD:n myynti ylittää Nvidian. Tällöin voidaan myydä vaikka 2060ti:tä pienellä tappiolla, pääasia että AMD ei pääse valtaamaan markkinaosuuksia pelaajista.


AMD voi myydä sinne mainereille b-luokan rautaa hyvällä hinta-laatu -suhteella. Se ei syö Nvidian brändiä. Tärkeintä on pitää AMD mahdollisimman monta vuotta tappiolla näyttisten osalta, estämällä markkinaosuuksien nousu. Mikäli AMD ei julkaise uutta, niin uusia kortteja suunnitellaan (3080-sarja jne.) ja valmistetaan valtavat puskurivarastot, muttei tuoda myyntiin. Vasta kun AMD pitää julkkaritilaisuuden, niin yhtäkkiä julkaistaankin uusi kortti heti myyntiin halvalla, ennen kuin AMD ehtii saada omiaan edes kauppoihin.

Näin minä ikävä kyllä toimisin, jos omistaisin nyt Nvidian. Rahanteko on yrityksen tehtävä. Suurin häviäjä olisi kyllä kuluttaja.
 
Viimeksi muokattu:
Tähän hinnantiputtelu- yms. yleiseen hintaspekulointiin lisäisin pari ajatusta.

Leikitään että omistaisin Nvidian. Miten tekisin maksimaalisen voiton lippulaivalla, nyt ja tulevaisuudessa?

1080ti: 800€
2080ti: 1500€
3080ti: 2000€

Kun AMD joskus saa ulos Vega 2:den, niin hinnat tarkastetaan tehon mukaan. Mikäli Vega 2 64 ylittää tehoissa 2080ti:n, niin tällöin hinnat pudotetaan puoleen, jolloin 2080ti maksaa 750€.

Mikäli Vega 2 ei ylitä tehoiltaan 2080ti:tä, hinnat pidetään samassa. Ei sillä ole merkitystä mikä on hinta-laskentateho -suhde. Paras kortti on se, mistä ollaan valmiita maksamaan. Tehokkaimman pelikortin valmistaja on kaikkien huulilla, hinnasta viis. Imago luo brändin. Ainoa mistä tässä annetaan periksi, on jos jossain halvemmassa hintaluokassa AMD:n myynti ylittää Nvidian. Tällöin voidaan myydä vaikka 2060ti:tä pienellä tappiolla, pääasia että AMD ei pääse valtaamaan markkinaosuuksia pelaajista.


AMD voi myydä sinne mainereille b-luokan rautaa hyvällä hinta-laatu -suhteella. Se ei syö Nvidian brändiä. Tärkeintä on pitää AMD mahdollisimman monta vuotta tappiolla näyttisten osalta, estämällä markkinaosuuksien nousu. Mikäli AMD ei julkaise uutta, niin uusia kortteja suunnitellaan (3080-sarja jne.) ja valmistetaan valtavat puskurivarastot, muttei tuoda myyntiin. Vasta kun AMD pitää julkkaritilaisuuden, niin yhtäkkiä julkaistaankin uusi kortti heti myyntiin halvalla, ennen kuin AMD ehtii saada omiaan edes kauppoihin.

Näin minä ikävä kyllä toimisin, jos omistaisin nyt Nvidian. Rahanteko on yrityksen tehtävä. Suurin häviäjä olisi kyllä kuluttaja.
Mitä ilmeisemmin Nvidia tietää ettei kannata lähteä liikaa kukkoilemaan.
 
Eihän kukaan yli 1000€ kortista maksava lähde pelaamaan 1080p. Ja jos tuo on Ti:n suorituskyky, niin 2070:llä ei ole mitään tekemistä RTX:n kanssa..

Tämmösiin olisi hyvä saada joku lähde mukaan. Ei sitä kukaan tiedä et millä kortilla/mallilla tämmönen suorituskyky irtoaa. Pitää sekin muistaaa että Exoduskin on valmis vasta joskus ens vuoden helmikuussa joten kyllä ajureilla on jo varmasti jotain nopeutta saatu lisää ko ominaisuuteen.

Minä. 2560 x 1080 @180hz.

Itellä myös tuo samainen 2560x1080, 144hz +freesync ja Vega64. Sitten nvidia häröilyt 2560x1440@144hz g syncillä =)
 
Tämmösiin olisi hyvä saada joku lähde mukaan. Ei sitä kukaan tiedä et millä kortilla/mallilla tämmönen suorituskyky irtoaa. Pitää sekin muistaaa että Exoduskin on valmis vasta joskus ens vuoden helmikuussa joten kyllä ajureilla on jo varmasti jotain nopeutta saatu lisää ko ominaisuuteen.

Eihän se sen suuremmin mitään lähteitä tarvitse kun se tiedetään että kortti tarjoaa 10 kikasädettä niin sen voi laskea mihin rahkeet riittää kuten hkultala tuossa aiemmin teki.
Samoiten tuosta voidaan päätellä että jos FHD 120Hz tähdättäisiin niin kortista pitäisi irrota 20kikasädettä.
Suorituskykyä toki voidaan parantaa sillä että ei seurata sädettä niin paljoa mutta sitten tulos alkaa kärsiä.
60Hz 4K matskulle sitten tarvittaisiin 40kikasadettä, eli jokunen sukupolvi saadaan tuollasita tehoa odotella kun mietitään minkä kokoinen tuo piiri on ja karkeasti voisi sanoa (perustuen kuvaan jossa oli turinkia ja paskalia vertailtu) että 1/4 piiristä on pyhitetty sädettimille. niin...
 
nvidian "10 gigarays" tarkoittaa oikeasti 10 miljardia säteen leikkaustarkastusta sekunnissa.

Jos kaiken piirtäisi säteenjäljityksellä ja haluaisi full-HDta 60 FPS:llä, niin:

pikseleitä tarvisi piirtää n. 120 Mpx/sec.

Jos jokaiseen pikseliin ammutaan vain yksi säde (tuottaa vielä jossain määrin kohinaisen/tai kohinanvaimennusefektejä sisältävän, mutta ihan siedettävän kuvan), tarkoittaa se 120 megaprimäärisädettä sekunnissa.

Järkevillä kiihdytystietorakenteilla leikkaustarkastusten määrä/säde on karkeeasti ottaen lg (kolmioiden määrä). Jos kolmioita on 100000, tarkoittaa se ~17 leikkaustarkastusta per säde.

Jos jokainen säde pysäytetään ensimmäiseen löytyneeseen kohteeseen, tarkoittaisi se silloin n. 2000 gigarays/sec nvidian laskentatavalla. (120M * 17 = 2G)

Eli 10 gigarays/sec tarkoittaa, että jokaista primäärisädettä kohden saa olla 4 sekundäärisädettä että raudan laskentanopeus riittää. Tämä on ihan järkevä määrä sekundäärisäteitä siihen, että saadaan järkevää valaistusta aikaiseksi.

Sekundäärisäde siis tarkoittaa sitä, että kun ensin jäljitetään kolmio, mihin säde osuu, siitä kohdasta ammutaan uusi säde heijastuksen suuntaan.


Eli vaikuttaisi siltä, että noiden RTX-ydinten suorituskyky on selvästi mitoitettu tuota 1080p@60Hz:aa silmälläpitäen.

Iso osa tuota toteutusta säteiden seurantaan "noise reduction", jota NVIDIA ei ole avannut ollenkaan. Miksi tuo on tärkeää on se, että säteenseuranta vaatii todella ison määrän säteitä, jotta lopputulos olisi hyvä, mutta isollakin määrällä säteitä kuva jää kohinaiseksi. NVIDIAlla on algoritmi, jolla neuroverkko tuottaa erittäin hyvälaatuisen kuvan hyvin kohinaisesta kuvasta. Tällä on erittäin merkittävä merkitys nopeuteen. Paras arvaus on, että yksi iso syy miksi Tensor-ytimet on lisätty on juuri tämä (Turing frame -kalvossa DNN). Tuota on kehitetty osaksi Aalto yliopistossa.



Edit: Näköjään joku vuotanut jo Turingilla tehtyä renderöintiä:



Eli tuossa näkyy perinteinen tapa tehdä säteenseurantaa. Näkee hyvin miten kuvassa esiintyvä kohina vähenee säteiden lisääntyessä. Näkee myös kohtuudella mihin 10 Grays/s riittää perinteisellä tavalla renderöitynä. Varsinkin huomaa noiden sun mainitsemien sekundäärisäteiden (heijastukset) merkityksen, sekä varjosäteet (shadow ray) ja paljonko niitä pitää ampua jotta pehmeät varjot renderöityvät ilman silmin nähtävää kohinaa (100+ per pixel samples). Reaaliaikaisessa renderöinnissä 10 GRays/s riittää vain erittäin kohinaisen kuvan tuottamiseen, joka vedetään peleissä AI-pohjaisen kohinanpoistoalgoritmin läpi, joka tuottaa hyvälaatuisen lopputuloksen. Eli tämä on se "salaisuus", jolla NVIDIA kykenee tuottamaan 1080p/60fps.
 
Viimeksi muokattu:
Onko kellään parempaa mutua josko ekwb ehtii puskea blokit pihalle samaan aikaan kun toimitukset alkaa? Vesille tuo tuleva asuksen 2080ti OC on saatava :psmoke:
 
Kuinkakohan moni RTX kortin ostaja pelailee vielä 1080p näytöllä? :tdown:

Itse en ole enään 4v.. :btooth:

Meinasin tässä juuri hommata 240hz 1080p:n 2k gsyncin kaveriksi [emoji14]

Täällä 1080p@240Hz näyttö + 1080Ti... ei toivoakaan ajella pelejä edes 200fps+ ultrilla puhumattakaan 240fps locked (pakko nöyrtyä alentamaan detaileja... hävettää). Ennen pyöri 1070:lla eSports pelit noin 200 mutta nyt ne menee sentään 240fps. Veikkaan että Cyberpunk tulee kyykyttämään fps:t taas satasen paikkeille ultralla.
 
Viimeksi muokattu:
Täällä on 1920 x 1080 144Hz ja rtx 2080 harkinnassa.
 
Viimeksi muokattu:
Onkohan Dukessa X Trioon mitään muuta eroa kuin jäähy. Hinnassa satanen eroa.

Alkoi jo himottamaan tuo TI-malli, mutta yli tonni näyttiksestä köhhhh. :D
MSI esittelee striimissään uusia korttejaan. Duke ja Trio esitellään jossain tuolla 40min paikkeilla.



Tl;dw: Duke refu pcb 3x90mm tuuletinta, Triossa custom pcb, 1x90mm ja 2x100mm tuulettimet.
 
Jotenkin tuntuu siltä, että tämä Turing -sukupolvi jää kestoltaan aika lyhyeksi - mahdollisesti jopa alle vuoden mittaiseksi.
Heti alkuun julkistettiin 2080Ti-malli, ja halvemman pään kortit 2030-2060(ti) julkistettaneen parin kuukauden sisälle, jotta ehtisivät joulumarkinoille (jos 10xx-varastot on saatu purettua).
On vähän vaikeaa odottaa, mitä esim. vuoden päästä julkistetaisiin (Titan toki on mahdollinen, mutta tuskin sen julkistamisessa vuotta odotetaan). Rebrandaykseen kovemmilla kelloilla en jotenkin usko.

Ensi kesän kynnyksellä sitten tulevat varmaan 7nm mallit merkittävästi paremmalla suorituskyvyllä.

:confused::confused:
 
Reaaliaikaisessa renderöinnissä 10 GRays/s riittää vain erittäin kohinaisen kuvan tuottamiseen, joka vedetään AI-pohjaisen kohinanpoistoalgoritmin läpi, joka tuottaa hyvälaatuisen lopputuloksen. Eli tämä on se "salaisuus", jolla NVIDIA kykenee tuottamaan 1080p/60fps.

Herää kysymys, miten "hyvälaatuinen lopputulos" määritellään silloin, kun säteenseurantaa käytetään vain valaistuksen ja varjojen laskentaan? Eli olisiko 10 gigasäteestä kuitenkin mahdollista puristaa irti 4K/60fps, jos pienet artifaktit esim. heijastuksissa sallitaan, ja suurin osa kuvasta lasketaan perinteisesti rasteroiden?
 
Onko kellään parempaa mutua josko ekwb ehtii puskea blokit pihalle samaan aikaan kun toimitukset alkaa? Vesille tuo tuleva asuksen 2080ti OC on saatava :psmoke:

Kysyin itse asiaa ekwb:ltä. Blokkien toimitukset alkavat heti kun korttienkin toimitukset saadaan tulille. Blokit tulee myös ennakkoon tilattavaksi :tup:

Mitä blokkeja sieltä sitten tulee niin siitä en tiedä. Varmaan FE blokit aluksi :rolleyes:
 
Jotenkin tuntuu siltä, että tämä Turing -sukupolvi jää kestoltaan aika lyhyeksi - mahdollisesti jopa alle vuoden mittaiseksi.
Heti alkuun julkistettiin 2080Ti-malli, ja halvemman pään kortit 2030-2060(ti) julkistettaneen parin kuukauden sisälle, jotta ehtisivät joulumarkinoille (jos 10xx-varastot on saatu purettua).
En usko, että tulee koko mallisarjaa kerralla. Ei NVidialla ole tapana tuutata ulos kokonaista uutta mallisarjaa muutaman kuukauden aikaikkunan sisällä. 2060 varmaan tulee ennen joulua, kun sitä on hieman huhuttu, mutta veikkaan, että sitä hitaammat mallit tulevat vasta ensi vuoden puolella.

Ensi kesän kynnyksellä sitten tulevat varmaan 7nm mallit merkittävästi paremmalla suorituskyvyllä.
Voihan se mennä syksyynkin? Vuoden väli julkaisuissa olisi ihan hyvä. Aiemmin voidaan toki julkaista ammattilaiskäyttöön tarkoitettu malli.
 
Herää kysymys, miten "hyvälaatuinen lopputulos" määritellään silloin, kun säteenseurantaa käytetään vain valaistuksen ja varjojen laskentaan? Eli olisiko 10 gigasäteestä kuitenkin mahdollista puristaa irti 4K/60fps, jos pienet artifaktit esim. heijastuksissa sallitaan, ja suurin osa kuvasta lasketaan perinteisesti rasteroiden?

Skenaariosi on se kaikista haastavin. Jos ajattelet vaikka skeneä: pimeä huone, jonne pääsee valoa ikkunasta ja huoneessa on peili, joka heijastaa valoa (tai mikään hiemankaan heijastava pinta ts. ei musta aukko). Tällöin jotta pystyt renderöimään framen realistisesti joudut laskemaan primääriset säteet ja näiden sekundääriset säteet (kaikki heijastukset, valon taittumiset), sekä varjosäteet, jotta saat pehmeät varjot. Se, että paljonko sekundäärisiä säteitä ja varjosäteitä joudut ampumaan riippuu aivan puhtaasti siitä paljonko ja minkälaisia valon lähteitä on, paljonko on heijastavia/taittavia pintoja on ja paljonko ne heijastavat/taittavat.

4K@60fps saadaan aikaan rajoittamalla ammuttavat säteet 10G/sec. Esim. sekundäärisiä säteitä ei ammuta kaikista pinnoista ja varjosäteitä ei käytetä juurikaan/ollenkaan. Esim. sekundääriselle säteille on joku raja-arvo, eli vain voimakkaasti heijastavilta pinnoilta ammutaan säde tjsp. Lisää säästöä voidaan saada myös esim. rajoittamalla pois sekundääristen säteiden hyppyjen määrää. Sitä en osaa sanoa kuinka hienoa/karmeaa jälki on.

Mitä enemmän asiaa ajattelen sitä enemmän olen sitä mieltä, että suurin innovaatio ei ole noissa RT-ytimissä vaan tuossa AI-pohjaisessa kohinanpoistoalgoritmissä. Olisipa hieno nähdä minkälaisen framen RTX ON tuottaa ennen ja jälkeen kohinanpoiston. Lisäksi NVIDIAn uudet AI-algoritmit pystyvät uskottavaan resoluutioskaalaukseen, joten voi olla, että resoluution lisääminen ei kyykkää lineaarisesti säteiden seurantaa. Mutta nämä toki ovat spekulointia.
 
Viimeksi muokattu:
Kenties seuraava työpaikka on jo tiedossa nvidialla :rofl: Mitään logiikkaa tuosta on vaikea löytää.

Uskomatonta että puolueettomia arvosteluja tehtailevan sivuston päätoimittaja voi kirjoittaa tuollaista vastuutonta "YOLO - don't think just buy" potaskaa. Pöyristyin.

When you die and your whole life flashes before your eyes, how much of it do you want to not have ray tracing?

Ei mitään fanitusta havaittavissa :D

Vielä erikoisemmaksi asian tekee sen, että heidän oma toimittaja edellisiltana kirjoittanut testitulosten puuttuessa jutun: "Why You Shouldn’t Buy Nvidia’s RTX 20-Series Graphics Cards (Yet)"

Why You Shouldn’t Buy Nvidia’s RTX 20-Series Graphics Cards (Yet)

Ja tässä päätoimittajan Just buy it kirjoituksessa mm. haukkuu työntekijäänsä:

"what these price-panicked pundits don't understand is that there's value in being an early adopter."

Vahvasti haiskahtaa siltä, että NVIDIA on asiasta ärähtänyt ja päätoimittaja lähtenyt paikkaamaan asiaa omalla kirjoituksellaan. Samaan aikaan Intiassa NVIDIA oli lopettanut sponssisopimuksen, kun striimaaja oli kritisoinut ennakkotilauksia.

https://www.hardocp.com/news/2018/0...ship_for_stance_against_preordering_hardware/

Oma ja io-techin mielipide: Älä usko valmistajaa, älä ennakkotilaa ja osta ennen kuin 3. osapuolen puolueettomat testit on julki.
 
Kaiken huipuksi päätoimittaja ampuu samalla alas koko oman mediansa käyttötarkoituksen. Eikö erilaisten testi yms. sivujen tarkoitus (ainakin yksi tärkeä) ole palvella kuluttajaa tekemään järkeviä päätöksiä? Voin toki olla täysin väärässä :kahvi: "nvidia's hardware"
 
Toimittajalla hype päällä, niin kuin meillä kaikilla ennakkotilaajilla. :D
 
Oma ja io-techin mielipide: Älä usko valmistajaa, älä ennakkotilaa ja osta ennen kuin 3. osapuolen puolueettomat testit on julki.

Dargolin toimenpide: Usko valmistajaa, ennakkotilaa julkaisua seuraavana päivänä ja jos 3. osapuolen testit paljastavat karun totuuden niin peru ennakkotilaus kaikessa hiljaisuudessa* :vihellys:



*
99,99 % todennäisyydellä Dargol ei pystyisi perumaan ennakkotilausta, vaan perustelisi hankinnan järkevyyttä pätevällä syyllä, kuten "se on niin kaunis".
 
Viimeksi muokattu:
Tom's Hardwaren päätoimittajan vastaus, on meinaan melkoinen paskamyrsky siellä heidän juttunsa kommenteissa ja Redditissä:

geekinchief said:
Hi All,

Thanks for all your feedback. I really appreciate the passionate discussion. I wanted to say a few things here.

First, this story and other articles labeled "opinion," do not represent the opinion of Tom's Hardware as a whole or our staff and writers as a whole . They represent only the writer's view.

As many of you noticed (and I linked to), we published an article with exactly the opposite view (wait to buy) by Derek Forrest earlier this week. My goal was to provide a counterpoint so that our readers can read both arguments and decide for themselves.

On top of that, I want to offer some context for my view. In short, what I'm saying is that, if you need a video card this fall, you should get the latest technology. Yes, it helps to read expert reviews like the one we will publish closer to the release date. However, let's keep in mind that, with driver updates, these cards could be much more powerful in 6 months than they are when we test them.

If you already own a powerful GPU (like a GTX 1080) and can bear to wait a few more months, then by all means, delay your purchase. However, if you were already planning to upgrade from an old card or are building a new system from scratch in 2018, then (I think) it would be a mistake to spend good money on a high-end 10-series card like the GTX 1080 Ti. Yes, prices are dropping, but if you invest $600 or $650 in last-gen technology and then you want to catch up and get ray tracing support in 2019, you'll be spending quite a bit to upgrade the second time, even if the price of the RTX cards has dropped by that time.

So, even if you buy an RTX 2070, it's more future-proof than a GTX 1080 Ti.
[/quote

Just Buy It: Why Nvidia RTX GPUs Are Worth the Money - US News comments
 
Olen itsekin ennakkotilannut 2080Ti, joskin peruutusnappi on toki vahvasti liipaisimella jos arvostelut näyttääkin sitten huonolta.

Mutta olihan tuo artikkeli nyt aivan uskomatonta torttua :lol: Tainnu nahkatakki kutsua päätoimittajaklopin saunomaan ja vähän keskustelemaan asioista :p
 
Dargolin toimenpide: Usko valmistajaa, ennakkotilaa julkaisua seuraavana päivänä ja jos 3. osapuolen testit paljastavat karun totuuden niin peru ennakkotilaus kaikessa hiljaisuudessa* :vihellys:

* 99,99 % todennäisyydellä Dargol ei pysty perumaan ennakkotilausta, vaan perustelee hankinnan järkevyyttä pätevällä syyllä, kuten "se on niin kaunis".

Joo ei siinä mitään, jokainen tehköön niin kuin parhaaksi näkee ja kyllähän suurin osa varmaan meidänkin lukijoista tietää mitä tekee. Mutta jos edustan mediaa, joka testaa ja arvioi tuotteita, niin ei vaan voi kehottaa lukijoita ostamaan testejä näkemättä, oli sitten kuinka henkilökohtainen "opinion" tahansa :D



Kaveri teki kyllä tuolla kirjoituksellaan jonkinlaisen oman uransa itsemurhan.
 
Mutta jos edustan mediaa, joka testaa ja arvioi tuotteita, niin ei vaan voi kehottaa lukijoita ostamaan testejä näkemättä, oli sitten kuinka henkilökohtainen "opinion" tahansa :D

Tämä on erinomainen asia. Jos io-tech vouhkaisi samalla tavalla kuin toimittaja tuossa Tom's Hardwaren jutussa, niin kyllä uskottavuus ja arvostus tipahtaisi aika alas :D
 
Olen itsekin ennakkotilannut 2080Ti, joskin peruutusnappi on toki vahvasti liipaisimella jos arvostelut näyttääkin sitten huonolta.

Mutta olihan tuo artikkeli nyt aivan uskomatonta torttua :lol: Tainnu nahkatakki kutsua päätoimittajaklopin saunomaan ja vähän keskustelemaan asioista :p

Ei ole kyllä epäilystäkään, etteikö 2080 Ti olisi markkinoiden suorituskykyisin pelinäytönohjain ja tuskin on mitään syytä peruuttaa. Saattaa jopa positiivisesti yllättää. Vaikka hinta on kova niin valitettavasti kilpailun puute ja markkinatilanne on tämä. Periaattellisella tasolla tuo "just buy it" -kirjoitus on vaan niin väärin.
 
Tomsin toimittajahan on mestari markkinoija, sillä näinhän sivusto saa rutosti lisää näkyvyyttä, oman uransa kustannuksella. :D

Mutta onhan tuollainen julkinen kirjoittelu tässä vaiheessa nyt vaan aivan väärin joka tasolla.
 
Kysymys
Tukeeko nämä uudet Nvidian kortit esim. 5760x1200 resoluutiota, eli kolmea FHD näyttöä ?
Ennen vanhaan se oli vain AMD:n Eyeinfinity ominaisuus.
 
7dxfbBu.png
 
Viimeksi muokattu:
Kysymys
Tukeeko nämä uudet Nvidian kortit esim. 5760x1200 resoluutiota, eli kolmea FHD näyttöä ?
Ennen vanhaan se oli vain AMD:n Eyeinfinity ominaisuus.
Ettäkä nyt niinku mitäkä meinoot?
FHD kun on kuitenkin 1920x1080, miten saat tuosta kolmella näytöllä tuollaisen reson?
 
Ettäkä nyt niinku mitäkä meinoot?
FHD kun on kuitenkin 1920x1080, miten saat tuosta kolmella näytöllä tuollaisen reson?
Varmaan tarkoitti kolmwa 1920x1200 näyttöä mitä muinoin on myyty....oma käsitys ettå onnistuu jos vaan liitännät passaa.... eli jos näytöistä löytyy dp ja hdmi röörit niin miks ei saisi...joku asiasta enemmän tietävä voi oikaista. Specseissä näkyy olevan et 4 näyttöä saa kiinni
 
Viimeksi muokattu:
Njoo eikös se evga:lla ole vieläkin step-uppi kampanja. Eli ostaa jostain jos saa halvemmalla evga:n pascalin ja päivittää sen sitten 90 päivän kuluessa turingiin pienellä välirahalla. Vai olikos tuo step-up voimassa vain evgan omasta liikkeestä...

1920x1200 näyttöjä 3 kpl, levitetään yhdeksi työpöydäksi = 5760x1200
Neljä yhtäaikaista oli muistaakseni maksimi geeeeforceissa nvidian puolelta.
 
Ray-tracing tunnetusti skaalautuu lineaarisesti resoluution mukaan. 4k render vaatii 400% enemmän tehoa mitä 2k render.
Jos raytracetetaan koko skeneä, niin juu. Näissä hybridi-engineissä sen sijaan ei, koska niissä RT-coreilla rendataan vain jotain yksittäisiä tekstuureita jotka ovat pääosin resoluutioriippumattomia.

Esim. Lightmappia joka määrittää missä on varjoa ja missä valoa. Se on samalla tavalla tekstuuri kuin kaikki muutkin pinnoitteet, eikä täten ole riippuvainen ruudun resosta, vaan puhtaasti siitä millä sisäisellä resoluutiolla se rendataan.

On aivan mahdollista rendata 16k x 16k lightmap ja käyttää sitä riippumatta siitä, että onko ruudun reso 720p vai 4K.

Ja 16k lightmap ei tarkoita, että rendattaisiin joka pikseliin useita raytrace säteitä, vaan lähinnä sitä, että RT-engine laskee eniten säteitä siellä missä valaistuksen vaihtelu on suurinta ja sitten interpoloi välejä, ehkä jopa tensor coreja hyödyntäen.

Tässä on nvidian dev-blogista aika hyvä setti.
Coffee Break: Ray Plus Raster Era Begins | NVIDIA Developer Blog

Skenaariosi on se kaikista haastavin. Jos ajattelet vaikka skeneä: pimeä huone, jonne pääsee valoa ikkunasta ja huoneessa on peili, joka heijastaa valoa (tai mikään hiemankaan heijastava pinta ts. ei musta aukko). Tällöin jotta pystyt renderöimään framen realistisesti joudut laskemaan primääriset säteet ja näiden sekundääriset säteet (kaikki heijastukset, valon taittumiset), sekä varjosäteet, jotta saat pehmeät varjot. Se, että paljonko sekundäärisiä säteitä ja varjosäteitä joudut ampumaan riippuu aivan puhtaasti siitä paljonko ja minkälaisia valon lähteitä on, paljonko on heijastavia/taittavia pintoja on ja paljonko ne heijastavat/taittavat.

4K@60fps saadaan aikaan rajoittamalla ammuttavat säteet 10G/sec. Esim. sekundäärisiä säteitä ei ammuta kaikista pinnoista ja varjosäteitä ei käytetä juurikaan/ollenkaan. Esim. sekundääriselle säteille on joku raja-arvo, eli vain voimakkaasti heijastavilta pinnoilta ammutaan säde tjsp. Lisää säästöä voidaan saada myös esim. rajoittamalla pois sekundääristen säteiden hyppyjen määrää. Sitä en osaa sanoa kuinka hienoa/karmeaa jälki on.

Mitä enemmän asiaa ajattelen sitä enemmän olen sitä mieltä, että suurin innovaatio ei ole noissa RT-ytimissä vaan tuossa AI-pohjaisessa kohinanpoistoalgoritmissä. Olisipa hieno nähdä minkälaisen framen RTX ON tuottaa ennen ja jälkeen kohinanpoiston. Lisäksi NVIDIAn uudet AI-algoritmit pystyvät uskottavaan resoluutioskaalaukseen, joten voi olla, että resoluution lisääminen ei kyykkää lineaarisesti säteiden seurantaa. Mutta nämä toki ovat spekulointia.
Kannattaa katsella/lueskella noita nvidian dev-blogeja, joissa kerrotaan ja demotaan noita kohinoita single-rayllä ja lopullisilla kohinanpoistetuilla versioilla.

Kohinanpoisto on myös mullistanut leffarendauksen kun on voitu siirtyä tuhansista säteistä per pikseli kymmeniin säteisiin per pikseli.
 
Viimeksi muokattu:
Tom's Hardwaren päätoimittaja teki virheen ja saa nyt lokaa niskaansa reilusti, mutta missä on ongelman juurisyy ja ketä ei yhtä äänekkäästi arvostella? Nvidiallahan se on. On päivän selvää että tänä päivänä Nvidia on grafiikkapiirien mafia, mutta hyviä tuotteita silti tekevät ainakin tässä nykyisessä valossa, kun ei ole kunnollista vertailukohtaa. Ovat silti historiassa voittaneet kilpailijansa useasti. Onneksi tulee Intel ja toivottavasti tulisi vielä yksi tai kaksi muutakin haastamaan, jotta suunta muuttuisi. Tahdon vain tällä muistuttaa että Nvidia itse pelaa taustalla vilunkia ja säätelee sitä mitä media saa puhua, ketkä voivat ylipäätään arvostella heidän tuotteitaan ja kohentavat omaa asemaansa kampittamalla ainutta kilpailijaansa. Ei ole tervettä kehitystä tällainen, vaan sitä jarruttavaa ja kuluttajalle ansaksi koituvaa.
 
Viimeksi muokattu:
Ei kai nVidia ole kuitenkaan AMD:ta estänyt tekemästä parempia tuotteita? Vai onko nVidialla sellainen patenttisalkku että saa kampitettua AMD:ta sillä ja AMD:n on pakko tyytyä huonompiin arkkitehtuureihin?
Ei, vaan se on saanut hankittua isoin osin vilunkipelillä tai ainakin hyvin harmaalla alueella liikkumalla itselleen osuuden jolla se saa helposti saneltua itselleen suosiollisia ja kilpailijalle negatiivisia ratkaisuja isoon osaan peleistä.
 
Tom's Hardwaren päätoimittaja teki virheen ja saa nyt lokaa niskaan reilusti, mutta missä on ongelman ydin ja ketä ei yhtä äänekkäästi arvostella? Nvidiallahan se on. On päivän selvää että tänä päivänä Nvidia on grafiikkapiirien mafia, mutta hyviä tuotteita silti tekevät ainakin tässä nykyisessä valossa, kun ei ole kunnollista vertailukohtaa. Ovat silti historiassa voittaneet kilpailijansa useasti. Onneksi tulee Intel ja toivottavasti tulisi vielä yksi tai kaksi muutakin haastamaan, jotta suunta muuttuisi. Tahdon vain tällä muistuttaa että Nvidia itse pelaa taustalla vilunkia ja säätelee sitä mitä media saa puhua, ketkä voivat ylipäätään arvostella heidän tuotteitaan ja kohentavat omaa asemaansa kampittamalla ainutta kilpailijaansa. Ei ole tervettä kehitystä tällainen, vaan sitä jarruttavaa ja kuluttajalle ansaksi koituvaa.

Millätavoin Nvidia estää muita kehittämästä ja julkaisemasta grafiikkapiirejä?

GPU puoli nyt vain kilpailtiin AMD ATI:n ja Nvidian toimesta PC puolella täysin hengiltä. 2 Valmistajaa oli vain selkeästi vahvempia, kuin muut, joten muille ei jäänyt enää tilaa.
Nyt sitten AMD:ltä on ollut rahat vähissä ja Sekin on jäänyt GPU puolella pahasti jälkeen, joten nyt vain ei ole kilpailua, koska kellään ei ole tuotteita, joka kykenisi kilpailemaan pelipuolella sen kanssa midrange GPU:iden yläpuolella.

Tilanne korjautuu mahdollisesti ja jopa todennäköisestikin joskus, mutta tuskin merkittävästi muutamaan vuoteen ainakaan. Ominaisuuksien puolesta turingissa on paljonkin potentiaalia. Toteutuman näkee sitten, kunhan sitä joskus testataan tarpeeksi monen ison kolmannen osapuolen toimesta ja toisaalta, kunhan muutama kunnolla RT:tä tukeva peli tulee täysin valmiiksi. Tällä hetkellä kellään ei ole Nvidian ulkopuolella tietoa, koska varsinainen liikenteeseen päästäminen tapahtuu vajaan kuukauden päästä. Epäilemättä vuotoja tapahtuu, kunhan Nvidia päästää joskus ajurit liikenteeseen.
 

Statistiikka

Viestiketjuista
259 278
Viestejä
4 507 702
Jäsenet
74 347
Uusin jäsen
Si-Pe

Hinta.fi

Back
Ylös Bottom