Virallinen: NVIDIA vs AMD (vs Intel) keskustelu- ja väittelyketju

  • Keskustelun aloittaja Keskustelun aloittaja Sampsa
  • Aloitettu Aloitettu
Vaan eksaktius on aika turhaa, kun riittää jos virheet toistossa on alle 2 deltan.

Alle kahden millä ΔE-kaavalla?

Oletko itse kalibroinut laitteita minkä verran? Siis ihan käsipelillä eikä automaattisella softalla. Saan nimittäin helposti kaksi näyttölaitetta näyttämään merkittävästi erilaiselta vaikka ΔE CIE76 olisi molemmissa alle kahden. Etenkin tummaa päätä lähestyen harmaasävyissä, jossa ΔE CIE76 on aivan liian anteeksiantavainen.

Esimerkiksi taannoisessa Acer XB271HU:ssani punainen veti ihan silminnähden oranssia kohti, joka häiritsi niin paljon että vaihdoin sen pois, mutta ΔE oli CIE76-kaavalla ilman absoluuttisten kirkkaustasojen laskentaa alle 2. Eli siis kalibrointisoftan ja -laitteen mukaan sävyvirhe referenssistä ei olisi pitänyt olla ihmissilmän havaittavissa. Oli ja pahasti. Silloinen Sony W705-telkkarini toisti sävyn huomattavasti erilailla, ja oikellisemmin. Eron näki selvästi, vaikka molemmat ΔE <2.

Ymmärrän hyvin, mitä graafisen alan standardeilla haetaan, mutta emme tiedä, noudatetaanko noita standardeja pelialalla kuinka tarkasti, mitä standardia tarkalleen on käytetty, mitä parametreja on käytetty silloin kun standardista niiden määritys puuttuu, ja onko käytetty näyttölaite edes kyennyt toistamaan standardeja riittävällä tarkkuudella. Ainoastaan OLED kykenee aitoon absoluuttiseen Power Law gammaan, muilla toisto heittää väkisinkin kun mustan lähtötaso on kohotettu ja gamma sovitetaan niin, että se mukautuu kohonneeseen mustan tasoon. Jos tyypillisen IPS-näytön tai telkkarin kalibroi 2.2 gammalle mustan tason kompensoinnilla, niin absoluuttisessa mittauksessa sen DE:t huitelee stratosfääreissä. Se ei yksinkertaisesti pysty näyttämään riittävän tummia ja saturoituneita värejä. Eli pelkästään kahden eri paneelityypin välillä absoluuttiset ΔE:t on väkisinkin roimasti yli kahden toisiinsa nähden. Siihen päälle vielä metameriavirheet, joiden ansiosta sama mittaustulos näyttää kahdella eri paneelityypin näytöllä merkittävästi erilaiselta paljaaseen silmään, niin alkuperäisen näkemyksen tavoittelun voi käytännössä unohtaa. REC709 ja 2.2 gammalla pääsenee "sinnepäin", ja kalibrointi voi silti hyödyttää esimerkiksi väriliukumien siivoamisena ja värintoiston yhtenäistämisenä. Näyttöjen kalibrointikaan ei ole valitettavasti niin eksakti tiede, että voitaisiin taata sama kuva kaikille.
 
Saan nimittäin helposti kaksi näyttölaitetta näyttämään merkittävästi erilaiselta vaikka ΔE CIE76 olisi molemmissa alle kahden. Etenkin tummaa päätä lähestyen harmaasävyissä, jossa ΔE CIE76 on aivan liian anteeksiantavainen.
Millä patchisetillä oot kattonu että deltaE:t on alle kahden? Siis noissa tilanteissa joissa olet mielestäsi kalibroinu näytöt alle 2deltaE erolle. Tummilla sävyillä on omat ongelmansa jos näyttöpäätteet on tumman pään toistoltaan haastavia ja vertailu tehdään pimeässä tilassa.

Nykyään taidetaan suosia lähinnä tuota CIEDE2000 deltaE kaavaa, jolla erityisesti saturoitujen tummien sävyjen ongelma on pitkälti hallinnassa ja <2 deltaE on aika hyvä tulos.

Näyttöjen kalibrointikaan ei ole valitettavasti niin eksakti tiede, että voitaisiin taata sama kuva kaikille.
Kyllä voidaan, kunhan näyttölaitteet on riittävän korkealaatuiset. Heikkotasoisellakin näyttölaitteella saadaan tyypillisesti merkittävä osa sävyistä kalibroitua oikein hyvin.

Oletko itse kalibroinut laitteita minkä verran? Siis ihan käsipelillä eikä automaattisella softalla.
Jonkin verran. Aika vaikeaa tuo tuppaa olemaan ja kontrolleja ei ole yleensä riittävästi. Paljon helpompaa on ostaa näyttölaitteita jotka tukevat rautatason kalibrointia ja osaavat hoitaa kalibrointilaitteen kanssa kommunikoinnin itsenäisesti. Validoinnit sit pc:n avulla.
 
Millä patchisetillä oot kattonu että deltaE:t on alle kahden?

Calman SG ja Calman Skintones. Mutta en ymmärrä relevanssia. Helpoin vertailu on laittaa näytöt toistamaan samaa patchiä vierekkäin. Jos tuo patchi mittaa molemmilla <2 DE ja on eri näytöillä silminnähden erinäköinen niin <2 DE ei liene riittävä varmistus että näytöt toistaisivat värit yhtäläisesti.

Nykyään taidetaan suosia lähinnä tuota CIEDE2000 deltaE kaavaa, jolla erityisesti saturoitujen tummien sävyjen ongelma on pitkälti hallinnassa ja <2 deltaE on aika hyvä tulos.

CIEDE2000 näyttäisi olevan vielä anteeksiantavampi tummassa päässä kuin CIE76.

Jos tyypillisellä IPS-näytöllä esitetään sama kuva kuin OLEDilla, molemmat kalibroituna 2.2 gammalle 150 nits valkoisella, mustan taso kompensoituna IPS:llä, niin 5% kirkkaustaso on IPS:llä noin tuplasti kirkkaampi kuin OLEDilla. Ei ihan pieni poikkeama, jonka kuka tahansa huomaa, oli tila valoisa tai ei. Siitä alaspäin mentäessä luminanssiero nousee exponentiaalisesti, kun tilataan sävyjä, joita IPS ei voi enää edes yrittää toistaa. IPS ei niissäkään tummissa sävyissä, joita se voi yrittää toistaa, saavuta läheskään riittävää saturaatiotasoa. Kaikki varmasti näkee eron mustan tasossakin OLEDin ja IPS:n välillä. Mitä veikkaat, mitä luokkaa IPS:n absoluuttinen DeltaE on kun sillä yritetään toistaa vaikkapa 0,1 nitsin punaista edellämainitulla kalibroinnilla? Se kun toistaa tuolloin vain sen taustavaloa. IPS on tunnetusti se "go-to" paneelityyppi grafiikkahommissa, joten ei liene yllätys jos niitä pelintekijöiden pöydiltäkin löytyy.

Kyllä voidaan, kunhan näyttölaitteet on riittävän korkealaatuiset. Heikkotasoisellakin näyttölaitteella saadaan tyypillisesti merkittävä osa sävyistä kalibroitua oikein hyvin.

Kts. edellinen paragrafi.

Kuinka olet omissa kalibroinneissasi ratkaissut metameriaongelman? Tämä on asia, jonka kanssa isot kalibrointiin erikoistuneet firmat kuten Portrait Displays, sekä ammattilaiskalibroijat, edelleen taistelee. Toistaiseksi ratkaisu on ollut niinkin tieteellinen kuin "verrataan näyttöjä silmämääräisesti ja haetaan subjektiivisesti joku valkopiste jolla näyttäisi täsmäävän" eikä kukaan tunnu olevan edes samaa mieltä, mikä sen valkopisteen pitäisi olla, ja mihin näyttöön pitäisi verrata.

Mutta kohta moderaattori älähtää niin paras lopetella homma mun osalta tähän.
 
Ja väität, että ranut ilman ketsuppia ovat keittiön taiteellinen näkemys asiasta?
Ei kiinnosta semanttinen vääntö siitä mikä on taidetta.

Jos tietokonepelit ovat taidetta, ne ovat interaktiivisempaa taidetta kuin kuvataide. Se grafiikka-asetusvalikko on olemassa siksi, että se taiteellinen suurtirehtööri ymmärtää kyllä, että pelikokemus voi olla parempi kun pelin grafiikoita tuunataan niin, että peli pyörii kivasti.

Siellä valikossa on itseasiassa usein jopa sellaisia asetuksia, jolla ei ole juuri minkäänlaista hintaa frametimessä, mutta käyttäjälle on annettu vapaus valita omien mieltymystensä mukaan, haluaako pitää esim. vignettingin ja chromatic aberrationin päällä vai onko kivempi pelata ilman niitä.

Ranuvertaus toimii siis oikeastaan mun mielestäni paljon paremmin kuin Mona Lisa -vertaus.
 
Computerbase teki näytönohjaimien kulutusvertailuja. Sehän ei ole uutta, uutta oli se, testisetti oli laajempi. Eli idle, desktop ikkunan liikuttelu, dual monitor, youtube, youtube hdr, rajoittamaton fps ja 144hz fps cap.

Tässä tiivistelmä, niille jotka ei jaksa lukea:

- Dual monitorilla Nvidia on selvästi parempi. 23W vs 41W.
- Esim Idlet on about samat, mutta ikkunan liikutus kasvattaa 27W 6800X:lla ja 18W 3080:lla.
- Youtube toistossa Nvidia oli pari wattia parempi, mutta yllättäen youtube:n vaihto HDR:ään kasvattaa 29W 6800X vs 36W 3080.

144hz FPS cap oli myös aika mielenkiintoinen, siinä tuli aika kovia eroja:

“If an FPS limiter is used, it quickly becomes apparent that AMD's and Nvidia's technical frameworks differ massively in terms of clock management. The power consumption in WQHD amounts to 295 watts for the Radeon RX 6800 XT and 319 watts for the GeForce RTX 3080 - so the two models are definitely comparable. With an FPS limit of 144 frames per second, the gap opens up massively. In this case, the RDNA-2 graphics card only needs 194 watts (-101 watts), but the ampere counterpart with 252 watts (-67 watts) is significantly more. And in Full HD, the differences are even greater in percentage terms at 153 watts (-141 watts) and 213 watts (-103 watts)”
 
Eikös AMD vasta korjannu noita idle kulutuksia, vai oliko ne sitten vielä korkeammat ennen korjausta?
Yhdellä näytöllä alle 10W, tosiaan tämä korjattiin toukokuun ajuripäivityksessä, sitä ennen oli ~40W. Tuo kahden näytön korkeahko idle-kulutus on ollut aina radeoneilla, jostain syystä muistikelloja ei voida laskea kahdella näytöllä.
 
144hz FPS cap oli myös aika mielenkiintoinen, siinä tuli aika kovia eroja:

“If an FPS limiter is used, it quickly becomes apparent that AMD's and Nvidia's technical frameworks differ massively in terms of clock management. The power consumption in WQHD amounts to 295 watts for the Radeon RX 6800 XT and 319 watts for the GeForce RTX 3080 - so the two models are definitely comparable. With an FPS limit of 144 frames per second, the gap opens up massively. In this case, the RDNA-2 graphics card only needs 194 watts (-101 watts), but the ampere counterpart with 252 watts (-67 watts) is significantly more. And in Full HD, the differences are even greater in percentage terms at 153 watts (-141 watts) and 213 watts (-103 watts)”
Ratukoista on vähän ulosmitattu tehot ulos, näissä kun on kivasti alivoltitus-potentiaalia. Varsinkin jos ei ole pakkomielle maksimoida kellot ja piiri saa toimia optimaalisemmalla alueella. 50-60W lähtee pelkällä alivoltituksella ja pienellä alikellotuksella vielä enempi. Oma 6800 rullaa noin 200W koko kortti(160W monitorointisoftissa) vakiokelloilla ja 950mV jänniteasetuksella. Vakionakin tämä on effi-listan kärjessä TPU:lla. Siihen kivat 25% lisää pienellä säädöllä.
Tämä liittyy sakemannien testiin siten että noissa vajaakuormitustesteissä näyttis käytännössä alikellottaa ja voltittaa itsensä kun sillä ei ole tarpeeksi tekemistä. Nvidiaa rasittaa GDDR6X muistit jotka imee virtaa melkoisesti enempi kuin perus GDDR6-piirit ja niitä on vieläpä enemmän kortilla. Siten coren kulutuksen vähentäminen ei vaikuta niin paljon.
 
Yhdellä näytöllä alle 10W, tosiaan tämä korjattiin toukokuun ajuripäivityksessä, sitä ennen oli ~40W. Tuo kahden näytön korkeahko idle-kulutus on ollut aina radeoneilla, jostain syystä muistikelloja ei voida laskea kahdella näytöllä.
Tämä ei pidä paikkaansa, vaan kyseinen vaiva on vaihtelevasti koskenut kumpaakin valmistajaa ja riippuu sekä kokoonpanosta että tuurista. Itsellä on esimerkiksi ollut 2560x1440@144 (Samsung C32HG70) ja 3840x2160@60 (Samsungin joku UHD töllö) kiinni sekä GeForceissa (GTX 980, 1060) että Radeoneissa (5700 XT, 6800 XT) ja muistikello-ongelmaa on esiintynyt kaikilla vaihtelevasti.
edit: jaa, 6800 XT:stä en oo ihan varma olenko vielä törmännyt.

(ps. se on tiedossa oleva ongelma että Radeon Softwaressa voi näkyä todellisuutta korkeammat muistikellot)
 
Mulla 6800XT ennen jotain ajuripäivitystä 1x 144hz 1440p näyttö vei reilu 20W, nyt päivityksen jälkeen 5-8W. Kiinni myös satunnaisesti 1080p 60hz näyttö ja jos kummatkin päällä niin vie myös reilu 20W, ennen päivitystä vei joku 40W.
 
Yhdellä näytöllä alle 10W, tosiaan tämä korjattiin toukokuun ajuripäivityksessä, sitä ennen oli ~40W. Tuo kahden näytön korkeahko idle-kulutus on ollut aina radeoneilla, jostain syystä muistikelloja ei voida laskea kahdella näytöllä.

Voi laskea. Techpowerupissa on esim eri näyttökonffi (taisi olla 1440p ja fullhd) ja siellä laskee, computerbase veti muistaakseni 2x 4k. Vastaavasti 60fps vsync 1080p resolla techpowerupissa ampere on big navia energiatehokkaampi. On noissa muuttujia ihan kiitettävästi.
 
Omassa setupissa refu-RX 6800:lla näyttäisi useamman monitorin setupilla riippuvan ihan kullakin näytöllä käytettävistä virkistystaajuuksista että pomppaako muistikellot ja idlevirrankulutus ylös. Tässä allekirjoittaneen GPU-Z screenshot työpöydältä kahdella näytöllä muistikellojen pysyessä alhaalla. Päänäyttö Eizo Foris FS2736 2560x1440 144 Hz FreeSync, kakkosnäyttö Eizo FlexScan EV2736W 30 Hz ja molemmat DP:llä kiinni, ajuriversio 21.7.2. Jos tuon kakkosnäytön hertsit nostaa 60 Hz niin muistikellot pomppaavat ylös mikäli ykkösnäytöllä ei ole myöskin 60 Hz. 100 Hz, 120 Hz tai 144 Hz käytössä kellot ja idlevirrankulutus nousevat. Kursorin liike ym. elämä näytöllä on sillä 30 Hz:llä ihan saatanan takkuista mutta koska ko. näytöllä on muutenkin ainoastaan staattista sisältöä (some/nettiselain) niin siitä ei ole omassa casessa haittaa.

6800A_desktop.gif


HBM radeonit eivät välitä montako näyttöä on kiinni Vega on hyvin energia tehokas multi monitor käytössä työpyödällä

Entisillä Vega 56:lla ja Vega 64 korteilla ja senaikaisilla (2019/2020) ajureilla pelanneena voin vahvistaa havaintosi. Tätä samaa näyttösetuppia pystyi ajamaan täysillä hertseillä ilman että kellot nousivat maksimiin. Joskus saattoi tulla epämääräisiä lyhyitä harmaita välähdyksiä ruuduille mutta niistä selvisi siten että ajurien ylikellotuspaneelista forcetti "välitilan" muistikellot (500 MHz) minimiksi jolloin tehonkulutus työnpöydällä nousi hieman muttei samalla tavalla kuin näillä GDDR5/6 Radeoneilla.


Tarinan opetus: Kokeilkaa ajaa niitä näyttöjänne, etenkin niitä joiden kanssa ruudunpäivitysnopeudella ei ole väliä, eri virkistystaajuuksilla. Siitä voi olla tapauskohtaisesti hyötyä idlevirrankulutukseen.
 
Vihreän leirin esimerkki.

1440p240 + 1440p60 + 2160p120 (Kaikki syncillä):
asdfd.gif
~90W

1440p240:
asdfd2.gif
~40W

Board powerin mukaan siis.
 
Aikooko Nvidia tuoda 4000-sarjan jo 2022 ja 5000-sarjan 2024? Luin niin internetistä. Onko siis kolmen vuoden syklistä luovuttu?
 
Aikooko Nvidia tuoda 4000-sarjan jo 2022 ja 5000-sarjan 2024? Luin niin internetistä. Onko siis kolmen vuoden syklistä luovuttu?

Onko nVidia julkistanut jonkun kolmen vuoden syklin suunnitelman, vai mistä moinen? Ainakaan edellisten julkaisujen tahti ei sellaista toteuta.

GTX 900-sarja julkaistiin 9/2014 (tosin arkkitehtuuri jo 02/2014 GTX 750 TI:n muodossa)
GTX 1000-sarja julkaistiin 05/2016
RTX 2000-sarja julkaistiin 08/2018
RTX 3000-sarja julkaistiin 09/2020

Noihin on tehty erilaisia ratkaisuja sen mukana mikä piiri on julkaistu ensin. Aina on tullut kuitenkin high end suorituskykyä heti kärkeen, mutta esim 900-sarjan kohdalla vain GTX 980 ja vasta seuraavana vuonna GTX 980 Ti. Kun tämmöinen julkaisuaikataulu ja refreshit otetaan huomioon, niin sitä on käytännössä vuosittain tullut uusi top end markkinoille kolmen vuoden syklin sijaan.
 
On tää hupaisaa. Piti olla uus Pascal, mutta olikin uus Ampere. Oman ykköskortin möin pois sen vuoksi, että ei voi työttömällä olla yli kuukauden nettotulon arvoista korttia niin vähällä käytöllä.

Pelikäyttöön ei löydy järkevän hintaisia kortteja. Antiikkia, antiikkia -osastolla on jo antiikkihintoja, eikä mikään hommassa ole tervettä.

Pitkässä juoksussa lhr-kortit olisivat olleet jees. Toki kun ne tulivat, pukattiin samasta sirusta 3080 ti, ja hapokkaista tulee 3080 super. Nvidia ja louhijat pelasivat tällä kierroksella nätisti samaan pussiin. GG.
 
Olen "vähän" myöhässä FSR testejen osalta mutta tässä ne kuitenkin olisivat :)



Testasin FSR:ää RX Vega 11:sta ja GTX 780 ti:lla pelissä Necromunda Hired Gun.

EDIT: Laitetaan linkki vielä Odyseenkin jos joku haluaa sieltä mielummin tämän vilkaista:
 
Viimeksi muokattu:
Tässähän rupeaa suorastaan kammoamaan AMD-sponssattuja pelejä, kun Far Cry 6:ssa DLSS:n sijaan saatiin vaisumpi FSR ja RT-toteutuskin on ehkä minimalistisimpia ja gimpatuimpia mitä on toistaiseksi nähty.
 
Se FSR toimii kaikilla korteilla. DLSS on typerästi rajattu vain RTX:lle...

Vähän omassa FSR videossani ennustinkin että DLSS tulee kuolemaan vielä, kun liian pieni asiakaskunta. Että miksi pelin kehittäjä laittaisi tikkuakaan ristiin sen eteen että laittaisivat peliinsä DLSS tuen josta eivät hyödy kuin RTX korttejen omistajan.
Ja loppujen lopuksi nekään eivät sitä tarvitse kun ne kortit ovat jo ilman typeriä skaalaus systeemeitä tarpeeksi nopeita niitä pelejä pyörittämään.
FSR ja varmaan se tuleva Intelinkin systeemi ovat näppäriä vanhojen/hitaitten korttien omistajille että pääsevät vielä pelaamaan uusia pelejä sulavilla fps:llä.
 
Viimeksi muokattu:
Tässähän rupeaa suorastaan kammoamaan AMD-sponssattuja pelejä, kun Far Cry 6:ssa DLSS:n sijaan saatiin vaisumpi FSR ja RT-toteutuskin on ehkä minimalistisimpia ja gimpatuimpia mitä on toistaiseksi nähty.

FSR on AMD:n, mutta miten tuo säteenseuranta on AMD-sponssaamien pelien vika? Olisiko enemmän RT-toteutuskin kuitenkin Ubisoftin käsialaa. Ubisoftin, joka on hitaasti tuonut säteenseurantaa muutenkaan peleihin, eli siellä ei taideta olla Nvidian RTX-hypejunassa mukana.

Tässä nyt Nvidian RTX-kortin omistajana on noita säteenseurantapelejä kertynyt, enkä yhdessäkään ole nähnyt merkittävänä asiana pelikokemuksen kannalta. Potentiaalia on varmasti, mutta erittäin hitaasti on edetty sieltä n. 4 vuoden takaisesta Nvidian RTX-launchista.

FSR ja varmaan se tuleva Intelinkin systeemi ovat näppäriä vanhojen/hitaitten korttien omistajille että pääsevät vielä pelaamaan uusia pelejä sulavilla fps:llä.

Varsinkin joillekkin integroitujen näytönohjainten omistajille tuo FSR on oikea taivaanlahja. Nuo käyttäjät saa paremmat grafiikka-asetukset FSR ansiosta, ja sujuvamman pelikokemuksenkin. Ja hyvä jos tosiaan Intelinkin vastaava tulee olemaan avoin kaikilla korteilla toimiva. Tämä on hyvä suunta kuluttajien kannalta. Esim. RX 560, 570, 580 ja GTX 1050 ja 1060 omistajia on edelleen aivan valtavat määrät, ja nuo joutuu tekemään kompromisseja uusissa peleissä. Ja joutuu jatkossakin, kun tässä nykytilanteessa kortit maksaa munuaisen ja keuhkot.
 
Lisäksi FSR:n saa Proton -kerroksen avulla käyttöön kaikissa peleissä, myös niissä missä se ei ole tuettuna. Eli käytännössä sen saa halutessaan päälle sekä Linuxissa että esim. Steam deckissä päälle jokaiselle pelille. Toki kyseinen ominaisuus on vähän häkätty, koska kyseisen ominaisuuden avulla myös UI elementit käsitellään (mitä ei natiivissa tehdä). Toki protoniin tuli beta tuki myös dlss:lle (olikohan directx12 peleille), joten Valven Steam Deck on Linux pelaajalle hetkeen parasta ikinä.
 
Lisäksi FSR:n saa Proton -kerroksen avulla käyttöön kaikissa peleissä, myös niissä missä se ei ole tuettuna. Eli käytännössä sen saa halutessaan päälle sekä Linuxissa että esim. Steam deckissä päälle jokaiselle pelille. Toki kyseinen ominaisuus on vähän häkätty, koska kyseisen ominaisuuden avulla myös UI elementit käsitellään (mitä ei natiivissa tehdä). Toki protoniin tuli beta tuki myös dlss:lle (olikohan directx12 peleille), joten Valven Steam Deck on Linux pelaajalle hetkeen parasta ikinä.
Protonin DLSS tuki mahdollistaa vain DLSS:n käytön sitä valmiiksi tukevissa peleissä, ei lisää sitä mihinkään, eikä se tee Steam Deckistä yhtään sen parempaa tai huonompaa, se ei DLSS:ää tue niin kauan kuin NVIDIA estää DLSS:n toiminnan muilla kuin sen omilla RTX-korteilla.
(ja Magpiellä ja jollain toisella saa FSR:n Windowsissa "mihin vaan")
 
Kova on korrelaatio AMD-sponssin ja minimalistisen RT-toteutuksen välillä. Kummasti NVidia-sponsseissa tilanne tuppaa olemaan ihan toinen.
NVIDIAlla on hyvät työkalut, millä saa suht helposti hyvin vain heidän näytönohjaimillaan toimivaa settiä. Neutraalimpaa tai AMD:ta suosivampaa RT-toteutusta hakiessa on vähemmän kypsät työkalut ja vähemmän automaatiota käytössä.
 
Kova on korrelaatio AMD-sponssin ja minimalistisen RT-toteutuksen välillä. Kummasti NVidia-sponsseissa tilanne tuppaa olemaan ihan toinen.

Eiköhän tämä kuva selitä vähän mistä johtuu:

https://www.spglobal.com/marketintelligence/en/news-insights/blog/easset_upload_file19262_1969320_e.png


Konsolit on jo omaan silmään jo vähän isompi markkina. Päälle vielä steamin tilastot, valtaosalla on just joku 1060 tjsp tason gpu. Vaikka tekissä ollaankin, niin käytännön RTX on markkinat on vielä aika pienet. Isot lähes vuosittain päivitettävät pelisarjat on on aikalailla syytä pitää pyörii kivasti konsolillakin - osastossa.

Tietty jos pistää DLSS ja RTX on, niin saa Nvidian somekanavilta näkyvyyttä, hypeä ja tukea kehitykseen. Toisaalta perus pc raudalle ja konsoleille pitää silti työstää työstää liteversiota. Fifa sarja taitaa kai yhä piestä myynneissä lähes kaikki AAA pelit.
 
se ei DLSS:ää tue niin kauan kuin NVIDIA estää DLSS:n toiminnan muilla kuin sen omilla RTX-korteilla

DLSS:n joku shaderipohjainen Control-tyyppinen ratkaisu olisi ehkä toteutettavissa ilman tensor coreja? Olisi tietysti
hienoa, jos se olisi parempi kuin FSR ja toimisi myös muiden valmistajien näyttökorteilla?

vähemmän automaatiota käytössä

Muistaakseni olit jossain toisessa yhteydessä myös maininnut että nVidian RT-toteutuksessa on käytännössä
enemmän laskentakapasiteettia (per ovh hintaryhmä).
 
DLSS:n joku shaderipohjainen Control-tyyppinen ratkaisu olisi ehkä toteutettavissa ilman tensor coreja? Olisi tietysti
hienoa, jos se olisi parempi kuin FSR ja toimisi myös muiden valmistajien näyttökorteilla?
Kyllähän teknisesti olisi mahdollista pyörittää DLSS:ää varmaan lähes millä vain shadereilla, mutta riittääkö nopeus?
No onneksi sieltä intelin suunnalta pukkaa teknisesti samansuuntaista, mutta avointa vaihtoehtoa.
 
Läppäreissä rtx 3050 ja 3050 ti jo on saa nähdä koska tulee 200-300 euron luokkaan rtx kortteja.

Tosin itse en nyt näe että yliskaalaustekniikat olisi sinänsä hyödyllisiä vain heikomman tason korteille vaan kyllä se hyödyttää jos pelaa 4k tai 1440p resoluutiolla ja kyllä nämä nykyisetkin kortit vanhenevat jolloin pysyäkseen 60+ fps voi laittaa tekniikan päälle quality tai ultra quality asetuksella=profit.
 
DLSS:n joku shaderipohjainen Control-tyyppinen ratkaisu olisi ehkä toteutettavissa ilman tensor coreja? Olisi tietysti
hienoa, jos se olisi parempi kuin FSR ja toimisi myös muiden valmistajien näyttökorteilla?

Muistaakseni olit jossain toisessa yhteydessä myös maininnut että nVidian RT-toteutuksessa on käytännössä
enemmän laskentakapasiteettia (per ovh hintaryhmä).
DLSS voisi pyöriä ihan versiosta riippumatta millä vaan modernilla raudalla, nopeus on toki kysymysmerkki koska NVIDIA ei tällaista mahdollisuutta tarjoa. Tensoriytimet on vain dedikoituja matriisilaskimia, samat laskut onnistuu ilmankin.
(Intelhän on tuomasta omastaan sekä sen matriisilaskimille optimoidun että kaikilla DP4A:ta tukevilla toimivan version ja vieläkin löyhemmät vaatimukset onnistuisivat jos halutaan)

Kyllähän siellä NVIDIAlla on järeämpää RT-rautaakin mutta se ei muuta tuota toista puolta.
 
Protonin DLSS tuki mahdollistaa vain DLSS:n käytön sitä valmiiksi tukevissa peleissä, ei lisää sitä mihinkään, eikä se tee Steam Deckistä yhtään sen parempaa tai huonompaa, se ei DLSS:ää tue niin kauan kuin NVIDIA estää DLSS:n toiminnan muilla kuin sen omilla RTX-korteilla.

Niin, siis FSR:n saa protonin forkilla toimimaan kaikissa peleissä. Dlls en tarkoittanutkaan että se toimisi kaikissa peleissä ja/tai että se tekisi Steam Deckistä paremman. Tarkoitin sitä mitä sanoin, Steam Deck on tehnyt Linux pelaamiselle erinomaisia asioita. Itseäni ei Steam Deck laitteena kiinnosta, mutta koska pelaan Linuxilla (ja käytän usein Linuxia) niin nämä kaikki ovat erinomaisia asioita (jotka ovat edenneet sillä että Valve on panostanut kovasti Linux puoleen, josta varmasti Steam Deckin osuus on merkittävä motivaatio kaiken kaikkiaan).
 
DLSS voisi pyöriä ihan versiosta riippumatta millä vaan modernilla raudalla, nopeus on toki kysymysmerkki koska NVIDIA ei tällaista mahdollisuutta tarjoa. Tensoriytimet on vain dedikoituja matriisilaskimia, samat laskut onnistuu ilmankin.

Nopeuserot luulisi olevan isoja jos dedikoitu rauta puuttuu.
Jos Controlista voi jotain päätellä niin shadereilla pyörii kai "nopeammin" kuin dedikoidulla "neuroverkkoraudalla".
Kysymys on silloin tietty eri kuvanlaatujen vertailusta.
 
Nopeuserot luulisi olevan isoja jos dedikoitu rauta puuttuu.
Jos Controlista voi jotain päätellä niin shadereilla pyörii kai "nopeammin" kuin dedikoidulla "neuroverkkoraudalla".
Kysymys on silloin tietty eri kuvanlaatujen vertailusta.
Paha sanoa, ero voi olla iso tai mitätön, sitä ei tiedetä niin kauan kuin NVIDIA ei anna mahdollisuutta testata asiaa.
Mikä tämä DP4A on ja minkälainen rajaus se on? Kuinka kauas historiaan täytyy mennä ettei tämä ole tuettuna?
Ei kauas, viime sukupolvi riittää, mutta toisaalta vanhemmistakin voi löytyä. Intel valkkasi sen lähinnä koska Xe-LP tukee sitä.
NVIDIA tukee Pascalista lähtien (ainakin osa piireistä, en 100% varmaksi muista tukeeko kaikki), AMD Vega20:stä eli Radeon VII:stä lähtien mutta RDNA1:stä Navi 10 ei tue, muut tukee, RDNA2 tukee kaikki
 
Paha sanoa, ero voi olla iso tai mitätön, sitä ei tiedetä niin kauan kuin NVIDIA ei anna mahdollisuutta testata asiaa.

Softan ja raudan yhdistelmän avaaminen kertoisi kilpailijoille siitä miten ratkaisu toimii, ja epäreilu kilpailuetu poistuisi.
Epäreilu kilpailuetu ei ole vääryys vaan oikeus tehdyn työn tuloksiin. Silloin kun Business Finland oli vielä Tekes, joku heidän
johdostaan luennoi että "epäreilu kilpailuetu" on sitä mitä Tekes asiakkailleen toivoo.
 
Softan ja raudan yhdistelmän avaaminen kertoisi kilpailijoille siitä miten ratkaisu toimii, ja epäreilu kilpailuetu poistuisi.
Epäreilu kilpailuetu ei ole vääryys vaan oikeus tehdyn työn tuloksiin. Silloin kun Business Finland oli vielä Tekes, joku heidän
johdostaan luennoi että "epäreilu kilpailuetu" on sitä mitä Tekes asiakkailleen toivoo.
Ei siinä mitään rautaa tarvitsisi avata (eikä siinä raudassa mitään erikoista sinänsä ole, matriisilaskimia on joka valmistajalla)
Softakin voisi toimia "mustana laatikkona" vaikka sen sallisi pyöriä muilla kuin NVIDIAn tuotteilla
 
Kova on korrelaatio AMD-sponssin ja minimalistisen RT-toteutuksen välillä. Kummasti NVidia-sponsseissa tilanne tuppaa olemaan ihan toinen.

Kyllä se toteutus on erittäin minimalistinen mm. Nvidian sponsoroimassa Ubisoftin Watch Dogs: Legionissakin. Ja siihen toteutukseen nähden vielä melkoinen FPS-imuri. Mutta varmaan olet oikeilla jäljillä siinä, että ne merkittävämmät säteenseuranta-toteutukset lienee Nvidian sponsoroimia, eikä se varmaan yllätä ketään.
 
Itse en tähän mennessä missään pelissä jossa ray tracing on joko itse pelaamalla tai videoissa nähnyt että olisi sen fps hitin arvoinen. Tosiaan joissakin peleissä kyllä lisää immersiota ja on paremman näköinen mutta ei kyllä ole sen 30+ prosentin fps hitin arvoinen.

Hyvä että kehittävät jos joskus toimisivat tehokkaammin rt efektit mutta toistaiseksi ilmankin pärjää ja jos ei niin Dlss/Fsr/XeSS päälle tai näytönohjainkaupoille jollei itseltä löydy niin tehokasta näytönohjainta että on vähän varaakin 30+ prosenttiä fps hittiä ottaa ilman hampaiden kiristelyä.

Jos hyvin käy niin tämän vuosikymmenen puolivälissä alkaa rt efektien päälle laitto jo olla ihan normikauraa kun saavat toimimaan tehokkaamin(ja niiden tuoma kuvanlaatu on oikeasti parempi) ja myös niitä tukevat näytönohjaimet alempiin hintaluokkiin.
 
Kyllä se toteutus on erittäin minimalistinen mm. Nvidian sponsoroimassa Ubisoftin Watch Dogs: Legionissakin. Ja siihen toteutukseen nähden vielä melkoinen FPS-imuri. Mutta varmaan olet oikeilla jäljillä siinä, että ne merkittävämmät säteenseuranta-toteutukset lienee Nvidian sponsoroimia, eikä se varmaan yllätä ketään.

Legionissahan on hyvin mittavasti käytetty heijastuksia, eikä niitä ole edes laskettu neljäsosatarkkuuteen kuten vaikka tässä FC6:ssa tai Resident Evil Villagessa, joista molemmat AMD sponsseja.
 
Kryptovaluuttoja louhivat ovat näköjään keksineet uuden ovelan tavan ohittaa NVIDIAN GPU:n louhinta rajoittimen. He käyttävät sovellusta joka louhii kahta eri kryptovaluuttaa samaan aikaan samalla näytönohjaimella, jolloin rajoitin ei toimi ja louhija saa hyödynnettyä kaiken näytönohjaimen laskentakapasiteetin kokoajan kunhan louhii kahta eri kryptovaluuttaa samaan aikaan. Samaan aikaan pejaajien toiveet kohtuuhintaisesta uudensukupolven GPU:ta karkaavat yhä pitemmälle hamaan tulevaisuuten, koska tämä rajoituksen purun ohittaminen tekee entistä kannattavammaksi hima hamsteroida kaikki rajoitetutkin näytönohjaimet louhinta käyttöön. Jolloin toiveet siitä, että GPU hinnat tippuvat menevät roskakoriin.

 
Intel on päättänyt lopettaa serveille suunnattujen Xe-HP -GPU:n kehittämisen.
Muitten arkkitehtuuriperheen tuotteiden (Xe-LP, Xe-HPG, Xe-HPC (Ponte Vecchio)) kehittämistä ilmeisesti jatketaan normalisti.

No se oli Intelin omalla 10nm prosessilla - ja eiköhän nyt ole selvää että kaikki em. prosessilla tuotetut piirit häviävät TSMC:n piireille sata nolla energiatehokkuudessa. Eli tuote ei ollut riittävän kilpailukykyinen myytäväksi - vaikka tässä markkinatilanteessa kaikki tuotettu pitäisi saada helposti kaupaksi.
 
No se oli Intelin omalla 10nm prosessilla - ja eiköhän nyt ole selvää että kaikki em. prosessilla tuotetut piirit häviävät TSMC:n piireille sata nolla energiatehokkuudessa. Eli tuote ei ollut riittävän kilpailukykyinen myytäväksi - vaikka tässä markkinatilanteessa kaikki tuotettu pitäisi saada helposti kaupaksi.
Kumma kun Intel ei kertonut syyksi 'Kovasta kysynnästä johtuvan tuotantokapasiteetin puutteen vuoksi...' (lausutaan 'surkeat saannot surkealla energiatehokkuudella surkeilla hinnoilla').
 
Kumma kun Intel ei kertonut syyksi 'Kovasta kysynnästä johtuvan tuotantokapasiteetin puutteen vuoksi...' (lausutaan 'surkeat saannot surkealla energiatehokkuudella surkeilla hinnoilla').

Intel saannee paremman katteen prossujen myynnistä jotka sillä samalla prosessilla tuotetaan.
 

Nvidialta tuli aikamoinen jytky: Amd Fsr kilpailija joka toimii "kaikissa peleissä" ilman että kehittäjien tarvitsee mitään tehdä.

Hardware unboxed videota odotellessa.
 

Statistiikka

Viestiketjuista
259 288
Viestejä
4 502 864
Jäsenet
74 377
Uusin jäsen
hcolyle

Hinta.fi

Back
Ylös Bottom