NVIDIA-spekulaatioketju (Blackwell ja tulevat sukupolvet)

Multitronicilla jo listattu 5080 hintoja jotka eivät ole 9999€ - Komponentit > Näytönohjaimet > GeForce RTX 50

1750 - 1850€ riippuen mallista, toivottavasti eivät pidä paikkaansa...
Tuohan menee juuri sen mukaan, mitä itse aikaisemmin arvelin todellisiksi myyntihinnoiksi:
Näitten näytönohjainten hinnat ovat jo lähtökohtaisesti (FE-mallit) sen verran pöyristyttäviä, että jos joku tuollaisen 5080/90 -mallin haluaa, niin sitten ostaa vaikka hintaan laitettaisiin muutama satanen lisää.
Ja jos ei heti osta kovilla hinnoilla, niin voi käydä ettei sitten saa ollenkaan.
Kaikki kyllä käyvät kaupaksi.
 
Jos nämä osoittautuvat oikeaksi niin herääkin kysymys että myykö nVidia omaa korttiaan reilusti pienemmällä katteella kun AIB kortteja?
Ainahan AIB korteissa on ollut lisää (jollakinhan se niidenkin bisness on pyörittävä) mutta 30% on kyllä aika paljon.
Onhan tästä ollut juttua että AIBt ei oikein tykkää siitä että nvidia polkee hintoja omilla FE korteilla. EVGA lopetti yrityksenä kokonaan pääosin Nvidian takia, mitä rivien välistä luki.

Nvidialla on vähemmän kuluja, kun jää siitä yksi porras pois, mutta luulen että ennemminkin Nvidialla on nyt "loputtomasti" rahaa tuotekehitykseen, niin voivat tyytyä pienempään katteeseen suhteessa valmistuskustannukset vs AIBt.
 
Onhan tästä ollut juttua että AIBt ei oikein tykkää siitä että nvidia polkee hintoja omilla FE korteilla. EVGA lopetti yrityksenä kokonaan pääosin Nvidian takia, mitä rivien välistä luki.

Nvidialla on vähemmän kuluja, kun jää siitä yksi porras pois, mutta luulen että ennemminkin Nvidialla on nyt "loputtomasti" rahaa tuotekehitykseen, niin voivat tyytyä pienempään katteeseen suhteessa valmistuskustannukset vs AIBt.
Tämä on kyllä tosi kuin vesi.
Mielenkiintoista nähdä että miten tuo hintaero skaalautuu 5070 ja 5070 Ti malleihin. Jos se pysyy prosentuaalisesti samana niin AIB 5070 maksaakin 970 euroa ja AIB 5070 Ti maksaa 1200 euroa.
 
Onhan tästä ollut juttua että AIBt ei oikein tykkää siitä että nvidia polkee hintoja omilla FE korteilla. EVGA lopetti yrityksenä kokonaan pääosin Nvidian takia, mitä rivien välistä luki.

Nvidialla on vähemmän kuluja, kun jää siitä yksi porras pois, mutta luulen että ennemminkin Nvidialla on nyt "loputtomasti" rahaa tuotekehitykseen, niin voivat tyytyä pienempään katteeseen suhteessa valmistuskustannukset vs AIBt.
AIB:n mielestä nvidia myy liian halvalla, kuluttajan mielestä kalliilta. Ei voittavia arpoja tarjolla.
 
Palstan useista nvidia keskusteluita seuranneina havainto on että nykyisilläkin FE hinnoilla osa porukasta väittää nvidian ylihinnoittelevan ja riistävän.
Hohhoijaa... Kukaan ei väitä että Nvidia riistää kuluttajia FE hinnoilla suhteessa AIB-kortteihin. Vai pivottasitko täysin eri asiaan kuin mistä lainaamassasi swttiin viestissä oli kyse?
 
Nvidia kertoi miten Digits GB10:ssa on nvlink c2c:lla laitettu nvidian gpu ja mediatekin arm cpu yhteen. Huomionarvoista gpu:n pään iso cache joka on muistikoherentti ja nopeasti myös cpu:n saavutettavissa. Jännää miten muistiohjaimet ovat cpu:n puolella ja gpu:n tarvii mennä cachen ja nvlink c2c:n läpi että pääsee muistiin käsiksi.

Lieköhän gb10 tyylinen paketointi tulisi huhuttuihin mediatek arm cpu + nvidia gpu windows 11 läppäreihin(chiplet huhuissa)? Vai ehkä liian kallis/hidas paketointitapa ja tulee huhutut läppärit jollain toisella tavalla rakennettuna kuluttajakoneisiin?

Tän tyyppinen paketointi voi olla myös miten rubin(tms.) seuraava kuluttaja gpu niittaa 2xchiplet yhteen yhdeksi isoksi gpu:ksi tai ehkä gpu ja cache+io chipletit missä gpu 3nm ja cache+io piiri voisi olla 4nm tms. Konesali blackwell:ssa tuo piirien välinen kaista on 10TB/s. Miten lie kehittyy kun mietitään 2v-3v päähän tulevaisuuteen ja seuraavaan kuluttaja gpu:hun.

1736426999775.png

1736427043817.png

1736427062070.png

Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.
 
Mitenhän tämän suorituskyky AI hommissa verrattuna 5090.
Nvidia kertoi miten Digits GB10:ssa on nvlink c2c:lla laitettu nvidian gpu ja mediatekin arm cpu yhteen. Huomionarvoista gpu:n pään iso cache joka on muistikoherentti ja nopeasti myös cpu:n saavutettavissa. Jännää myös se, että muistiohjaimet ovat cpu:n puolella ja gpu:n tarvii mennä cachen ja nvlink c2c:n läpi että pääsee muistiin käsiksi.

Lieköhän gb10 tyylinen paketointi tulisi huhuttuihin mediatek arm cpu + nvidia gpu windows 11 läppäreihin(chiplet huhuissa)? Vai ehkä liian kallis/hidas paketointitapa ja tulee huhutut läppärit jollain toisella tavalla rakennettuna kuluttajakoneisiin?

1736426999775.png

1736427043817.png

1736427062070.png

Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.
 
Mitenhän tämän suorituskyky AI hommissa verrattuna 5090.
1PFlop fp4 suorituskykyä ai homissa, lienee hitaampi kuin 5090 mutta nopeampi kuin 4090. 128GB unified muistia niin voi ajaa yhdellä koneella 200B fp4 mallia versus 32GB muistia 5090 tai 24GB 5090. Boxissa on nopea linkki minkä avulla saa kaksi noita kytkettyä yhteen ja tuplattua muistiavaruuden(400B fp4 mallit). Ainakin 4090 ja varmaan myös 5090 on rajoitettu fp16/fp32 akkumulaationopeutta. GB10 tuskin on rajoitettu.

Superpieni pönttö, toimii tavistöpselistä, hinnat alkaen 3000$ ja toukokuussa myyntiin. Kai tuota laitetta myydään muistinmäärä ja hinta edellä + sama arkkitehtuuri kuin konesalissa jos haluaa mahdollisimman helpon tavan debugata konesalikuormia omalla pöydällä.
1736427475531.webp

 
1PFlop fp4 suorituskykyä ai homissa, lienee hitaampi kuin 5090 mutta nopeampi kuin 4090.
On se toki nopeampi jos lasketaan että 4090 FP4 flopsit on 0. Mutta 4090:ssä on 1,3 petaflopsia 4090:ssä @ FP8, eli Digitsissä on vähemmän silloinkin kun sillä ajetaan FP4 formaatissa ja selvästi alle puolet silloin kun FP4:ää ei voi hyödyntää (mikä on keissi erittäin usein).

Muistikaista myös vähän mysteeri, saattaa jäädä puoleen tai vain neljännekseenkin 4090:n kaistasta.
 
On se toki nopeampi jos lasketaan että 4090 FP4 flopsit on 0. Mutta 4090:ssä on 1,3 petaflopsia 4090:ssä @ FP8, eli Digitsissä on vähemmän silloinkin kun sillä ajetaan FP4 formaatissa ja selvästi alle puolet silloin kun FP4:ää ei voi hyödyntää.

Muistikaista myös vähän mysteeri, saattaa jäädä puoleen tai vain neljännekseenkin 4090:n kaistasta.
Paljon riippuu miten mittaa ja mikä gb10 cachen koko ja toimivuus on. Ajattelin siinä "hitaampi" jutussa fp16/fp32 kuormia mitä käytetään jos finetunettaa omia malleja. fp16/fp32 akkumulaationopeus puolitettu 4090:ssa ja täysi nopeus vain pro korteissa kuten ada rtx 6000.

Linkkasin tuon kuitenkin enempi se mielessä, että lieköhän nvlink c2c ratkaisu nähdään mediatek+arm win11 läppäreissä ja/tai rubin-generaation kuluttajatuotteissa? Murusia voi yrittää seurata. Ehkä nvidia rakentaa pikkuhiljaa kuluttajatuotteitakin chiplet suuntaan. Huhuissahan oli, että gb202 olisi sisäisesti suunniteltu niin, että cache toimisi kuin chiplet jos/kun tulevaisuudessa oikeasti niitatan vaikka 2x256bit piirit yhteen tai ehkä cache+io siirretään omalle piirillensä.
 
Ajattelin siinä "hitaampi" jutussa fp16/fp32 kuormia mitä käytetään jos finetunettaa omia malleja. Tuo fp16/fp32 akkumulaationopeus puolitettu 4090:ssa ja täysi nopeus vain pro korteissa kuten ada rtx 6000.
Speksien osalta toi Digits vaikuttaa omaan silmään paremmin inferenssiin soveltuvaksi, mutta en kyllä juuri treenaamisesta tiedä.

Kuinka usein tätä akkumulaationopeutta hyödynnetään todellisuudessa? Mulla ei käsitystä.
 
Speksien osalta toi Digits vaikuttaa omaan silmään paremmin inferenssiin soveltuvaksi, mutta en kyllä juuri treenaamisesta tiedä.

Kuinka usein tätä akkumulaationopeutta hyödynnetään todellisuudessa? Mulla ei käsitystä.
Kavereilla firma joka kustomoi geneeristä open source kielimallia suomeksi suomalaisille asiakkaille niche käyttötapaukseen. Niillä on 2x4090 ajossa pari viikkoa kun tekevät uuden julkaisun kielimallista. fp16/fp32 akkumulaatiota tarvii kun opetushommissa ei fp8 tarkkuus riitä toisin kuin inferenssissä. Ei fp16/fp32 käyttö varmaan kovin harvinaista ole pikkupajoissa joilla ei syystä tai toisesta ole varaa/intoa pro-kortteihin tai konesalimaksuihin. Sama juttu varmaan kouluissa, tutkijoilla yms. joilla on rajotteita sen suhteen kuinka kalliita työlaitteita on vara ostaa. Kaverit kyllä aluksi käytti jotain pilveä, mutta laskivat että heille halvempi laittaa 4090:sta ajoon.

Mulle jäi digitsistä käsitys, että sitä markkinoidaan devausalustaksi eikä loppukäyttäjätuotteena. Kehittelet ja debuggaat lokaalisti digitsin avulla kielimallia joka on "konesalikokoinen, 200B/400B fp4). Tuotantoon kun menee niin laitetaan konesaliin. Tärkeämpää varmaan se, että isot mallit toimivat ja voi debugata/kehitellä eikä ehkä niinkään se että mallin nopeus olisi optimaalinen(muistikaista)
With Project DIGITS, users can develop and run inference on models using their own desktop system, then seamlessly deploy the models on accelerated cloud or data center infrastructure.
 
Menee muuten aika hyvin yksiin 5070:n FP4 flopsien (0,99 petaflops) kanssa tuo laite.

Muistikaistaa joku arvelee localllama subredditissä olevan 273GB/s eli alle puolet 5070:n kaistasta. Tämä olis 256-bittisellä väylällä ja 8533MT/s piireillä.

Melko tuhnua on ajella niitä isompia kielimalleja tuolla kaistalla, toivottavasti on 512-bittinen sittenkin.

 
Tuo huijaus FPS nosto lisää viivettä 50+ ms, sehän tosi paljon.

Pelejä ei tarvitse optimoida hyvin kun luotetaan tuohon.
 
Tuo huijaus FPS nosto lisää viivettä 50 ms+ sehän tosi paljon.

Pelejä ei tarvitse optimoida hyvin kun luotetaan tuohon.
 
Tuo huijaus FPS nosto lisää viivettä 50+ ms, sehän tosi paljon.

Pelejä ei tarvitse optimoida hyvin kun luotetaan tuohon.
50ms(digital foundryn mittaukset) on kokonaisviive, ei 50ms lisää viivettä. Ei viive ole 0ms ilman framegenia. 0ms viive tarkoittaisi että pelin fps olisi ääretön ja renderöinti, fysiikka jne. ei veisi mitään aikaa. Jos 50ms on laskettu hiiren napista näytölle 0ms olettaisi myös ettei ohjaimessa, näytössä jne. ole mitään viivettä.

Vanha DF:n video niin latenssi ilman framegeniä jossain 30ms+ paikkeilla. Framegen lisännee latenssia about 20ms-30ms riippuen ja roikkuen. Peruslatenssi toki paljon siitä miten säädät asetukset kun jos fps on 30 tai 60 tai 120 niin latenssi on eri. Lähde aikaleimalla

1736433147149.png

Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.
 
Viimeksi muokattu:
50ms(digital foundryn mittaukset) on kokonaisviive, ei 50ms lisää viivettä. Ei viive ole 0ms ilman framegenia. 0ms viive tarkoittaisi että pelin fps olisi ääretön ja renderöinti, fysiikka jne. ei veisi mitään aikaa. Jos 50ms on laskettu hiiren napista näytölle 0ms olettaisi myös ettei ohjaimessa, näytössä jne. ole mitään viivettä.

Vanha DF:n video niin latenssi ilman framegeniä jossain 30ms+ paikkeilla. Framegen lisännee latenssia about 20ms-30ms riippuen ja roikkuen. Peruslatenssi toki paljon siitä miten säädät asetukset kun jos fps on 30 tai 60 tai 120 niin latenssi on eri. Lähde aikaleimalla

1736433147149.png

Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.

Verrokkina DF testasi viiveitä eräällä vanhalla videolla ”PS-stream vs Xbox Cloud” ja lokaalisti konsoleilla cyberpunk 60fps pelaamisessa oli vajaa 60ms klick-to-photon latenssi eli isompi mitä 4x framegenin kans PC.
 
Verrokkina DF testasi viiveitä eräällä vanhalla videolla ”PS-stream vs Xbox Cloud” ja lokaalisti konsoleilla cyberpunk 60fps pelaamisessa oli vajaa 60ms klick-to-photon latenssi eli isompi mitä 4x framegenin kans PC.
Ohos... Joku gamepadikin taitaa olla 20ms latenssia. +- jotain. Voi ajatella että ei framegen pelaajat saa aina bonuksena reflex2 toteutuksen kun framegen sen vaatii. Ehkä pelintekijä ei optimoisi latenssia/reflex2 jos nvidia ei puskisi framegenia. Kaikki voittavat?

---

imho. framegen on hyvä keksintö kunhan sitä ei väärinkäytä. Ensin fps ja latenssi kohdalleen. Jos monitorissa vielä varaa framegen päälle. Jos pelaa jotain kilpailullista pumpum peliä niin taitaa porukka karsia asetukset minimiin, fps maksimiin ja framegen ei ole millään tavalla relevantti. Reflex2+warp taas voi olla erittäinkin järkevä kilpapeleissä.

Single player silmäkarkkipeleissä arvoa on silläkin miltä peli näyttää, slow is not smooth.

30fps->60/120fps paska idea kun oli framegen tai ei niin 30fps on imho. tökkivä. 30fps kakkaa ei voi kiillottaa.
72fps->144fps framegen on mulle jo sietoisa mutta joku toinen voi pitää 72fps lähdemateriaalia liian huonona
120fps->240/480fps konversio. Vaikea uskoa, että tässä enää latenssi tuntuisi ja lounas on ilmainen?
 
Itseäkin kiinnostaa enemmän tuo Reflex 2 jos tuolla toteutuksella saa erotettua hiiren/kameran fps itse pelin fps:stä onnistuneesti.

Myöhemmin sitten jos nvidia saa toimimaan Reflex 2 ja Framegenin samaan aikaan sekä peli tuki on hyvä niin nostan hattua.
 
En tiedä meneekö hieman ohi langan aiheen, mutta onko joku tilannut suoraan nvidialta näyttistä suomeen (Fe-mallia)? Mitä maksutapoja nvidia tarjoaa?
 
Nvidia varmisti tai vähintään vahvasti vihjaa siitä että on tulossa sekä nvidian omia että mediateK+nvidia mainstream arm+nvidia win11 koneita

Nvidian omasta arm koneesta lainuksessa. Haluan ymmärtää mainstreamin kuluttaja win11 läppärinä, mutta voin olla väärässä ja kyseessä on "vain" jotain härpättimiä ai-devaajille.
"We're going to make that a mainstream product," Huang said. "We'll support it with all the things that we do to support professional and high-quality software, and the PC (manufacturers) will make it available to end users."

mediatek+nvidia yhteistyöstä. Tämä on se cpu mikä löytyy jo digits laatikosta. Ehkä ensi syksynä myös läppäreistä?
Responding to an analyst's question during an investor presentation, Huang said Nvidia tapped MediaTek to co-design an energy-efficient CPU that could be sold more widely.
"Now they could provide that to us, and they could keep that for themselves and serve the market. And so it was a great win-win," Huang said.
 

Aika hurja tuntuu olevan tuo multi-framegen kun 5070 jopa voittaa 4090:n, kun kummassakin on kaikki herkut päällä.
Tämähän oli se mitä Nvidia presiksessään jo väitti. Ei tosin ole mikään yllätys että hatusta vedetyillä frameilla saadaan todella paljon korkeampi fps kuin renderöimällä...
 

Aika hurja tuntuu olevan tuo multi-framegen kun 5070 jopa voittaa 4090:n, kun kummassakin on kaikki herkut päällä.
Aikamoista tosin olikohan tuossa Rtx 4090 kanssa Dlss 3.x joka siis frame generaatiolla aiheuttaa pienoisia ongelmia jotka varmaan korjattu DLSS 4 myös vanhemmilla Rtx 4xxx sarjaan.

Sitten vähän sivuhuomautuksena hauskana juttuna Lossless Scaling ohjelmaan tulee päivitys tänään Suomen aikaan klo 14 joka tarjoaa jopa 30x kertaisen frame generaation ns kaikissa peleissä, eli jos sitä mainostettaisiin harhaanjohtavasti kuten Nvidia omia Rtx 5xxx sarjalaisiaan niin se tekee jopa vaikkapa "Lenovo Legion Go/Asus Rog Ally integroidulla näytönohjaimella nopeamman kuin Nvidian Rtx 5090 KAIKISSA peleissä" ;)
 
Tämähän oli se mitä Nvidia presiksessään jo väitti. Ei tosin ole mikään yllätys että hatusta vedetyillä frameilla saadaan todella paljon korkeampi fps kuin renderöimällä...
Ei se tainnut olla pointti tuossa, vaan lukemalla artikkelin selviää, että ne feikkifreimit myös oikeasti ilmeisesti tekevät jotain (huijaavat ihmisaivoja riittävän hyvin?):
We can argue until the cows come home about whether this is cheating or not, but I genuinely struggled to tell the difference between the two test systems I tried at CES in terms of image quality and smoothness.

Puristit ei toki tätä niele, mutta koska raudan kehityksen kasvu on hiipunut, niin pakkohan se tällaisia keinoja on ottaa käyttöön ja hyvä vain jos softa alkaa olemaan sitä luokkaa ettei oikeasta meinaa erottaa.
Kun itse pelaamiseen uppoutuu, niin ei siinä tule syynättyä jokaista pikseliä onko se nyt aito vai feikki, joten itselleni kyllä kelpaa "teho"lisäys mitä nyt olisi 3000-sarjasta -> 5000-sarjaan hypätessä.
 
Itse olen pro-framegen, mutta niin että ensin haetaan hyvät asetukset että tiristellään framerate oikein korkeaksi niin että peli ei menetä pahasti ultra, ultra, ultra, hyper, ultra loistoaan ja sitten framegenillä lähelle monitorin maksimi virkistystä. En ole huomannut eroa latensseissa tai missään mutta pelit rullaa "4k" "120fps" ja headshotit paukkuu.

Nyt olisi toivottavaa vain että 4k480Hz monitorit tulisivat. Siinä olisi paikka sitten 5090:lle kun ensin tiristetään peli pyörimään 120fps+ ja siihen päälle 4x framegen niin saa pelata "4k" "480fps" ja tuntuu ihan kivalta lagien ja muun suhteen kun peli rullaa alla 120fps+.
 
Itse olen pro-framegen, mutta niin että ensin haetaan hyvät asetukset että tiristellään framerate oikein korkeaksi niin että peli ei menetä pahasti ultra, ultra, ultra, hyper, ultra loistoaan ja sitten framegenillä lähelle monitorin maksimi virkistystä. En ole huomannut eroa latensseissa tai missään mutta pelit rullaa "4k" "120fps" ja headshotit paukkuu.

Nyt olisi toivottavaa vain että 4k480Hz monitorit tulisivat. Siinä olisi paikka sitten 5090:lle kun ensin tiristetään peli pyörimään 120fps+ ja siihen päälle 4x framegen niin saa pelata "4k" "480fps" ja tuntuu ihan kivalta lagien ja muun suhteen kun peli rullaa alla 120fps+.
Mielenkiinnosta te joilla on noita 240/320//480hz näyttöjä niin huomaako eron oikeasti vaikkapa ihan vain 144hz näyttöön sulavuudessa kun keskittyy pelaamiseen?

Itselläni 4k 144hz näyttö ja itse ajatellut sen olevan ns riittävä mutta voisihan sitä kun tulee päivityksen aika 2-6 vuoden päästä miettiä jos isompi hz on oikeasti parempi.

Mietin vain kun omasta mielestäni tuntuu että noi 240+hz on perus pelaajalle joka ei ole kilpapelaaja aivan turhaa näytönohjaimen kulutusta, toki moni varmaan voisi sanoa että 4k 28 tuumaisen tai pienemmän näytön kanssa myös turhaa(itselläni 32 tuumainen 144hz näyttö) verrattuna 1440p näyttöön jollei pelaa naama lähellä näyttöä.

Siinä itselläni sama kokemus että motion vektorit sisältävät peliin integroidut frame generaatiot on kyllä hyviä tosin en pelaa kilpailullisia pelejä ainakaan kilpailullisesti vaan viihteeksi joten hiukan lisääntynyt latenssi ei haittaa ja muutenkin monia pelejä pelaan peliohjaimella joka peittää lisääntynyttä latenssia. Tosin itse uudemmissa raskaissa peleissä optimoin asetuksia hieman enkä edes yritä laittaa säteenseurantaa päälle. Esimerkiksi ultra varjot on tosi pieni ero useimmissa peleissä high asetukseen nähden kuvanlaadussa mutta fps nousee kivasti kun laittaa sen asetuksen high.
 
Mielenkiinnosta te joilla on noita 240/320//480hz näyttöjä niin huomaako eron oikeasti vaikkapa ihan vain 144hz näyttöön sulavuudessa kun keskittyy pelaamiseen?

En oo testannut vaihdella nopeasti, mutta aiemmin oli 160 hz näyttö, se on mielestäni CS2 todella sulavaa jo, enkä huomannut mitään mullistavaa kun vaihdoin 240 hz näyttöön.

Pitäisi päästä näkemään vierekkäin tai vaihdella ees taas nopeasti. Ehkä vois testata illalla.
 
Ei se tainnut olla pointti tuossa, vaan lukemalla artikkelin selviää, että ne feikkifreimit myös oikeasti ilmeisesti tekevät jotain (huijaavat ihmisaivoja riittävän hyvin?):
We can argue until the cows come home about whether this is cheating or not, but I genuinely struggled to tell the difference between the two test systems I tried at CES in terms of image quality and smoothness.

Puristit ei toki tätä niele, mutta koska raudan kehityksen kasvu on hiipunut, niin pakkohan se tällaisia keinoja on ottaa käyttöön ja hyvä vain jos softa alkaa olemaan sitä luokkaa ettei oikeasta meinaa erottaa.
Kun itse pelaamiseen uppoutuu, niin ei siinä tule syynättyä jokaista pikseliä onko se nyt aito vai feikki, joten itselleni kyllä kelpaa "teho"lisäys mitä nyt olisi 3000-sarjasta -> 5000-sarjaan hypätessä.
En ottanut millään tavalla kantaa kuvanlaatuun tai sulavuuteen, vaikka toki kuvanlaatuvirheet huomaa yrittämällä (esim. LTT:n videolla näkyy tuubinkin läpi). Se mihin otin kantaa oli että jaettu tarina oli käytännössä sama kuin Nvidian presiksen tarina.

Siihen ei tarvitse tässä kohtaa mennä miksi joku ei fg:tä halua itse käyttää, kyllä siihenkin on ihan validi syyt puolesta ja vastaan ja joissain tapauksissa se tosiaan jopa käytännössä tekee pelaamisesta vastaavaa kuin 4090:llä. Mutta esim. poikan ostohimoja rauhoitti todella paljon se kun kerroin että fg lisää viivettä, joka esim. soulslike peleissä tuo lisää vaikeusastetta. Hän oli mediatietojen varassa lukenut tuo "4090 vastaava" lauseen niin että korkeampi fps ja sitä kautta pienempi viive kuin 4090:ssä -> kyseinen pelityyppi olisi reaktioajan takia parempi pelattava 5070:llä kuin 4090:llä.
 
En oo testannut vaihdella nopeasti, mutta aiemmin oli 160 hz näyttö, se on mielestäni CS2 todella sulavaa jo, enkä huomannut mitään mullistavaa kun vaihdoin 240 hz näyttöön.

Pitäisi päästä näkemään vierekkäin tai vaihdella ees taas nopeasti. Ehkä vois testata illalla.
Tuohon vaikuttanee näytön laatukin. Mulla on 165 Hz (Lenovo Legion Y27-q20) ja 240 Hz (Gigabyte M27Q X rev 2) näytöt ja väittäisin, että tuolla 165 Hz näytöllä on paljon parempi liiketerävyys. Tuo Gigabyte on taas overshootteineen ja ghostauksineen (toimimattomat Overdrive asetukset) aivan roskaa, mutta oli ostohetkellä hyvässä tarjouksessa ja tarvitsin USB-C tukevaa näyttöä.
 
Tuohon vaikuttanee näytön laatukin. Mulla on 165 Hz (Lenovo Legion Y27-q20) ja 240 Hz (Gigabyte M27Q X rev 2) näytöt ja väittäisin, että tuolla 165 Hz näytöllä on paljon parempi liiketerävyys. Tuo Gigabyte on taas overshootteineen ja ghostauksineen (toimimattomat Overdrive asetukset) aivan roskaa, mutta oli ostohetkellä hyvässä tarjouksessa ja tarvitsin USB-C tukevaa näyttöä.
Juu toki, 160 hz näyttö oli laadukas IPS ja tämä 240 hz on QD-OLED. QD-OLEDin pitäisi tarjota markkinoiden aivan kärkipään liiketoistoa, koska OLEDeissa "pixel response time" on parempi kuin lähes kaikissa muissa näyttötyypeissä. Eli periaatteessa QD-OLED (ja WOLED) voi näyttää huonommalta jos FPS on pieni, koska monitori ei itsessään smoothaa mitään (näin ainakin teoriassa).
 
kyllä se eron huomaa, itekki kun nyt käyttäny 240hz niin kaverin 60hz on still kuvaa työpöydällä ja sama 144hz mutta ei niin paha, eli sanonta kun parempaa saa niin vanhaan ei ole palaaminen käy toteen :)
 
Noita voidaan kehitellä vielä monella tavalla.. Piirretään esim osa freimeistä paljon pienemmällä tarkkuudella ja AI arpoo edellisten jne avulla lopputuloksen.. Tai piirretään vuorotellen eri osat kuvasta täydellä resolla ja loppu päivitetään AI:llä, pienemmästä resosta ja edellisistä freimeistä..

On täysin selvää, että nykykehityksellä jossain 8K resossa noita kikkoja on täysin pakko käyttää. Raakaa laskentatehoa ei näyttiksiin tule tarpeeksi, jos ei tapahdu jotain suurta mullistusta (Jota ei ole nyt näköpiirissä).
 
Itse olen pro-framegen, mutta niin että ensin haetaan hyvät asetukset että tiristellään framerate oikein korkeaksi niin että peli ei menetä pahasti ultra, ultra, ultra, hyper, ultra loistoaan ja sitten framegenillä lähelle monitorin maksimi virkistystä. En ole huomannut eroa latensseissa tai missään mutta pelit rullaa "4k" "120fps" ja headshotit paukkuu.

Nyt olisi toivottavaa vain että 4k480Hz monitorit tulisivat. Siinä olisi paikka sitten 5090:lle kun ensin tiristetään peli pyörimään 120fps+ ja siihen päälle 4x framegen niin saa pelata "4k" "480fps" ja tuntuu ihan kivalta lagien ja muun suhteen kun peli rullaa alla 120fps+.
Ootko tetannut S.T.A.L.K.E.R. 2:ssa framegenia? Siinä tuntuu viive lisääntyvän raskaasti huolimatta siitä kuinka sulavasti pelin saa pyörimään ilman framegenia.
 
Ootko tetannut S.T.A.L.K.E.R. 2:ssa framegenia? Siinä tuntuu viive lisääntyvän raskaasti huolimatta siitä kuinka sulavasti pelin saa pyörimään ilman framegenia.
En ole. Ilmeisesti on vähän paskasti koodattu peli tuo. Nexus modissakin on monta modia joka yrittää korjata pelin input lagia eli on vissiin vähän rikki.
 
Mielenkiinnosta te joilla on noita 240/320//480hz näyttöjä niin huomaako eron oikeasti vaikkapa ihan vain 144hz näyttöön sulavuudessa kun keskittyy pelaamiseen?
Inputin sulavuudessa minun mielestä on 120fps jo ihan hyvä. Itse kiinnitän vain huomion enemmänkin liikeresoluutioon mikä on huono 120Hz OLEDissani. Siksi koitankin saada lukotettua 120Hz vsyncillä että saan BFI:n päälle joka alkaa välkyttämään kuvaa saaden liikeresoluution näyttämään kuten 240Hz monitorissa. Joka onkin jo parempi hitaassa liikkeessä mutta nopeassa liikkeessä edelleen blurraantuu maisemat.

Itse näen siis eron 120fps ja 240fps välillä selvästi kun pistää vain kameran pannaamaan sivuttain kauniissa open world pelissä niin kaikki muuttuu stilli kuvaan verrattuna semmoiseksi smearaavaksi ihan kuin olisi blurrifiltteri päällä. Olisi kiva jos saisi edes 500Hz semmoiseksi main stream framerateksi niin valtaosa liikeresoluution ongelmista olisi poissa.

Juu toki, 160 hz näyttö oli laadukas IPS ja tämä 240 hz on QD-OLED. QD-OLEDin pitäisi tarjota markkinoiden aivan kärkipään liiketoistoa, koska OLEDeissa "pixel response time" on parempi kuin lähes kaikissa muissa näyttötyypeissä. Eli periaatteessa QD-OLED (ja WOLED) voi näyttää huonommalta jos FPS on pieni, koska monitori ei itsessään smoothaa mitään (näin ainakin teoriassa).
OLEDin välitön pixel response time ei valitettavasti hirveänä auta tuohon liikeresoluutioon. Vaikka se olisi 0ms niin sama blurri siellä silti tulee.
 
En ole. Ilmeisesti on vähän paskasti koodattu peli tuo. Nexus modissakin on monta modia joka yrittää korjata pelin input lagia eli on vissiin vähän rikki.
Siinä on vissiin input lagia lähinnä jos FSR/DLSS fg on käytössä. Sen lisäksi ilmeisesti mouse acceleration tuo lagin tuntua hiirillä joilla inpurate on matala. Ehkä nämä liittyvät toisiinsa siten että pahenee entisestään kun vaikuttavat yhdessä.
 
Pitääkö proshop-tili tms tehdä etukäteen jos yrittää ostaa 5090:n launchissa?
Kyllä se tili kannattaa luoda, ja kirjautuakin valmiiksi.
Jos ostaminen menee F5-kilpailuksi, menevät varastossa olevat laitteet sellaisille, joilla nuo kirjautumiset ovat valmiina aktiivisina.
Tästä on muutama kokemus mm. RTX 3000 -sarjan ostoyritysten kanssa.
 

Statistiikka

Viestiketjuista
295 944
Viestejä
5 057 566
Jäsenet
81 008
Uusin jäsen
karvaranne

Hinta.fi

Back
Ylös Bottom