- Liittynyt
- 21.06.2017
- Viestejä
- 5 330
Ei sitä videolla voi toteuttaa valitettavasti, jos voisi niin se olis jo varmaan tehty@Sampsa, olisiko tässä seuraava aluevaltaus? IO-Tech visa YouTubeen jossa jonnet arvaa fps lukemia?!
Ei sitä videolla voi toteuttaa valitettavasti, jos voisi niin se olis jo varmaan tehty@Sampsa, olisiko tässä seuraava aluevaltaus? IO-Tech visa YouTubeen jossa jonnet arvaa fps lukemia?!
Ne on just siellä sun koneella. Et vaan huomaa niitä, kun ei se virustutkakaan toimi oikein siinä reikäjuustossa.Missä ne haavoittuvuutta hyödyntävät virukset sitten luuraa kun näistä ei edelleenkään ole uutisia vaikka "tietyt tahot" ovat tuohon haavoittuvuus argumenttiin loputtomat kerrat vedonneet jo hyvin pitkän aikaa?
Pelisuoritusta testataan jos väittää että sillä on vaikutusta pelisuoritukseen.Ja siis vielä jos testaisivat pelisuoritusta eikä sitä että erotatko jonkun näytön toisesta. Moisessa testissä pitäisi vielä pysyä kaukana mm. asuksen ruuduista, sillä niissä tulee ihan kuvottavia eroja prosessointilatensseihin hertsimäärää laskettaessa natiivista.
Jos halutaan testata sitä että kummalla on kivempi pelata, niin siinä varmaan sit seurataan verenpainetta ja täytetään kyselyitä ennen ja jälkeen pelisession. Se että erotat jonkun näytön toisesta ei tarkoita että sillä pelaaminen olisi mitattavasti kivempaa.Pelisuoritusta testataan jos väittää että sillä on vaikutusta pelisuoritukseen.
Erotuskykyä testataan jos väittää että peliä on kivempi pelata kovemmalla fpsällä. Tässä skenaariossa sillä pelisuorituksella ei ole mitään relevanssia. Tässä skenaariossa myöskään nettilatenssilla tai millään muullakaan täällä jauhetuista muista latensseista ei ole mitään väliä.
Puhut täysin höpöjä taas vaihteeksi. Aiheeseen tehdään laadullista tutkimusta silloin.Jos halutaan testata sitä että kummalla on kivempi pelata, niin siinä varmaan sit seurataan verenpainetta ja täytetään kyselyitä ennen ja jälkeen pelisession. Se että erotat jonkun näytön toisesta ei tarkoita että sillä pelaaminen olisi mitattavasti kivempaa.
Sovitaan sitten näin. Joka tapauksessa sillä että erotatko kaksi näyttöä toisistaan on täysin merkityksetöntä jos tarkoitus on testata jotain muuta kuin sitä että erotatko näytöt toisistaan (joka on sekä suorituskyky, että mukavuusnäkökulmasta irrelevanttia). Sopivalla otannalla ei koehenkilöille edes tarvitse näyttää kuin yhtä näyttöä koko tutkimuksen aikana.Puhut täysin höpöjä taas vaihteeksi. Aiheeseen tehdään laadullista tutkimusta silloin.
Määrällisen tutkimuksen keinot ovat irrelevantteja tässä tapauksessa.
No ei tietenkään videota katsota YouTubesta vaan livenä. Siis jonnet on siellä pelistudiossa ja tämä videoidaan uutena formaattina. Vähän niinkuin TV visa.Ei sitä videolla voi toteuttaa valitettavasti, jos voisi niin se olis jo varmaan tehtyTai jos nyt vaikka juutuubiin voisi 240FPS matskua ladata niin fiksuuimmat jonnet huijaisi ja tarkastelisi matskua frame by frame.
Eihän se ole prosenteista kiinni onko ero merkityksetön. 50 vs 60 fps ja 60 fps on paljon parempi, vaikka on sama +20% kuin merkityksettömässä erossa 500 vs 600 fps.No jos peleissä se 10-20% on merkityksetön niin sittenhän Intel on voittaja. Meinaan 'hyötyohjelmissa' ei juuri tule sen enempiä punaiseen leiriin tule voittoja. Siis jos katsoo vaikka Anand/Tomppa testejä. Tämän sivuston agendan varmaan jo moni huomannut....
Peleissä mittari on fps, et saa varsinaisesti "enemmän peliä" sillä nopeammalle prossulla, varsinkin jos se hitaampikin pyörittää peliä yli näytön virkistystaajuuden (pl. parit esportspelit)No jos peleissä se 10-20% on merkityksetön niin sittenhän Intel on voittaja. Meinaan 'hyötyohjelmissa' ei juuri tule sen enempiä punaiseen leiriin tule voittoja. Siis jos katsoo vaikka Anand/Tomppa testejä. Tämän sivuston agendan varmaan jo moni huomannut....
Ei nyt järin uusi prossu, mutta single-core suorituskyvystähän tuo peli on kiinni, ja se on hyvin samankaltaista ollut Intelillä jo vuosia.Haluaisin vertailla miten 2700X pärjää uudempia amd ja intel prosessoreita vastaan far cry 5 benchmarkissa (720P low, full screen, aa ja motion blur off)
Tässä testin tulos 24/7 kellotuksilla
2700x @4.2Ghz, DDR4 32GB 3400Mhz 14-14-14-28, Gtx 1070
Frame rate, min 124, average 152, max 206.
Frames rendered 8952
Tuossahan on jo sangen merkittävä ero!Ei nyt järin uusi prossu, mutta single-core suorituskyvystähän tuo peli on kiinni, ja se on hyvin samankaltaista ollut Intelillä jo vuosia.
8700k @ 5ghz, DDR4 16GB 4266mhz CL17, RTX 2070 Super
Frame rate, min 161, average 203, max 277
Noin niin kuin yleisesti ottaen suuriman osan 8700k saa kulkemaan 5ghz ja melkein mitkä tahansa 3000+ bdiet sen 4000MHz. Toki se jotain säätöä, korkkausta jne vaatii. Mutta voisi siis muutkin laitella samoja tuloksiaTuossahan on jo sangen merkittävä ero!
Kellotaajuuksien ja muistien puolesta kokoonpanosi näyttää edustavan kärkipäätä, en usko muilla käyttäjillä näin kovia lukemia tulevan.
Ei se niiden ero kasva vaan se tulee paremmin näkyville kun gpu bottleneck laskee uusilla tehokkailla näyttiksillä.. ihan kaksi eri asiaa
Siinä HUB:n videolta otettu 1080p lukemat. Värikoodattu niin että sininen intelin hyväksi ja punainen AMD:n hyväksi. Ja sitten vielä laskettu muutos mitä on tapahtunut kun hypätään 2080Ti:stä 3080:n.
On kyllä erot julmaa luokkaa. Tuolla paistaa toi Gears 5 esiin, se on ainut millä tulee selvää eroa kun siirrytään 3080, ilman sitä keskiarvossa ero on sen prosentin verran.
Eli nyt voidaan varmaan yhdessä nyökytellä että se ennuste että tehokkaampi näytönohjain kun tulee markkinoille niin intelin ja AMD:n välinen ero senkuin kasvaa kohisten ei toteutunut. Joissain on kasvanut, joissain on otettu kiinni.
Kyllä se korjaa niitä kosmeettisia bugeja jos vaan voi, koska potentiaalisia ostajia jotka eivät näistä asioista ymmärrä eli eivät osaa erottaa mikä on oikeasti käytännön elämässä vaarallinen aukko ja mikä teoreettinen aukko niin näkevät tarpeelliseksi korjata kaiken minkä voi ja sehän on vain hyvää bisnestä vaikka aukko ei oikeasti vaarallinen olisikaan kun näitä ihmisiä on valitettavasti jotka eivät noita eroja ymmärrä.Intel ei korjaile kosmeettisia ongelmia. Intelin prosessoreissa (sama myös AMD:llä) on koko joukko bugeja ja ongelmia jotka ovat tiedossa, mutta joita ei korjailla, koska niiden haitat katsotaan niin vähäisiksi. Silti Intel käytti valtavasti aikaa ja vaivaa noiden reikien korjaukseen mikä on selvä merkki siitä, että niitä pidetään hyvin vaarallisina. Jos Intelin parhaimmat aivot ovat sitä mieltä, että ne ovat vaarallisia, niin sinun väitteelläsi asiasta ei ole mitään faktapohjaa. Ja se, että et ole nähnyt yhtään virusta tai haittaohjelmaa joka niitä käyttää tarkoittaa tasan sitä, että sinä et ole niitä nähnyt. Se ei tarkoita sitä, että niitä ei olisi olemassa ja kierrossa.
Niitä parhaita temppuja noissa haittaohjelmissa ei muutenkaan laiteta jakoon koko kansalle, koska niillä on mahdollista tehdä todella paljon rahaa jos sen hyökkäyksen kohdistaa oikeaan yksittäiseen tahoon tai myy esimerkiksi valtioille niihin perustuvia haittaohjelmia.
Höpölöpö. Se oleellisin on se että pelin liike näyttää todella sulavalta kun on korkea fps ja korkea hz näyttö. Netistä löytyy vaikka kuinka hyvin havainnollistavia kuvia missä näkyy erot tökkivät 60hz näytön ja sulavan 240hz näytön välillä korkealla fps:llä ja tällöin fps on myös hyvin olennainen kun halutaan erittäin sulavaa liikettä. Itse en pystyisi pelaamaan pelejä enää selvästi alle 120 fps:llä, mieluiten vähintään saa olla se 200-240fps.Noissa fps lukemissa on aika oleelista tuo viive. Ihan esimerkkinä techspotin anti-lag testistä, eli ne ihan suoraan mittasivat viivettä inputista siihen, että sen näkyy monitorilla. Samalla kalustolla, jolla monitorien inputlagia mitataan.
Tuo oli about 220fps. 220fps on 4.5ms per frame. 300fps olisi 3.3ms per frame. Siitä voi hetken aikaa kelata miten paljon ne fps:t oikeasti vaikuttaa viiveeseen. Päälle oma reaktioaika, joka on reilusti enemmän.
Ei sinällään ihme, että nvidiakin kehitti reflexin, jossa myös piiretään frame mahdollisimman lähellä monitorin piirtohetkeä ohjausviiveen minimoimisksi. Eikä mennä fps-head mallilla, jossa framebuffer kirjoitetaan pari, kolme kertaa uusiksi ennen monitorille näyttämistä.
Jep taisi olla sama Marco Polo täällä suu vaahdossa vouhottamassa kuinka Ryzenit jää pullonkaulaksi uusien ampereiden kanssa
Mitä nyt muutamia revikoita tännekin postailtu, missä ero jotain parin prosentin luokkaa niin voi vaan todeta että fanipojan märät unet eivät toteutuneetkaan![]()
Mikäli näyttää että Amd on hitaampi niin kovasti selitellään miksi se on merkitysetöntä vaikka voitaisiin asia myöntää kuin miehet, eikä vaan väännellä ja vähätellä sitä.
On niitä pelejä joissa Rtx3080 kaveriksi ehdottomasti ottaisin ennemmin Intelin kuin Amd.
4K.lla melkeimpä sitten se ja sama kun erot on melko pieniä mutta 1440p Inteli jos käyttää suorituskykyistä ohjainta.
Ei mitään järkeä maksaa tukkua rahaa nopeasta ohjaimesta vain rajoittaaksen sen nopeutta Amd prossulla.
Jos haluaa vain ostaa Amd Comboa niin silloinhan sitä ongelmaa ei ainakaan vielä ole, koska sieltä ei löydy kuin 5700XT suorituskykyisempänä Radeon VII kanssa ,ehkä tilanne kohta muuttuu.
![]()
Huomaa että harmaat tulokset on ajettu Intelillä.
Amd+3080 on hitaampi kuin Intel+Rx5700XT/2070S
![]()
2080Ti Intelin prossulla nopeampi kuin Amd+3080
![]()
Tässä Amd prossulla melkein sama onko 3080 vaiko Intel ja 2080Ti ero minimaalinen, 3080 suorituskyky menee osittain hukkaan Amd prossun kanssa.
Suoraan sanoen aika iso punalasinen AMD-fani saa olla että ei pidä yli 20% eroja monissa peleissä Intelin eduksi merkittävinä suorituskyvyssä Intelin ja AMD:n välillä, jos ostaa 3080/3090 näyttiksen.Aika merkityksetöntä on tuo ero AMD vs. Intel . Ei kaikki pelaa kilpaa... Se on ihan sama onko 160 vai 180fps, ei kyllä pelikokemukseen vaikuta.
Paremman pelikokemuksen saa mieluummin g-sync/freesync kuin korkeampi fps...
On olemassa muitakin pelejä kuin FPS räiskinnät...
Täällä AMD-omistajien joukossa on paljon niitä, jotka eivät vain välitä siitä, jos Intel on jonkun prosentin nopeampi peleissä jollakin muinaisella 1080p -resoluutiolla.Suoraan sanoen aika iso punalasinen AMD-fani saa olla että ei pidä yli 20% eroja monissa peleissä Intelin eduksi merkittävinä suorituskyvyssä Intelin ja AMD:n välillä, jos ostaa 3080/3090 näyttiksen.
Jokainen joka vähänkin ymmärtää noita graafeja mitä Lepomäkikin laittoi niin tajuaa myös että rahaa menee paljon hukkaan AMD:n kanssa jos haluaa 3080/3090 kun bottleneck on niin kova että jää monessa pelissä jopa tasolle Intel+2080ti...
Itse asiassa en kyllä AMD:n prossulla näe mitään järkeä ostaa 3080/3090 kun bottleneck on niin järjetön monissa peleissä (ellei pelaa 4K:lla), mutta toki jokainen saa rahansa käyttää kuten haluaa



Ei kaikilla ole sitä 2080ti:tä nyt jotka on 3080/90 hankkimassa. Ja onhan siinä aika isoja eroja 3080:n ja 2080ti:n välillä AMD prossullakin myös 1440p resolla. Esim:Suoraan sanoen aika iso punalasinen AMD-fani saa olla että ei pidä yli 20% eroja monissa peleissä Intelin eduksi merkittävinä suorituskyvyssä Intelin ja AMD:n välillä, jos ostaa 3080/3090 näyttiksen.
Jokainen joka vähänkin ymmärtää noita graafeja mitä Lepomäkikin laittoi niin tajuaa myös että rahaa menee paljon hukkaan AMD:n kanssa jos haluaa 3080/3090 kun bottleneck on niin kova että jää monessa pelissä jopa tasolle Intel+2080ti...
Itse asiassa en kyllä AMD:n prossulla näe mitään järkeä ostaa 3080/3090 kun bottleneck on niin järjetön monissa peleissä (ellei pelaa 4K:lla), mutta toki jokainen saa rahansa käyttää kuten haluaa
Häh? Ennustehan oli että tehokkaammat näyttikset kun tulee markkinoille ja koska Ryzen oli jo 2080Ti:n kanssa niin "CPU" rajoitteinen niin intel ottaa siivet alleen ja menee menojaan. Näin ei nyt kuitenkaan käynyt.Ei se niiden ero kasva vaan se tulee paremmin näkyville kun gpu bottleneck laskee uusilla tehokkailla näyttiksillä.. ihan kaksi eri asiaa
Miten paljon niitä on? Kirsikoita poimimalla saadaan aina suuriakin eroja aikaiseksi mutta se pätee monesti myös toiseen suuntaan. Onhan tuossakin 14 pelin otannassa selvästi intelille suosiollisia pelejä pari ja sitten taas vastaavasti AMD:lle hiukan suosiollisia pelejä.Ja keskivertainen fps ero on ihan turha, koska se vääristyy alaspäin niiden pelien takia missä cpu tehot ei pääse esille, eli kannattaa keskittyä niihin peleihin (joita on paljon) joissa on selvät erot esim. Intel vs AMD, esim. yli 20% erot.
Ei sellaista CPU:ta ole olemassa! Hyvä esimerkki toi mäsän flight simulator. Jossa edes se intel ei saa juuri mitään hyötyä vaikka laitat kovempaa näyttistä koneeseen. Tai metro jossa intel junnaa paikallaan, taikka WWZ ja Hitman.Itse kannatan prosessoria jolla kaikki pelit toimii hyvin eikä mene kalliin GPU:n potentiaali hukkaan.
Ehkä sitte jossai peleissä. Jos ei tule noita pelailtua, niin ei varmaan niin haittaa. Muutenkin noissa peleissä varmaan joku 120-144fps on riittävä kun eivät ole mitään kilpapelejä?Mitähän sinä nyt oikein selität? Minähän olin aivan oikeassa ja tuossa alla on liitteenä Lepakomäyrän viesti missä asia todetaankin ( viesti ei kopioinut kuvaa jostain syystä, mutta sen näkee tuolta: Virallinen: AMD vs Intel keskustelu- ja väittelyketju ) että AMD:n kanssa voi käydä niin ettei eroa tule tehoissa 3090/3080 vs 2080 ti monissa peleissä juurikaan jolloin rahat meni hukkaan mielestäni.
Hyvän Intelin (esim. 9900K / 10900K ) kanssa ei tätä huolta ole vaan tietää että sen uuden kalliin kortin potentiaali saadaan hyödynnettyä eikä käy niin ettei eroa tulekkaan vanhoihin heikompiin kortteihin kaikissa peleissä
Tuosta taulukosta voi tehdä intel version, missä näkyy vain ne pelit mitkä suosivat Intelin cpuSiinä on pelikohtaiset eron kun hypätään 2080Ti:stä 3080:n. Edelleen luvut siitä samasta lähteestä kuin ennenkin ja resona se 1080p jossa Ryzenion piti jäädä haistelemaan intelin nostattamaa pölypilveä kun se katoaa horisonttiin.
Punaisella koodattu lukemat joissa saavutettu hyöty on luokkaa tuhnu, eli alle 5%. Siellä on punaista aika tasaisesti molemmissa leireissä.
Vihreällä vastaavasti merkitty ne joissa eroa on tullut 20% tai ylitte. Edelleen, mitään mullistavia eroja ei ole.
Eli jos Zen3 rökittää 10900k:n peleissä, niin käyt ostoksilla, kun cpu on pullonkaulana intelilläkin? Saisit muutaman uudemman pelin pelikelpoiseksi.Itse asiassa en kyllä AMD:n prossulla näe mitään järkeä ostaa 3080/3090 kun bottleneck on niin järjetön monissa peleissä (ellei pelaa 4K:lla), mutta toki jokainen saa rahansa käyttää kuten haluaa
Ihan riippumatta prosessorista, ei ole mitään järkeä ostaa 3080/3090 jos ei pelaa 4k-resoluutiolla.Itse asiassa en kyllä AMD:n prossulla näe mitään järkeä ostaa 3080/3090 kun bottleneck on niin järjetön monissa peleissä (ellei pelaa 4K:lla), mutta toki jokainen saa rahansa käyttää kuten haluaa
Tuo benchmark mittaa erikseen gpu ja cpu rendaukset (eli näyttää mitä prosu kulkisi, jos gpu ei rajottaisi menoa). Vuotoryzen on sen 16-20% nopeampi, mitä 10900K. Jos pitää paikkansa, eikä ole feikki, niin kohta on Marco Polon ja Savolaisen koneet myyntipalstalla.Siinä siis mahdollisessa vuodossa 5800X vs 10900K.
Eipä taida olla merkitystä onko nopeampi koska "eihän sitä huomaa" kuulemma.Tuo benchmark mittaa erikseen gpu ja cpu rendaukset (eli näyttää mitä prosu kulkisi, jos gpu ei rajottaisi menoa). Vuotoryzen on sen 16-20% nopeampi, mitä 10900K. Jos pitää paikkansa, eikä ole feikki, niin kohta on Marco Polon ja Savolaisen koneet myyntipalstalla.![]()
Minusta ei ole mitään väliä, jos fps:t on sadan paremmalla puolen, mutta noiden kultasilmät vuotaa verta, jos peli ei pyöri: "Itse en pystyisi pelaamaan pelejä enää selvästi alle 120 fps:llä, mieluiten vähintään saa olla se 200-240fps."Eipä taida olla merkitystä onko nopeampi "koska eihän sitä huomaa" kuulemma.
Kultasilmät kun huomaa yli 200fps:ssä semmosen parin kymmenen fps:n heitotMinusta ei ole mitään väliä, jos fps:t on sadan paremmalla puolen, mutta noiden kultasilmät vuotaa verta, jos peli ei pyöri: "Itse en pystyisi pelaamaan pelejä enää selvästi alle 120 fps:llä, mieluiten vähintään saa olla se 200-240fps."
Tuolta näkee nämä tulokset suoraan sylttytehtaalta:Tuo benchmark mittaa erikseen gpu ja cpu rendaukset (eli näyttää mitä prosu kulkisi, jos gpu ei rajottaisi menoa). Vuotoryzen on sen 16-20% nopeampi, mitä 10900K. Jos pitää paikkansa, eikä ole feikki, niin kohta on Marco Polon ja Savolaisen koneet myyntipalstalla.![]()
Tai jos haluaa pelata 1440p-resoluutiolla asetukset tapissa. (Myös säteenjäljitys)Ihan riippumatta prosessorista, ei ole mitään järkeä ostaa 3080/3090 jos ei pelaa 4k-resoluutiolla.
Alder lakeen tulossa näillä näkymin DDR5-lankut:DDR5 ei ole tulossa millään 8 kuukauden sisään, aikaisintaan loppuvuodesta 2021 mutta tuskinpa. Kumpikaan valmistaja ei ole julkaisemassa alle vuoden kestävää arkitehtuuria. Zen 3 tulee ihan just ja on viimeinen AM4 ja DDR4. Tiger Lake voisi tulla vielä tänä vuonna tai sitten alkuvuodesta 2021, on toinen/viimeinen LGA1200 ja DDR4.
Tarkoittivat, että on valmis kun on valmis ja lisäksi artikkeli päivittyy
Onhan, sen nimi on 10900K, vieläkun sen kellottaa kunnon lukemiin niin parempaa saa hakea.Ei sellaista CPU:ta ole olemassa! Hyvä esimerkki toi mäsän flight simulator. Jossa edes se intel ei saa juuri mitään hyötyä vaikka laitat kovempaa näyttistä koneeseen. Tai metro jossa intel junnaa paikallaan, taikka WWZ ja Hitman.
Jos pelaat 1080p niin joku 3080 on täysin turha hankinta sille resolle oli alla Intel taikka AMD.
No saakai sitä vaikka edullisen Ladan ostaa jos haluaa ja kehua, minä ajan mieluummin Ferrarilla jos pitää kärjistää. Jokaiselle jotain eikä kaikkein tarvitse sitä hintavampaa ostaa.Täällä AMD-omistajien joukossa on paljon niitä, jotka eivät vain välitä siitä, jos Intel on jonkun prosentin nopeampi peleissä jollakin muinaisella 1080p -resoluutiolla.
He (kuten minäkin) haluavat ostaa edullisia, monikäyttöisiä ja monessa eri ratkaisussa kilpailukykyisiä ja nopeita prosessoreita ja tukea sitä yritystä, joka on saanut +4 -ytimiset (tai oikeastaan 8+ -ytimiset) prosessorit kaikkien saataville järkevään hintaan.
Tämä Zen -arkkitehtuuri (erityisesti Zen 2 ja tuleva Zen 3) ovat se vapaustaistelija, joiden perään kansa lähtee vaikka intelin padoista tarjottaisiinkin jossakin suhteessa herkullisempia mutta paljon kalliimpia lihapaloja.
Meitä on vaikeaa saada enää vanhan sortovallan alle, vaikka kuinka yrittäisitte sitä Intelin nopeudella perustella.
(vähän runollista vallankumoustekstiä tuli, mutta uskon että moni on samaa mieltä)
Minusta ei ole mitään väliä, jos fps:t on sadan paremmalla puolen, mutta noiden kultasilmät vuotaa verta, jos peli ei pyöri: "Itse en pystyisi pelaamaan pelejä enää selvästi alle 120 fps:llä, mieluiten vähintään saa olla se 200-240fps."
Katsokaapa netistä noita kuvia tai videoita joissa vertaillaan 60hz/60fps vs 120hz/120fps vs 240hz/240fps ja vs 360hz/360fps. Eron huomaa jokainen viimeistään siinä vaiheessa kun liikettä hidastetaan, ei tarvi olla mikään kultasilmä.Ihan riippumatta prosessorista, ei ole mitään järkeä ostaa 3080/3090 jos ei pelaa 4k-resoluutiolla.
Eron huomaa sitten kun liikettä hidastetaan? Tajuatko nyt ollenkaan, miten absurdilta tuo kuulostaa? Koko ajanhan tässä on ollut pointtina se, että jossain vaiheessa liike on niin nopeaa, ettei ihmissilmä enää huomaa eroa. Kyllä varmaan eron 5000 fps:n ja 10000 fps:nkin välillä huomaa, "kun liikettä hidastetaan".Katsokaapa netistä noita kuvia tai videoita joissa vertaillaan 60hz/60fps vs 120hz/120fps vs 240hz/240fps ja vs 360hz/360fps. Eron huomaa jokainen viimeistään siinä vaiheessa kun liikettä hidastetaan, ei tarvi olla mikään kultasilmä.
Oiskohan tossa ollu pointtina se että sitä eroa on vaikea tuoda 60Hz näytön läpi muuta kuin hidastamalla. Jos ei niin sit en tiiä ¯\_(ツ)_/¯Eron huomaa sitten kun liikettä hidastetaan? Tajuatko nyt ollenkaan, miten absurdilta tuo kuulostaa? Koko ajanhan tässä on ollut pointtina se, että jossain vaiheessa liike on niin nopeaa, ettei ihmissilmä enää huomaa eroa. Kyllä varmaan eron 5000 fps:n ja 10000 fps:nkin välillä huomaa, "kun liikettä hidastetaan".![]()
Silti, onhan se "typerää" katsoa kuvia tai hidastettua videota isommasta frameratesta. Sehän on selvää, että samaan aikaan saadan enemmän frameja. Näenhän minä luotienkin lentävän hidastuskuvassa. Se video ei vain kerro sitä, että onko se livenä oikeasti sulavamman näköinen ja onko kontrollit havaittavasti tarkemmat.Oiskohan tossa ollu pointtina se että sitä eroa on vaikea tuoda 60Hz näytön läpi muuta kuin hidastamalla. Jos ei niin sit en tiiä ¯\_(ツ)_/¯
OK. Sulla on sit vissiin 3090 KINGPIN tilauksessa? Siis jos n. 5% nopeusetu saa maksaa yli 100% enemmän, niin saman luulisi pätevän myös noiden 3090 mallien välillä. Kone kans varmaan kaskadikompressorilla jäähdytettynä 24/7, ei sekään varmaan nosta koneen kokonaiskustannuksia kuin n. 100% ja saat n. 5% nopeusedun?Ja mielestäni rahat eivät todellakaan mene hukkaan edes 1080p RTX 3090:llä uusimpien raskaiden pelien kanssa jos haluaa korkean FPS:n hyvän Intelin kanssa ja nauttia siitä miten sairaan sulavaa se liike on.
Komppaan Marcoa. Kyllä sen eron huomaa. Kun kysyy CS ammattilaisilta että onko fps, 50 100, 150 vai 300 ilman että he näkevät lukemaan niin kyllä ne osaa erottaa ja kyllä osaa jokainen joka on tottunut korkea hz näyttöihin, esim 240hz.Eron huomaa sitten kun liikettä hidastetaan? Tajuatko nyt ollenkaan, miten absurdilta tuo kuulostaa? Koko ajanhan tässä on ollut pointtina se, että jossain vaiheessa liike on niin nopeaa, ettei ihmissilmä enää huomaa eroa. Kyllä varmaan eron 5000 fps:n ja 10000 fps:nkin välillä huomaa, "kun liikettä hidastetaan".![]()
Sitä paskaa ei kukaan uskonut silloinkaan, se oli vain muutamien konsolifanipoikien defenssiKomppaan Marcoa. Kyllä sen eron huomaa. Kun kysyy CS ammattilaisilta että onko fps, 50 100, 150 vai 300 ilman että he näkevät lukemaan niin kyllä ne osaa erottaa ja kyllä osaa jokainen joka on tottunut korkea hz näyttöihin, esim 240hz.
Ei ole kovin pitkä aika siitäkään kun näillä it foorumeilla selitettiin ettei kukaan huomaa yli 24 fps peleissä kun silmä ei muka enempää näe. Kesti siinäkin aikansa että väki alkoi uskoa ettei se ihan niin mennyt.
Mutta mitä siitä hyötyy kun sen huomaa? Laskeeko pulssi kun olo rauhottuu meditatiivisen sulavan kuvan edessä, vai mikä mitattava etu tästä korkean FPS:n havainnoimisesta on?Komppaan Marcoa. Kyllä sen eron huomaa.
Oletko paljonkin kerännyt statistiikkaa näistä hyödyistä, vai mennäänkö placebolla? Mikä näyttö on kyseessä? En nyt väitä etteikö eroa vaikka 144Hz ja 240Hz välillä olisi, mutta tällaisille heitoille olisi hyvä olla jotain perusteluita.240Hz 1080p näytön omistajana voin sanoa 240Hz olevan vielä hyödyksi.
Peli tuntuu miellyttävämmältä pelata. Kyseessä on subjektiivinen kokemus, mutta se on silti olemassa. Eri ihmisillä se raja jossa sulavempi ei enää lisää miellyttävyyttä vaihtelee. Itselläni menee siellä n. 100 fps tienoolla.Mutta mitä siitä hyötyy kun sen huomaa? Laskeeko pulssi kun olo rauhottuu meditatiivisen sulavan kuvan edessä, vai mikä mitattava etu tästä korkean FPS:n havainnoimisesta on?
Mutulla menen. En ole kerännyt dataa suorituskyvyn paranemisesta, mutta näen ainakin eron noiden kahden välillä, joten voisin kuvitella sen auttavan nopeissa ja tarkkuutta vaativissa peleissä. Toki 144Hz näytöllä varmasti kykenee käytännössä ellei samaan, niin ainakin lähes samaan suoritukseen. Voisin ajatustani perustaa siihen, että fps:n putoaminen tuonne noin 140 pintaan huomaan vaikuttavan tähtäämiseeni ja muutenkin vihollisen havainnointi hieman hankaloituu, kun kuva ei ole yhtä sulavaa kuin 240 fps/Hz.Oletko paljonkin kerännyt statistiikkaa näistä hyödyistä, vai mennäänkö placebolla? Mikä näyttö on kyseessä? En nyt väitä etteikö eroa vaikka 144Hz ja 240Hz välillä olisi, mutta tällaisille heitoille olisi hyvä olla jotain perusteluita.
Nopeasti muuttuvat tilanteet (joita kilpailuhenkiset fps:t ovat täynnä) hahmottaa nopeammin, se on ehkä selkein ero ainakin omalla kohdalla. Esim. OW:ssa Widowilla grapple jump + scope, hahmottaa ympäristön ja poimii kohteen nopeammin. Toki edellyttää myös sitä, että näytön pikselit pysyvät perässä (=TN). Mutta eihän siinä tietenkään samanlainen massiivinen mullistus ole enää kyseessä kuin 60 -> 144 siirtymässä. Toisaalta nykyinenkään setuppi ei tunnu vielä täydelliseltä, joten parantamisen varaa voi olla. Täytyy myös sanoa, että nykyään 240 Hz:n pitempään tottuteena jo 144 Hz näyttää nykivältä, jos alkaa vertailuja tekemään. Mitä pitempään on ehtinyt tottua hyvään, sitä hankalampi on vaihtaa takaisin huonompaan, eli sikäli sama kuvio kuin audiolaitteidenkin kanssa. Kyllä sitä joskus penskana kuunteli onnellisena musiikkia parin kympin muovipurkeilla, vaan toisin on nyt.Oletko paljonkin kerännyt statistiikkaa näistä hyödyistä, vai mennäänkö placebolla? Mikä näyttö on kyseessä? En nyt väitä etteikö eroa vaikka 144Hz ja 240Hz välillä olisi, mutta tällaisille heitoille olisi hyvä olla jotain perusteluita.
Voisin ajatustani perustaa siihen, että fps:n putoaminen tuonne noin 140 pintaan huomaan vaikuttavan tähtäämiseeni
Kyseisellä monitorilla input lag nousee dramaattisesti VRR tilassa jos fps laskee paneelin maksimista. 3,6ms @ 240Hz -> 14,9ms @ 60Hz, kun tuo 60Hz input lag voisi olla noin puolet nykyisestä luvusta. Lineaarisesti jos noiden lukujen välillä interpoloi, niin 140fps materiaalilla ruudun input lag on noin 2,5 kertainen 240fps materiaaliin verrattuna. Luultavasti se fps:n putoaminen ei ole siis ainakaan ainoa syy tähtäämisen vaikeutumiseen, vaan osasyynä voi olla myös epäoptimaalisesti toteutetut VRR ratkaisut. 144Hz näyttöjä on markkinoilla joilla on input lag samalla tasolla tuon sinun näytön kanssa, ja vertailu pitäisi tehdä sellaista vastaan jotta voitaisiin tuon dramaattisesti kasvavan input lagin vaikutus poistaa vertailuun vaikuttavista tekijöistä.BenQ XL2540.
Kuinka paljon nopeammin? Kuinka iso osa erosta tulee nopeammasta pikselivasteesta ja matalemmasta input lagista ja kuinka iso siitä nopeammasta näytön virkistystaajuudesta? En yritä mitenkään kiistää kokemustasi, vaan herättää kysymyksiä siitä että mitkä on merkittävät pelisuoritukseen vaikuttavat tekijät ja mitkä on niiden keskinäiset merkittävyydet.Nopeasti muuttuvat tilanteet (joita kilpailuhenkiset fps:t ovat täynnä) hahmottaa nopeammin, se on ehkä selkein ero ainakin omalla kohdalla.
Onko tästä tehty ihan tutkimusta, onko taulukot ja tulokset jossain näkösällä? Vai oliko tämä vaan spekulaatiota että näin se vois mennä ja kävis järkeen?Ja niillä CS ammattilaisilla kyse on ihan lajissa pärjäämisestä 120 vs 240hz. Identtiset pelaajat vastakkain niin nopeammalla näytöllä pelaava voittaa useammin. Ei aina, koska ihminen ei ole kone joka toistaa joka kerta saman tehtävän samalla teholla, mutta useammin.
Identtiset pelaajat 120hz vs 120hz (ja molemmat tottuneet siihen nopeuteen) niin voitot menee 50/50
On siinä pieni ero olemassa ja jos taitotaso on sama, niin kyllä sen pitäisi kallistaa erot nopeamman ruudun puolelle. Tässä vähän havainnollistava kuva nvidian mainosmateriaaleista:Onko tästä tehty ihan tutkimusta, onko taulukot ja tulokset jossain näkösällä? Vai oliko tämä vaan spekulaatiota että näin se vois mennä ja kävis järkeen?