Alikellotus

Planned obsolescence lisäksi tietokoneet vanhenee nopeasti koska luonnollinen kehitystahti on muutenkin nopea, vaikka se voisi olla nopeampikin.. ja kalliimpi. Toivottavasti säästymme siltä. :D

Minusta ne eivät niin nopeasti vanhene enää. 90-luvulla vanheni parissa vuodessa pelikäytössä. Crysis vuonna 2007 taisi olla edellinen kerta kun joku PC peli vaati vähän uudempaa rautaa mutta sen jälkeen pelitarpeissa on riittänyt kun mennyt konsoliraudan tahdissa. Eli tietokone toimii pelikäytössä ainakin 7v.

Tämäkin näyttää muuttuvan kun uusimmasta Xboxista on pari versiota, että 4k pelaajille omat ja FullHD pelaajille omat mutta pelit puolestaan eivät välttämättä ihan tähän pysty vaan on upscalea natiivin sijasta. Ehkäpä seuraavalla rautasukupolvella tilanne on eri, että aletaan pian olla tilanteessa, että tietokone ei enää vanhene pelikäytössä eikä oikein missään muussakaan käytössä ja riesana on vain se planned obsolence ja heikkolaatuinen rauta, nämä tuntuu jo nyt.

Tietysti firmoilla toki on planned obsolencea vastaan ratkaisumalli missä ei niitä SER-jätevuoria niin paljoa tulisi, että laitetaan subscriptionia. Ne saa vaikka niihin suljettuihin ajureihin, että kuukausimaksua vastaan saa käyttöön raytracet, AI:t, lisää tehoja, 4k reson ja jostain pilvipalvelusta apulaskentaa vaikka.

Ja olen todellakin niin vahvasti PC-mies että ei kiitos tuolle.
 
Täällä on ajossa Gentoo 7800X3D:n ja 7900 XT:n päällä.

CPU:n kellotaajuuden skaalaus toimii nätisti. Idlenä ytimet makoilee 400MHz:ssä ja nostavat sekä laskevat taajuutta koko skaalalla tarpeen mukaan ja välittömästi.
Käytössä AMD P-State EPP/Active moodilla, ajuri/performance preference -kombo performance/balance_performance.
Lämmöt idlenä 40C paikkeilla, suurimmat mitä tullut päivityksiä ajaessa vastaan jossain 80C hujakoilla. Jäähynä Noctuan NH-D15.
Phoronix oli tehnyt kattavia testejä näillä taajuudenskaalausajureilla:
AMD P-State EPP Performance With EPYC On Linux 6.3 - Phoronix

GPU:n kellotaajuuksia ja tehorajoja säätää näppärästi LACT:lla:
GitHub - ilya-zlobintsev/LACT: Linux AMDGPU Controller

Noniin tällä vaan. Ja alivoltitus/alikellotus tehdään niinkuin ylikellotus, mutta päinvastoin.

1710436265638.png

Itse aloittaisin tuosta: "Max GPU voltage", miettisin jonkun arvon sille, vaikka 1000mV. Sitten se laitetaan toimimaan. Arvot toki riippuu näytönohjaimesta, eikä nämä päde kaikkiin. Käytä omaa harkintaa ja oman näytönohjaimen arvoja.
  1. Ota joku alhainen lukema GPU clock (vaikka 1200MHz)
  2. Aja pari tuntia stressitestejä
  3. Jos toimi, nosta lukemaa ja siirry kohtaan 2.
  4. Jos ei toiminut ja/tai tuli virheitä, ota viimeisin toimiva lukema
Jos siirryit ylöspäin liian suurin harppauksin, niin voi sitä väliä vielä iteroida.

Jotta tämä ei vaikuttaisi suorituskykyyn, pitäisi vielä boostata tuohon Max GPU Clock, mutta ei se kuitenkaan ole näin, varsinkin jos paljon lasket maksimivoltteja. Mutta näin käytännössä alikellotetaan. Kun se kuitenkin on epäselvää.

JA EI TOIMI NIIN , ETTÄ VALITAAN JOTKUT INTERNETISTÄ POIMITUT ARVOT, JOTKA YOUTUBESSA ON TODETTU TOIMIVAKSI JA EI TESTATA ITSE YHTÄÄN.

--

Jos haluaa helpoimman tavan, eikä välitä suorituskyvystä, niin napsii pari korkeinta power statea pois ja se on ihan sama asia, kuin boostien rajoittaminen, mutta sillä saa näytänohjaimen toimimaan niin, että se ei ole ikinä 100%.
 
Mikä tämä 60fps lukkoajatus nyt on? Sillähän se tietokone ei nimenomaan tee töitä täysillä vaan se huilailee sitten siinä 60fps lukemassa?

Sehän on hyvä juttu silloin, että ei tee turhaa työtä. Jos sitten tulee joku sellainen peli mikä vaatii enemmän niin käyttää sen verran mitä tarvitsee. Kyllä sitä tehoa pitää sen verran olla, että ei tipu alle 60fps jos 60fps haluaa ja että ei tarvitse mitään upscalea.

Jos sitten laittaa tietokoneen laskemaan jotain niin kuorma toki menee tappiin, että se maksimikuorma pitäisi tietää myös kun suunnittelee.
 
Noniin tällä vaan. Ja alivoltitus/alikellotus tehdään niinkuin ylikellotus, mutta päinvastoin.

1710436265638.png

Itse aloittaisin tuosta: "Max GPU voltage", miettisin jonkun arvon sille, vaikka 1000mV. Sitten se laitetaan toimimaan. Arvot toki riippuu näytönohjaimesta, eikä nämä päde kaikkiin. Käytä omaa harkintaa ja oman näytönohjaimen arvoja.
  1. Ota joku alhainen lukema GPU clock (vaikka 1200MHz)
  2. Aja pari tuntia stressitestejä
  3. Jos toimi, nosta lukemaa ja siirry kohtaan 2.
  4. Jos ei toiminut ja/tai tuli virheitä, ota viimeisin toimiva lukema
Jos siirryit ylöspäin liian suurin harppauksin, niin voi sitä väliä vielä iteroida.

Jotta tämä ei vaikuttaisi suorituskykyyn, pitäisi vielä boostata tuohon Max GPU Clock, mutta ei se kuitenkaan ole näin, varsinkin jos paljon lasket maksimivoltteja. Mutta näin käytännössä alikellotetaan. Kun se kuitenkin on epäselvää.

JA EI TOIMI NIIN , ETTÄ VALITAAN JOTKUT INTERNETISTÄ POIMITUT ARVOT, JOTKA YOUTUBESSA ON TODETTU TOIMIVAKSI JA EI TESTATA ITSE YHTÄÄN.

--

Jos haluaa helpoimman tavan, eikä välitä suorituskyvystä, niin napsii pari korkeinta power statea pois ja se on ihan sama asia, kuin boostien rajoittaminen, mutta sillä saa näytänohjaimen toimimaan niin, että se ei ole ikinä 100%.
Vielä omia kokemuksia lisäten: Täällä oli nämä säädöt käyttöönotossa päin prinkkalaa, mikä aiheutti kai sitä kuuluisaa coil whinea kuormituksessa. Tarkemmin ottaen max. GPU clock suurempi kuin vakio ja tehoraja tosi alhainen. Säädin arvot valmistajan spekseihin niin johan hävisi äänet. Kokeilen alivoltitusta sitten joskus.
 
GPU:n maksimi TDP kun performance profile on "low" tai vaihdettu jumpperista joku "silent" 100% kuormalla kiinnostaisi että voisi miettiä poweria paremmin.
Älä turhaan tuon pohjalta mieti, kun hsalonen sulle tuosta jo sanoi tuolla toisessa ketjussa:

TDP on edelleen jäähdytyksen tarve, ei kulutuksen.
 
Vielä omia kokemuksia lisäten: Täällä oli nämä säädöt käyttöönotossa päin prinkkalaa, mikä aiheutti kai sitä kuuluisaa coil whinea kuormituksessa. Tarkemmin ottaen max. GPU clock suurempi kuin vakio ja tehoraja tosi alhainen. Säädin arvot valmistajan spekseihin niin johan hävisi äänet. Kokeilen alivoltitusta sitten joskus.

Joo ei se suorituskyky tosiaankaan ole tässä niin kriittinen kunhan sitä on tarpeeksi, eli selkeintä napsia powerstatea pois että saa ilmalla jäähdytettyä hiljaisesti kunhan 60fps löytyy, en tosiaankaan halua muuttaa yhtään jännitteitä. Voi tarvittaessa vaikka tarkistaa lähdekoodista, että softa ei yritä vahingossa muuttaa jotain jänniteasetusta kun haluaisi vain powerstatea muuttaa.

Tuo on sitä mitä kaipaan, että voisi ostaa niin paljon GPU coreja kuin kätevästi saa ja säätää powerstateista se halutulle suorituskyvylle. Tarvitsee vain selvittää/laskea mitä ohjain kuluttaa watteja näitä pudottamalla että osaa ostaa powerin oikein.
 
Erinomaisen hyvät dokumentaatiot:


Tämän lisäksi, piirin kulutus saadaan aika tarkkaan laskettua kaavalla:

P=C*(V^2)*f

P = teho
C = kapasitanssi
V = jännite
f = kellotaajuus

Ja tuosta huomataan kuinka järjettömät ne boost kellot ovat.

Pienellä laskimen pyörittelyllä voisi siis rakentaa hiljaisen, erittäin tehokkaan ilmajäähy koneen kun vähän roplailee kovimpia kelloja pois (jos mahdollista suorituskyvyn heikkenemättä liikaa) ja lisäksi voi onnistua mitoittamaan powerin paremmin.

Ei tällä nyt ihan 0db pääse tehokkaassa pelikoneessa mutta ei tarvitsekkaan.
 
Onpa vaikeaa katsoa revikoista paljonko komponentit kuluttavat. :sfacepalm:

Eihän sitä tietoa suoraan löydy jos haluaa mitoittaa virtalähteen pienelle idlevirran kulutukselle, alikellotetuille osille. Niin pitäisi ensiksi pitäisi selvittää kuinka paljon pystyy komponentteja alikellottamaan, että teho riittää peleihin kun siinä lähtee jotain prosenttia pois maksimisuorituskyvystä. Sitten voi laskea kulutuksen uudestaan mitä vievät alikellotettuna niin voi speksata powerin näiden mukaan.
 
Eihän sitä tietoa suoraan löydy jos haluaa mitoittaa virtalähteen pienelle idlevirran kulutukselle, alikellotetuille osille. Niin pitäisi ensiksi pitäisi selvittää kuinka paljon pystyy komponentteja alikellottamaan, että teho riittää peleihin kun siinä lähtee jotain prosenttia pois maksimisuorituskyvystä. Sitten voi laskea kulutuksen uudestaan mitä vievät alikellotettuna niin voi speksata powerin näiden mukaan.
Virtalähde mitoitetaan maksimirasituksen mukaan, eikä idlekulutuksen.
 
Tyhjäkäynnin hyötysuhde-ero on 3 wattia kohtuullisen kokoisen ja järkälemäisen powerin välillä. -> pienen (kuormituksessa metelöivän) ja kohtuullisesti ylimitoitetun (ettei tuulettimet koskaan (tai ~koskaan) pyöri) ero on varmasti alle aiemmin mainittu 3 wattia, todennäköisesti alle 1 watti. (ei samaa mallia jne, mutta voi itse kaivella tarkemmin, jos ei usko yleisen linjan olevan tämä)

40 w lähtöteho vakioitu
Thermaltake Toughpower GF3 1650 W Review - Two 12VHPWR Connectors - Efficiency | TechPowerUp -> otto 53.6 w
Corsair RMi Series 650 W Review - Efficiency, Temperatures & Noise | TechPowerUp -> otto 50.3 w
 
Virtalähde mitoitetaan maksimirasituksen mukaan, eikä idlekulutuksen.

Kyllä!

Mutta säätämällä maksimirasitusta alemmaksi ei sen takia tarvitse rajata valikoimaa niihin tehokkaampiin powereihin (ja jäähyihin) vaan voi löytyä optimoidumpi kone design joka ottaa vähemmän seinästä idlellä.

Mutta tosiaankin jos puhutaan parista watista niin sitten sillä ei ole väliä. Kultainen keskitie lienee platinum poweri 650-700W tuntumassa boost kellojen ollessa pois päältä. Täytyisi sitten alikellottaa todella rankasti että voi mennä pienemmällä (ei kiitos) ja sitten siinä ei kuitenkaan ole järkeä vaan voisi saman tien mennä APU:lla ja löytyy barebone mikä ei oikeasti vie mitään.
 
Kyllä!

Mutta säätämällä maksimirasitusta alemmaksi ei sen takia tarvitse rajata valikoimaa niihin tehokkaampiin powereihin (ja jäähyihin) vaan voi löytyä optimoidumpi kone design joka ottaa vähemmän seinästä idlellä.

Mutta tosiaankin jos puhutaan parista watista niin sitten sillä ei ole väliä. Kultainen keskitie lienee platinum poweri 650-700W tuntumassa boost kellojen ollessa pois päältä. Täytyisi sitten alikellottaa todella rankasti että voi mennä pienemmällä (ei kiitos) ja sitten siinä ei kuitenkaan ole järkeä vaan voisi saman tien mennä APU:lla ja löytyy barebone mikä ei oikeasti vie mitään.
Titanium powerissa on paras hyötysuhde pienimmillä kuormilla eli juurikin idlessä. 750w Titanium riittää lähes mille tahansa kokoonpanolle.
 
Titanium powerissa on paras hyötysuhde pienimmillä kuormilla eli juurikin idlessä. 750w Titanium riittää lähes mille tahansa kokoonpanolle.

Joo katselin just samaa että Seasonicin Titanium voisi olla mutta 750W sijasta voisi ottaa 650W kun ei tarvitse niitä boost kelloja.
 
Joo katselin just samaa että Seasonicin Titanium voisi olla mutta 750W sijasta voisi ottaa 650W kun ei tarvitse niitä boost kelloja.
Virtalähde on tietokoneen pitkäikäisin komponentti niin siihen kannattaa laittaa hieman extraa. 650w vs 750w powereiden hintaero on muutenkin n. 10€ luokkaa.
Kulutusta lasketaan pienentämällä käyttöjännitettä, eikä poistamalla boostikellot käytöstä, kuten on jo moneen kertaan sanottu. Poistamalla boostit sun on silloin ihan sama ostaa paria pykälää hitaampaa rautaa eikä kuristaa nopeampaa. Nykyrauta ei vain toimi noin miten ajattelet ja miten se ennen oli. Nykyraudalla saadaan yleensä parempaa suorituskykyä juurikin alivoltittamalla eikä lisäämällä jännitettä kuten ennenvanhaan.
 
Kyllä!

Mutta säätämällä maksimirasitusta alemmaksi ei sen takia tarvitse rajata valikoimaa niihin tehokkaampiin powereihin (ja jäähyihin) vaan voi löytyä optimoidumpi kone design joka ottaa vähemmän seinästä idlellä.

Mutta tosiaankin jos puhutaan parista watista niin sitten sillä ei ole väliä. Kultainen keskitie lienee platinum poweri 650-700W tuntumassa boost kellojen ollessa pois päältä. Täytyisi sitten alikellottaa todella rankasti että voi mennä pienemmällä (ei kiitos) ja sitten siinä ei kuitenkaan ole järkeä vaan voisi saman tien mennä APU:lla ja löytyy barebone mikä ei oikeasti vie mitään.
Selain auki ja Radeon Adrenalin mittaa CPU ja GPU kulutukseksi just ja just yli 30w yhteensä.
Idle kulutuksen ei saa antaa vaikuttaa virtalähteen valintaan.
 

Liitteet

  • idle powerdraw.jpg
    idle powerdraw.jpg
    67 KB · Luettu: 24
Viimeksi muokattu:
Ylikellotettu RTX 3080 ja 5800X3D, kulutus idlessä n. 70w. Ei ole boosteja poistettu käytöstä.
 
Se on todella paljon. Kyllä sen nyt odottaisi olevan 30W tasoa.
Se ei ole paljon idle kulutukselle raudan suorituskyky huomioonottaen.

Koska en nyt välttämättä ole hakemassa mitään freesync/g-sync 240fps kokemuksia peleihin, niin minua kiinnostaa ennemminkin vähentää tehoja. Eli jos nyt vaan laitan 60fps lock V-sync niin löytyisikö noista tehokorteista sitten nykyään minkälaiset keinot optimoida watteja?
Watit optimoidaan siten että koko kokoonpano vie maksimi rasituksessa vähemmän kuin tehdasasetuksella.
 
Itsellä on kakkoskoneessa RTX 3070, joka on alivoltitettu ja ylikellotettu samaan aikaan. Ehkä termi jännitteen optimointi parempi. Vakiona kortti boostaa max 1950mhz 1.075 voltilla, mutta hakkaa power limittiä vastaan helposti. Käsin tehdyllä curvella 1.0v ja 2000mhz ja ei hakkaa ikinä power limittiä vastaan ikinä ja tuuletinprofiilikin hiljaisempi alhaisemman virratarpeen/lämmön syntymisen johdosta. Lisäksi muisteihin lyöty +1000mhz.

Tämä kannattaa tehdä jokaiselle kortille oli se sitten AMD tai Nvidia.

Niin ja siis tosiaan MSI afterburnerilla saa tuon curven tehtyä ja asetettua niin, että se on aina päällä, vaikka afterburner ei olisi.
 
Itsellä on kakkoskoneessa RTX 3070, joka on alivoltitettu ja ylikellotettu samaan aikaan. Ehkä termi jännitteen optimointi parempi. Vakiona kortti boostaa max 1950mhz 1.075 voltilla, mutta hakkaa power limittiä vastaan helposti. Käsin tehdyllä curvella 1.0v ja 2000mhz ja ei hakkaa ikinä power limittiä vastaan ikinä ja tuuletinprofiilikin hiljaisempi alhaisemman virratarpeen/lämmön syntymisen johdosta. Lisäksi muisteihin lyöty +1000mhz.

Aikaisemmin jännitteiden vähentäminen on tarkoittanut että luottettavuus voi heiketä mutta laite voi kestää paremmin. Ylikellotus taas on tarkoittanut, että luotettavuus voi kärsi ja laite voi kestää heikommin.

Uskon että valmistaja haluaa myydä nopeampaa ja siksi näissä on näitä valmistajan laittamia ylikellotuksia (boost kellot) mitkä nostavat tehoja automaattisesti mikäli on tarpeeksi viileä mutta niin, että luotettavuus ei kärsi.

Minun on hankala uskoa, että valmistaja heikentäisi luotettavuutta missään tilanteessa, tai jättäisi optimoimatta sitä curvea.
 
Minun on hankala uskoa, että valmistaja heikentäisi luotettavuutta missään tilanteessa, tai jättäisi optimoimatta sitä curvea.

Onhan se curve tavallaan optimoitu sinnepäin valmistajan toimesta, mutta kun kortit ovat yksilöitä niin sinne lyödään varmuuden vuoksi vähän liikaa jännitettä ettei kortti kaadu kovassakaan käytössä tehdasasetuksilla.

Itse kokeilemalla löytää sen jännitteen millä kortti ei kaadu jollakin tietyllä boost taajuudella. Ainakin tuossa RTX 3070 valmistajan curve antaa 10-20% "liikaa" virtaa kovassa rasituksessa 1950mhz boost clockilla.
 
itse kokeillut 5600x ja 5950x niin AMD menee aika rajoilla prossujen kanssa kun jo -5 CO arvo (noin 15-25mV tiputus) toisessa parhaimasta ytimessä alkaa heittämään virheitä primessä. Moni alkuun valitteli että 5000 sarjalaiset heittin virheitä vakiona vaikkei normaali käytössä huomannut mitään. Onhan tuossa eroja miten osa yksilöistä kellottuu paremmin kuin toiset ja sama pätee näyttiksiin.

Hyvä tuuri käy jos tulee sellainen kortti vastaan mikä alivoltittuu hyvin. oma ei oikein tykkää alivoltituksesta ja peli käytössä virrankulutus pyörii miten sattuu 150W ja 330W välillä chivalryssä riippuen mihin suuntaan katsoo. voltteja en muista mutta 1700Mhz ajelin parin tuntia kunnes totesin että helpompi ja luotettavampi vain säätää power limitillä 200W paikkeille jolloin kellot on yleensä noin 1500Mhz.

tuli kokeiltua Breakpointtia ilman fps lukkoja 100fps vs 60fps vsyncin kanssa. Oli aika kauhea kokemus 60fps vsync viiveen kanssa jotta säästi 50W näyttiksen kulutuksesta :rofl:
1.jpg
 
Aika kovasti jo rajoittaa kortin kulkua laskea power limitti 200w jos vakiona 330w.
 
Aika kovasti jo rajoittaa kortin kulkua laskea power limitti 200w jos vakiona 330w.
ite ei ole tullu vastaan ongelmia. topaz on yleensä 15fps vs 17fps, witcheri rt päällä oli 55fps vs 60fps. cyberpunk pt päällä samaa luokkaa. Breakpointti näyttäisi olevan max 100fps very high asetuksilla vaikka render resoa laskisi PL nostamisen sijaan. En ole nähnyt tota 130W lisääystä mitenkään tarpeelliseksi muuten kuin synteettisissä testeissä.

EDIT: tuommoisia lukemia sain nyt Breakpointissa. päälle 120fps sain myös ennen kuvan ottoa kun oli paikallaan ja tiputti render resoa minimiin 50% ihan testiksi. Ei näköjään 100% limitillä ime kaikkea 330W tässä pelissä ja kellotkin näyttäisi olevan vähän korkeammalla kun ei ole säteenseurantaa tai dlss eli ihan rasteroitua grafiikkaa "natiivina"
90fps 200W 1725Mhz 888mV
97fps 287W 1950Mhz 1063mV
Tom Clancy's Ghost Recon® Breakpoint2024-3-15-23-38-33.jpg
 
Viimeksi muokattu:
ite ei ole tullu vastaan ongelmia. topaz on yleensä 15fps vs 17fps, witcheri rt päällä oli 55fps vs 60fps. cyberpunk pt päällä samaa luokkaa. Breakpointti näyttäisi olevan max 100fps very high asetuksilla vaikka render resoa laskisi PL nostamisen sijaan. En ole nähnyt tota 130W lisääystä mitenkään tarpeelliseksi muuten kuin synteettisissä testeissä.

EDIT: tuommoisia lukemia sain nyt Breakpointissa. päälle 120fps sain myös ennen kuvan ottoa kun oli paikallaan ja tiputti render resoa minimiin 50% ihan testiksi. Ei näköjään 100% limitillä ime kaikkea 330W tässä pelissä
90fps 200W 1725Mhz 888mV
97fps 287W 1950Mhz 1063mV
Tom Clancy's Ghost Recon® Breakpoint2024-3-15-23-38-33.jpg's Ghost Recon® Breakpoint2024-3-15-23-38-33.jpg

Oho, käyttäytyykö samallalailla muissakin peleissä?
Edit: Vaikuttaisi että valmistaja ottanut tehokkaasti kaiken irti mitä saanut jos kyseinen peli ei ole poikkeus tapaus.
 
Viimeksi muokattu:
Onhan se curve tavallaan optimoitu sinnepäin valmistajan toimesta, mutta kun kortit ovat yksilöitä niin sinne lyödään varmuuden vuoksi vähän liikaa jännitettä ettei kortti kaadu kovassakaan käytössä tehdasasetuksilla.

Nimenomaan. Eli jos lähden lomalle ja jätän tietokoneen renderöimään videota kolmeksi viikoksi (kuorma tapissa) niin en haluaisi takaisin tullessa huomata tietokoneen kaatuneen. Kun sitä rahaa nyt voi kuitenkin laittaa tarpeeksi tonneja että ei tarvitse mitään alimitoitettua rihkamaa laittaa sinne että säästää 100€ tms.

Nykyään kun tietokoneissa suorituskyky ei ole ongelma että voi ostaa sellaisen koneen missä suoritusykykyä on niin paljon kuin haluaa. Tästä syystä pidän hyvin omituisena roplata jännitteitä kun boost kellojen poisto kokonaan ratkaisee paljon ongelmia mitä tulee meluun ja kulutukseen ja silti tehoa on yllinkyllin, että pelit eivät pätki.
 
Nimenomaan. Eli jos lähden lomalle ja jätän tietokoneen renderöimään videota kolmeksi viikoksi (kuorma tapissa) niin en haluaisi takaisin tullessa huomata tietokoneen kaatuneen. Kun sitä rahaa nyt voi kuitenkin laittaa tarpeeksi tonneja että ei tarvitse mitään alimitoitettua rihkamaa laittaa sinne että säästää 100€ tms.

Nykyään kun tietokoneissa suorituskyky ei ole ongelma että voi ostaa sellaisen koneen missä suoritusykykyä on niin paljon kuin haluaa. Tästä syystä pidän hyvin omituisena roplata jännitteitä kun boost kellojen poisto kokonaan ratkaisee paljon ongelmia mitä tulee meluun ja kulutukseen ja silti tehoa on yllinkyllin, että pelit eivät pätki.
Paitsi että kun pelataan, se melu ei ole ongelma, eikä myöskään kulutus. Ja vaikka pelit eivät pätkisi, more is more.
Ne boostit on siellä just sitä varten, että saadaan tarvittaessa vielä lisää mehua.
 
tuli kokeiltua Breakpointtia ilman fps lukkoja 100fps vs 60fps vsyncin kanssa. Oli aika kauhea kokemus 60fps vsync viiveen kanssa jotta säästi 50W näyttiksen kulutuksesta :rofl:

Hetkinen, 60fps:ssä puhutaan 16.6ms viiveestä ja se on todella vähän kuvalle.

Audio on herkempi, että hankala soittaa musiikin tahdissa jos latenssi mikä tulee kuulokkeista kasvaa suureksi. Worst case on 12ms ja olennainen syy tässä se, että audio kulkee korvasta aivoon 8ms ajassa niin on siihen optimoidumpi. Kuvassa riittää alhaisempi, sillä kuvasignaali menee silmästä näkökeskukseen 20-40ms.

Aivot itsessään prosessoivat dataa suhteellisen hitaasti, siellä kellotaajuus on 8-12Hz, käytännössä nuoremmilla enemmän ja vanhemmilla vähemmän. Tämä on myös siinä siihen miksi vanhemmiten aika tuntuu menevän nopeammin kun aivojen kellotaajuus laskee. Normaalisti käyttöliittymäpuolella riittää, että worst case kokonaislatenssi siitä että koskee hiireen/näppikseen ja kuva liikkuu ruudulla on alle 100ms. Esimerkiksi pelimoottorissa se tietenkin se riippuu ajankohdasta milloin syöte tulee ja milloin prosessoidaan kuvaksi, että ajan pitäisi olla puolet tuosta että pysyy varmasti alle tuon, mutta...

...koko homma voi mennä silti ihan perseelleen siinä jos pelimoottori/näytönohjain renderöi frameja puskuriin mitä työntää V-syncin tahdissa ja lisäksi monitorillakin voi olla frameja puskurissa siksi, että jos näkee tulevalla framella kontrastin muuttuvan paljon niin se voi ennakoida tulevaa muutosta aloittamalla pikselin värin muutoksen ajoissa.

Eli kun puhutaan kokonaislatenssista niin se nyt varmaan olisi parasta olisi tarkistaa vaikka kuvaamalla vaikka 240fps kameralla näppäimen painallusta ja monta framea menee että kuva oikeasti liikkuu ruudulla kun ymmärretään, että se kokonaisuus ei vaan ole realtime. Tietenkin ihmisen silmä toki näkee fps eron visuaalisesti tilanteesta riippuen ja sitten jos kyse jostain reaktioräiskinnästä niin sellaiseen voi tietenkin myös harjaantua että normaalit latenssirajat ovat suuria. Ja varmaan voi vaikuttaa esim. kahvilla. UI suositusten sijaan voisi myös miettiä sitä aivojen 8-12Hz taajuutta, silmä-näkökeskuslatenssia ja tietokonelatenssia, että mitä tässä nyt oikeasti tapahtuu.

Mutta, kun tiedetään näitä ihmisen ja tietokoneen ominaisuuksia, 60fps:llä vsyncin ei pitäisi normaalisti tuntua kauhealta. Ennen vanhaan kun tietokoneissa ei ollut niitä buffereita ja latensseja joka paikassa (CRT monitorit yms.) niin pelien pelaaminen onnistui sujuvammin hieman matalemmilla FPS:llä. Tänä päivänä olisi hyvä vähän tutkia että mitä siellä koneessa oikein tapahtuu jos 60fps tuntuu kauhealta. Sen ei pitäisi näin tehdä. Ja sekin tietysti, että miten rauta/ajuripuolella tuota on säädelty? Kuka hyötyy jos 60fps ärsyttää että saa kuluttajan kaivamaan lompsasta rahaa ratkaistakseen tämän? En laskisi pois mahdollisuutta, että jokin on vituillaan siksi, että keksittäisiin tarvetta myydä jotain ja ehkä sitä voi säätää fiksummaksi.
 
Tänä päivänä olisi hyvä vähän tutkia että mitä siellä koneessa oikein tapahtuu jos 60fps tuntuu kauhealta. Sen ei pitäisi näin tehdä.
Et oo tosissas?

Ei 60fps varmaan tunnu kauhealta, jos ei paremmasta tiedä. Kun on oikeasti sulavaan liikkeeseen tottunut, pelkkä kursorin liike 60fps on ihan järkyttävää katseltavaa.
 
Paitsi että kun pelataan, se melu ei ole ongelma, eikä myöskään kulutus.

Onhan se melu ongelma. Kyllä pelit ovat audiovisuaalisia elämyksiä että haluaa sen äänenkin kuuluvan hyvin. Ei sillä melulla sitten ole väliä jos on vaikka kuuro.

Ja vaikka pelit eivät pätkisi, more is more.

Tällä logiikalla formula-auto olisi parempi kauppakassi kuin mikä tahansa mitä autoliikkeessä on. Siitä huolimatta että formulaan ei kunnolla mahdu kyytiin ja useinkin jäävät lähdössä ruutuun, syttyvät palamaan ja renkaat loppu saman tien. Eikä siinä taajamassa edes saa kovempaa mennä.

Ruudulla näkyvien pikselien määrällä ei ole merkitystä kun ne ovat katsojan silmälle alle yhdenminuuttikulman tarkkuudella. Käyttöliittymissä riittää että kun jotain klikkaa niin asia on valmis alle sekunnissa että ei katkaise flowta. Jos menee väkisin enemmän niin voi miettiä sitten pysyykö alle <10s (ärsyttää mutta malttaa odottaa), vai meneekö kahvitauon aikana, ruokatunnin aikana, yön yli, viikonlopun yli jne.

Muutaman prosentin parannukset siis ovat yleensä ihan turhia. Esimerkiksi 10s -> 1s muutos tarvitsee 10x enemmän, eli puhutaan sitten 10x eroista kellotaajuudessa jos haluaa laskennan nopeutuvan sille tasolle, että ei haittaa työflowta. Tuollaiset asiat ovat sitä millä voi arvioida saako enemmän aikaiseksi vai ei.

Eli suorituskyvyn maksimointi ei tosiaankaan mitenkään selvästi aina johda parempaan lopputulokseen. Nykyään helposti kannattaa ennemmin satsata laatuun.
 
Onhan se melu ongelma. Kyllä pelit ovat audiovisuaalisia elämyksiä että haluaa sen äänenkin kuuluvan hyvin. Ei sillä melulla sitten ole väliä jos on vaikka kuuro.
Oletin sun tajuavan kun pelikoneesta kyse, mutta tarkennetaan:
Kuulokkeet peittää koneen äänen, ihan yks lysti mulle mitä ääntä se pitää.
Noh, joo. Tästä annan kyllä periksi, ei kaikki tykkää pitää kuulokkeita, joten toki silloin pitää meluunkin vähän kiinnittää huomiota. Kulutukseen harva (jos kukaan) pelaaja sen enempää kiinnittää huomiota.
Miten ihmiset sitten pystyvät katsomaan elokuvia?

Sä puhut koko ajan (edelleen) niin, että sun näkemykset on ainoita oikeita. Jos sulle riittää peleihin 15fps, hieno homma hermanni, mulle ei riitä kun se näyttää hirveältä.
Lue vaikka tuosta miksi leffoissa 24fps on ihan eri asia.

Lainaan sieltä ihan varmuuden vuoksi sulle kuitenkin sen olennaisen:
It's mainly because frames rendered for a game are generally way more static than frames in a movie.

What I mean by that is that the way that video cameras capture things produces a blur on fast moving things in the shot. This helps with the perceived smoothness, or flow, from one frame to another. A game engine generally renders crystal clear individual frames and so you don't get the same benefit with movement from one from to another.
 
Viimeksi muokattu:
Kulutukseen harva (jos kukaan) pelaaja sen enempää kiinnittää huomiota.

Kyllä sen melun ja kulutuksen välillä on yhteys kun jäähdyttäminen lisää meteliä. Toki jos speksataan desibelitaso minkä puitteissa toimitaan niin on toki suunnitteluparametri että tekee jäähdytys edellä ja säätää tehot sen rajoissa. Minulle tärkeä suunnitteluparametri on sitten myös laitteiden kestävyys, että ei tarvitse kokoajan olla jotain rassaamassa.

Sä puhut koko ajan (edelleen) niin, että sun näkemykset on ainoita oikeita. Jos sulle riittää peleihin 15fps, hieno homma hermanni, mulle ei riitä kun se näyttää hirveältä. Lue vaikka tuosta miksi leffoissa 24fps on ihan eri asia.

Tiedän ihan tarkkaan miksi leffoissa toimii 24fps ja miksi se ei peleissä toimi. Itse puhunut pelaamisessa 60fps:stä. Se mielestäni pitää olla kaahailupeleissä ja actionpeleissä.

Jos ei ole actionia niin periaatteessa first person ja third person peleissä voisi teoriassa toimia matalempikin fps ja täysin samalla tavalla kuin leffoissa. Tarvittava fps riippuu kameran panorointivauhdista ja motion blurista. Leffoissa kun on sellainen sääntö, että kuvan panorointinopeus kuvan leveydeltä saa kestää enintään seitsemän sekuntia. Eli kamera on suurimpaan osaan peleistä nähden huomattavan rauhallinen, usein täysin paikallaan ja siinä on motion blur. Peleissä kameralla yleensä vemputetaan paljon enemmän joten fps:n tarvitsee sen takia olla paljon korkeampi.

Peleihin sitten on myös mahdollista tehdä motion blur. Sinänsä outoa, että tätä ei ole kaikissa valittavissa. Siihen on ainakin neljä eri tapaa.
 
En lukenut muuta kuin aloituspostauksen, mutta mitä ihmettä. Minkä takia maksaa ylimääräistä "liian tehokkaasta kortista" jos sitä pitää alikellottaa tai sen tehoja vähentää? Osta se halvin kortti joka jaksaa suurinpiirtein pyörittää sillä sun resolla ne pelit juuri ja juuri 60fps niin ei mene rahaa hukkaan ja ei tarvitse arpoa jotain "oc":ta.

edit: jaa kun tätä ketjua lukee enempi niin joku trolli taas pöhnäspäiten aktivoitunut
 
En lukenut muuta kuin aloituspostauksen, mutta mitä ihmettä. Minkä takia maksaa ylimääräistä "liian tehokkaasta kortista" jos sitä pitää alikellottaa tai sen tehoja vähentää? Osta se halvin kortti joka jaksaa suurinpiirtein pyörittää sillä sun resolla ne pelit juuri ja juuri 60fps niin ei mene rahaa hukkaan ja ei tarvitse arpoa jotain "oc":ta.
Kun ostaa tehokkaampaa rautaa (jos oletetaan ettei se ole pelkästään ylikellotettua halpaa rautaa) niin saa hiljaisemman koneen laskemalla kellotaajuuksia. Ihan vain vaikka esimerkkinä rtx 4090 on samalla kulutuksella nopeampi, kuin joku rtx 4070 ja jos 4070 suorituskykyä haluaa mahdollisimman hiljaisesti ja mahdollisimman pienellä ylimääräisellä lämmöllä, niin 4090 on ratkaisu tähän.

Mutta muuten aloittaja onkin sitten aikalailla ihan pihalla, eikä ymmärrä miten osat toimii, kun toisessa ketjussa intti ryzen 7900 olevan parempi valinta kuin 7800x3d koska 55w pienempi kulututus ja 4 ydintä enemmän.
 
Oho, käyttäytyykö samallalailla muissakin peleissä?
Edit: Vaikuttaisi että valmistaja ottanut tehokkaasti kaiken irti mitä saanut jos kyseinen peli ei ole poikkeus tapaus.
Tuli testattua furmarkissa miten tämä kortti skaalautuu virrankäytön ja tehojen suhteen. Eipähän ainakaan pelimoottori, pelin asetukset tai optimoinnit ynm oman kokoonpanon muut pullonkaulat esim ram tai suoritin pitäisi vaikuttaa asiaan furmarkissa.
2.png
 
Viimeksi muokattu:
Tiedän ihan tarkkaan miksi leffoissa toimii 24fps ja miksi se ei peleissä toimi. Itse puhunut pelaamisessa 60fps:stä. Se mielestäni pitää olla kaahailupeleissä ja actionpeleissä.
No älä sitten kysele miten ihmiset voivat katsoa elokuvia, kun kerran tiedät, että ne käyttäytyvät eri tavalla. Jos sua kiinnostaa pelata tänä päivä 60fps, go for it, mutta älä nyt jumalauta jaksa päteä sillä. Ketään muuta ei kiinnosta pelata noin alhaisilla lukemilla.
jaa kun tätä ketjua lukee enempi niin joku trolli taas pöhnäspäiten aktivoitunut
Tähän tulokseen minäkin olen tullut, ei noin sakeaa settiä voi tulla kuin trollilta.
 
Mutta muuten aloittaja onkin sitten aikalailla ihan pihalla, eikä ymmärrä miten osat toimii, kun toisessa ketjussa intti ryzen 7900 olevan parempi valinta kuin 7800x3d koska 55w pienempi kulututus ja 4 ydintä enemmän.

Eiköhän se 7900 ole useimmissa tilanteissa parempi sillä jos kuormaa vähemmän niin se todennäköisesti sammuttaa toisen sirun kokonaan pois jolloin ennestäänkin 7800x3d:tä pienemmät watit puolittuvat.

Ja jos kuorman nostaa 100% laskemalla jotain niin on sitten 12 corea ja 24 säiettä rouhimassa noin 90W. Ongelma tosin saattaa olla tämä jos eri siruilla olevien asioiden keskinäinen kommunikaatio jotenkin pielessä tai se miettii toisen sirun käynnistämistä, että se sotkisi pelejä mutta onko tästä nyt oikeasti havaintoja että ei toimisi? Myönnän kyllä että on turvallisempaa mennä 8/16 ytimellä jos tuossa riskiä.

Myöskin se että tarvitsisi olla 7800x3d että ei pätkisi niin siitäkään nyt taida olla mitään varmaan tietoa. Se kun ei oikeasti yleensä kiinnosta ketään onko fps 400 vai 200 vaan se, että putoaako hetkellisesti jostain tasaisesta 60fps:stä yks kaks 20fps. Mutta jos näin on niin olisi kiva tietää enemmän kun onhan siellä se Ryzen 7 7700 myös vaihtoehtona jossa niinikään pienemmät watit ja ei tarvitse miettiä sitä, että lähteekö toinen siru käyntiin ajoissa.

Testien mukaan se 3d cache ei vaikuttaisi kuin joissakin peleissä ja joissakin harvoissa sovelluksissa mutta useimmissa eroa ei ole. Saa vain sellaisen kuumeman sirun.
 
Eiköhän se 7900 ole useimmissa tilanteissa parempi sillä jos kuormaa vähemmän niin se todennäköisesti sammuttaa toisen sirun kokonaan pois jolloin ennestäänkin 7800x3d:tä pienemmät watit puolittuvat.

Ja jos kuorman nostaa 100% laskemalla jotain niin on sitten 12 corea ja 24 säiettä rouhimassa noin 90W. Ongelma tosin saattaa olla tämä jos eri siruilla olevien asioiden keskinäinen kommunikaatio jotenkin pielessä tai se miettii toisen sirun käynnistämistä, että se sotkisi pelejä mutta onko tästä nyt oikeasti havaintoja että ei toimisi? Myönnän kyllä että on turvallisempaa mennä 8/16 ytimellä jos tuossa riskiä.

Myöskin se että tarvitsisi olla 7800x3d että ei pätkisi niin siitäkään nyt taida olla mitään varmaan tietoa. Se kun ei oikeasti yleensä kiinnosta ketään onko fps 400 vai 200 vaan se, että putoaako hetkellisesti jostain tasaisesta 60fps:stä yks kaks 20fps. Mutta jos näin on niin olisi kiva tietää enemmän kun onhan siellä se Ryzen 7 7700 myös vaihtoehtona jossa niinikään pienemmät watit ja ei tarvitse miettiä sitä, että lähteekö toinen siru käyntiin ajoissa.

Testien mukaan se 3d cache ei vaikuttaisi kuin joissakin peleissä ja joissakin harvoissa sovelluksissa mutta useimmissa eroa ei ole. Saa vain sellaisen kuumeman sirun.
Mitä jos jättäisit ton mutuilun pois kun selkeästi et edes ymmärrä mistä kirjoitat. Turhaa jonninjoutavaa vänkäämistä asioista jotka on sulle jo moneen kertaan selitetty, mutta ei tunnu menevän perille. Voisi kutsua jopa trollaamiseksi.
 
Eiköhän se 7900 ole useimmissa tilanteissa parempi sillä jos kuormaa vähemmän niin se todennäköisesti sammuttaa toisen sirun kokonaan pois jolloin ennestäänkin 7800x3d:tä pienemmät watit puolittuvat.

Ja jos kuorman nostaa 100% laskemalla jotain niin on sitten 12 corea ja 24 säiettä rouhimassa noin 90W. Ongelma tosin saattaa olla tämä jos eri siruilla olevien asioiden keskinäinen kommunikaatio jotenkin pielessä tai se miettii toisen sirun käynnistämistä, että se sotkisi pelejä mutta onko tästä nyt oikeasti havaintoja että ei toimisi? Myönnän kyllä että on turvallisempaa mennä 8/16 ytimellä jos tuossa riskiä.

Myöskin se että tarvitsisi olla 7800x3d että ei pätkisi niin siitäkään nyt taida olla mitään varmaan tietoa. Se kun ei oikeasti yleensä kiinnosta ketään onko fps 400 vai 200 vaan se, että putoaako hetkellisesti jostain tasaisesta 60fps:stä yks kaks 20fps. Mutta jos näin on niin olisi kiva tietää enemmän kun onhan siellä se Ryzen 7 7700 myös vaihtoehtona jossa niinikään pienemmät watit ja ei tarvitse miettiä sitä, että lähteekö toinen siru käyntiin ajoissa.

Testien mukaan se 3d cache ei vaikuttaisi kuin joissakin peleissä ja joissakin harvoissa sovelluksissa mutta useimmissa eroa ei ole. Saa vain sellaisen kuumeman sirun.
Ei. Kun pelataan, ei kiinnosta vähääkään wattien puolittuminen, kiinnostaa se, että peli saa kaiken mahdollisen suorituskyvyn käyttöönsä. Jos SINÄ olet sairaalloisesti fiksoitunut watteihin, älä jumalauta syötä mutuja faktoina.
Härkönen ehti ensin, mutta pakko oli silti kommentoida itsekin.

Tekisi mieli laittaa ignoreen ja antaa olla vaan, mutta pelottaa ihan liiaksi ajatus, että joku onneton menee vielä tuhlaamaan rahansa kun ostaa koneen tämän sankarin neuvojen mukaan. Pakko näitä on käydä oikomassa.
 

Statistiikka

Viestiketjuista
261 534
Viestejä
4 539 537
Jäsenet
74 817
Uusin jäsen
pepponen

Hinta.fi

Back
Ylös Bottom