Nyt mun on tähän sanottava, että sulla on kyllä turhan ruusuinen kuva perinteisen average fps -mittaustavan "tieteellisyydestä". Mitattava suure on kyllä eksakti, siltä osin metodi on täsmällinen. Mutta sen osuvuudesta kvantifioitavan tekijän ("pelikokemus") mallintamisessa voidaan olla montaa mieltä.
Näytönohjaimien testimetodit ovat tosiasiassa taantuneet viime vuosina ihan liikaa takaisin tähän one-number-to-rule-them-all -systeemiin. Pienenä bonuksena sentään "minimi-fps" on nyt useimmiten mukana ja suht usein se perustuu joko 1% tai 0,1% persentiiliin, mutta paljon parempaa on jo nähty, joten en voi kuin päivitellä joko testaajien ja/tai lukijoiden laiskuutta. Esim.
Tech Reportin mittaus- ja esitystapa, jossa kaikkien näyttisten testiajot näytetään frame time -graafeina, ja sitten järjestettynä persentiilikuvaajaksi, on informaatioarvoltaan aivan totaalisesti eri luokkaa kuin iänikuinen average/min fps. Ja sitten vielä bonuksena pahimpien jökkimisten time spent beyond x ms -taulukot. Ja tästä kaikesta lukijat on kiittäneet siten, että koko saitti on kuivunut muumioksi. Vähän sama juttu kuin HardOCP, joka sekin teki erittäin informatiivisia artikkeleita fiksuilla ja omaperäisillä metodeilla. Ja ei vaan kelpaa lukijoille.
Pelkästään se, että jokin "on aina ollut näin", ei tee siitä hyvää. Eikä se, että "näitä juttuja lukijat haluaa". Jos halutaan oikeasti soveltaa tieteellistä metodia pelikokemuksen mittaamiseen, niin average fps on surkea yritys ja average/min vain vähän surkeaa parempi. Ja nyt ollaan väistämättä uuden murroksen äärellä, koska DLSS, checkerboard rendering, erilaiset upscaling-metodit, sharpening filterit, variable rate shading ja koko liuta muita "non-brute-force" -tekniikoita ovat tulleet jäädäkseen. Näitä on pakko jollakin lailla myös verrata toisiinsa, ja silloin average fps jää automaattisesti vajaaksi metodiksi. Ja hyvä niin, koska se on aika paska suure kuvaamaan sitä, mikä on oleellista.