(Nyky)softien hitaus

Ei tämä ole mulle mikään oikea ongelma, mutta en vain ymmärrä miksi kestää suhteessa niin kauan, kun palvelimelta lataus huomioiden nykytekniikalla pitäisi kulua sekunteja paljon vähemmän.

Kokeilit ja raportoit ajat uusimmalla ja nopeimmalla puhelimella joka maksaa vajaa tuhat euroa. Mulla on pari sukupolvea vanhempi S22 käytössä niin testaa ihmeessä myös S22+:lla. Aika suurella osalla suomalaisista on käytössä joku 200-300 euron Android-laite niin sillä saa vielä muutaman ekstrasekunnin odotella alennuskuponkien latautumista.

Lisäksi myös @emagdnim koki OmaPostin käytön hitaaksi niin en ainakaan täysin yksin ole asian kanssa.
Itsekin olen huomannut että tuo OmaPosti on aika hidas käynnistymään ja muutenkin toimimaan. Puhelimena Samsung A34 5G. En tiedä, mutta ihan kuin tuo toimisi hitaammin esimerkiksi silloin kun olen kotona jossa on huonompi mobiiliverkko. Kuitenkin puhelimessa on wifi käytännössä aina päällä kun kotonakin puhelut kulkee VoWifin kautta kun muuten puhelut välillä pätkii. Luulisi ettei ainakaan datasiirron takia hidastelisi ellei sitten jostakin syystä väkisin lataa mobiilin yli eikä wifillä.
 
Kokeilit ja raportoit ajat uusimmalla ja nopeimmalla puhelimella joka maksaa vajaa tuhat euroa.
Niin sä itse puhuit "lippulaiva-Samsungeista". Mulla ei edes ole S24 Ultraa, mutta plussa kuitenkin. Kannattaa aina kertoa mitä puhelinta tarkoittaa. Kuten nytkin huomasit, niin sun luurilla kesti 100% niin kauan kuin mun luurillani - tosin netit tuskin samanlaiset. Joten johtopäätökset riippuvat pitkälti myös raudasta ja nettiliittymästä jolla testaa. Ja muistakin asioista.

testaa ihmeessä myös S22+:lla

Testasin K-ruoka-sovelluksen S22+:lla ja aikaa kului sekunnin pidempään kuin S24+:llani. Eli 4 sekunnissa oli pääsivu näkyvissä ja käytettävä ja n. 5 sekunnissa loputkin ikonit ladattuna. Ei mennyt silläkään onneksi 8 sekuntia. Mutta ei tuo missään nimessä mikään supernopea ole käynnistyksessä.

Itsekin olen huomannut että tuo OmaPosti on aika hidas käynnistymään ja muutenkin toimimaan.

Lisäksi myös @emagdnim koki OmaPostin käytön hitaaksi niin en ainakaan täysin yksin ole asian kanssa.

Mä siis puhuin viestissäni appiksen avaamisesta koska se on helppo ja selkeä vertailtava asia jonka kuka tahansa voi testata. Ja kesto oli se välitön + tunnistautuminen + sekunti päänäkymään. Onko teillä siis monen sekunnin viive tunnistautumisesta päänäkymään?

Kun softa on käynnissä, kestää alamenun välilehtien välillä siirtyminen omalla luurillani karkeasti 0,25s. Ensimmäisellä siirtymällä "Kirjeet ja laskut"-välilehdelle kesto oli ehkä 0,5s ja myöhemmät tuo 0,25s. En siis saa tuosta millään "jumalattoman hidasta". Samoin Kirjeet- ja Laskut-välilehtien välillä siirtyminen oli käytännössä välittömän nopeaa. Eli itselläni OmaPosti on aika nopea käyttää. Yksi syy "jäykkyyteen" voi olla esim. tabi-animaatio, joka 1. kerralla pykii kun siirtyy toiselle välilehdelle. Kestoon se ei vaikuta, mutta aiheuttaa vaikutelman lägistä.

Millainen netti teillä on käytössä? Ehkä se selittää eroa? On selvää, että appis joka joutuu lataamaan netistä useasta paikasta tavaraa eri väleissä on hitaampi kuin puhtaasti offline-appis joka ei tarvitse latauksia.

Ja isossa roolissa on se, miten ne netin viiveet näytetään käyttäjälle. Näytetäänkö latausindikaattoreita, tehdäänkö ns. optimistisia päivityksiä jne. Silloin koettu nopeus voi olla paljon suurempi kuin softassa, joka odottelee ne vastaukset ennen kuin UI:ta päivitetään.

Mulla nettinä 600M valokuitu + WiFi. WiFi:ssä latenssi luokkaa 6ms: https://www.waveform.com/tools/bufferbloat.
 
Millainen netti teillä on käytössä? Ehkä se selittää eroa? On selvää, että appis joka joutuu lataamaan netistä useasta paikasta tavaraa eri väleissä on hitaampi kuin puhtaasti offline-appis joka ei tarvitse latauksia.

Mä tein testini gigaisella kuidulla UniFin Wifi 6:n päässä, ei pitäisi olla myöskään netistä kiinni.

OmaPosti mulla on valmiiksi kirjautuneena ja sormenjälkitunnistus päällä, niin tunnistus aukeaa viiveettä, mutta sen jälkeen pyörittää n. 5 sekuntia ennen näkymän latautumista. Juuri tällä hetkellä sovelluksen käyttö kyllä tuntuu sellaiselta että ei voi valittaa nopeudesta.

Asia on mielessäni varmaankin sen takia, että mainitsemani sovellukset tulee usein avattua asioinnin yhteydessä jolloin ne haluaisi avautuvan nopeasti, mutta näin ei tapahdu ja sekunnit tuntuvat pitkiltä. Tällöinhän käytössä tosin on mobiiliverkko eli sekin varmasti vaikuttaa. Mutta yleinen tuntuma on joka tapauksessa että toimivat hitaammin kuin voisivat.

Tein testejä muilla sovelluksilla joita en ole hetkeen avannut eivätkä ole olleet auki taustalla, niin esim. HSL ja Wolt aukesivat lähes viiveettä vaikka nekin joutuvat varmasti palvelimelta dataa hakemaan. Lidl Plus oli samalla tavalla ärsyttävän hidas kuin K-Ruoka.
 
sen jälkeen pyörittää n. 5 sekuntia ennen näkymän latautumista

Tämä kuulostaa siltä, että itse appi toimii sinänsä nopeasti, mutta joku taustapalvelin toimii joskus hitaasti ja joskus taas nopeasti, kuten tänään. Eli huonosti skaalautuu käyttöasteen mukaan. Ja sitten kun mobiiliverkossa joutuu hakemaan tavaraa kun palvelin käy hitaalla, niin tulee pidempiä viiveitä normikäytössä.

Mä itse pitäisi tuon vähän erillään itse appin muusta nopeudesta, vaikka kummatkin siihen käyttäjäkokemukseen liittyvätkin. Syyt ja mekanismit kuitenkin ihan erilaiset.

Wolt aukesivat lähes viiveettä

Täällä esim. Wolt kesti tasan yhtä kauan kuin K-ruoka avautua. Eli sulkemisen jälkeen kun sen avaa, on sisältö näkyvissä 4s kohdalla ikonin painamisesta. Siihen asti pyörittää latausindikaattoria eikä käytännössä sillä voi tehdä mitään. Paikannus on päällä. Yhtä nopea siis kuin K-ruoka. HSL on nopeampi. Noin 1-1,15s niin kotinäkymän sisältö ladattuna. Sama käynnistysnopeus kuin OmaPosti. Tosin ei vaadi kirjautumista, ja muutoinkin sillä on aika paljon vähemmän ladattavaa kuin esim. jollain ruokakauppasoftalla.
 
Mä itse pitäisi tuon vähän erillään itse appin muusta nopeudesta, vaikka kummatkin siihen käyttäjäkokemukseen liittyvätkin. Syyt ja mekanismit kuitenkin ihan erilaiset.

Näin se taitaa olla. Outoa sitten, kun kaikkien näiden toimijoiden verkkosivut latautuvat ilman välimuistiakin viiveettömästi, niin miksi mobiilisovelluksille ei saada järjestettyä riittävästi kapasiteettia. K-Ruoan verkkokauppa tietokoneen selaimella sisältää todella paljon elementtejä ja kaikki on sekunnin kymmenyksissä ladattu.
 
Näin se taitaa olla. Outoa sitten, kun kaikkien näiden toimijoiden verkkosivut latautuvat ilman välimuistiakin viiveettömästi, niin miksi mobiilisovelluksille ei saada järjestettyä riittävästi kapasiteettia. K-Ruoan verkkokauppa tietokoneen selaimella sisältää todella paljon elementtejä ja kaikki on sekunnin kymmenyksissä ladattu.

Eiköhän se mobiiliappi käytä suunnilleen samoja taustapalveluja kuin nettisivu käyttää. Mutta tossa et ihan vertaile samoja asioita. Selain sulla on valmiiksi käynnissä, mobiiliappi ei ole. Mobiiliappin osalta vaikea nähdä, milloin alkaa verkkopyynnöt hakea tavaraa. Mutta kun olet ladannut appin, ja vaihdat vaikka Reseptit-sivulle, latautuvat reseptit aika nopeasti. Itselläni menee luokkaa 0,5s.

Samoin kun käyttää selaimella, niin voit kurkata Networks-välilehdeltä, kauanko se oikeasti latailee tavaraa. Ja se ei todellakaan ole valmis sekunnin kymmenyksissä. Katso esim. paljonko "Load"-lukema kertoo. Kyllä se selaimellakin tovin latailee.
 
Mä siis puhuin viestissäni appiksen avaamisesta koska se on helppo ja selkeä vertailtava asia jonka kuka tahansa voi testata. Ja kesto oli se välitön + tunnistautuminen + sekunti päänäkymään. Onko teillä siis monen sekunnin viive tunnistautumisesta päänäkymään?

Kun softa on käynnissä, kestää alamenun välilehtien välillä siirtyminen omalla luurillani karkeasti 0,25s. Ensimmäisellä siirtymällä "Kirjeet ja laskut"-välilehdelle kesto oli ehkä 0,5s ja myöhemmät tuo 0,25s. En siis saa tuosta millään "jumalattoman hidasta". Samoin Kirjeet- ja Laskut-välilehtien välillä siirtyminen oli käytännössä välittömän nopeaa. Eli itselläni OmaPosti on aika nopea käyttää. Yksi syy "jäykkyyteen" voi olla esim. tabi-animaatio, joka 1. kerralla pykii kun siirtyy toiselle välilehdelle. Kestoon se ei vaikuta, mutta aiheuttaa vaikutelman lägistä.

Millainen netti teillä on käytössä? Ehkä se selittää eroa? On selvää, että appis joka joutuu lataamaan netistä useasta paikasta tavaraa eri väleissä on hitaampi kuin puhtaasti offline-appis joka ei tarvitse latauksia.

Mulla nettinä 600M valokuitu + WiFi. WiFi:ssä latenssi luokkaa 6ms: https://www.waveform.com/tools/bufferbloat.
Itselläni ainakin kuvakkeen tökkäämisestä tunnistautumiseen ei kestä varmaan puoltakaan sekuntia mutta tunnistautumusen jälkeen rieska pyörii ruudulla about parista sekunnista kymmeneen sekuntiin kunnes OmaPostin etusivu on näkyvissä. Mobiilinettinä on 300M 5G (ja kotona huono kuuluvuus sisällä) mutta kotona puhelimella on kuitenkin käytössä wifi-yhteys 100M kaapelimodeeminetin perässä ja siitä on SQM:llä latenssitkin otettu alas ja kaikki muu wifin perässä toimii ripeästi. Ihan kuin tuo OmaPosti-äppi jotenkin käyttäisi vain mobiiliyhtyttä vaikka wifikin olisi käytettävissä tms, kun ainakin kotosalla tuo tuntuu hitailevan.

Sinänsä tuo hitaus ei hirveästi haittaa noutotapahtuman yhteydessä, kuitenkin kun pakettia menee noutamaan niin jo kauppaan sisälle kävellessä ottaa puhelimen kouraan ja rupeaa kirjautumaan niin sovellus on kerinnyt ruksutella itsensä tajuihinsa siihen mennessä kun on kerinnyt noutotiskille tai pakettiautomaatille asti. Enemmän tuon huomaa esimerkiksi kotona kun kurkkaa missä vaiheessa paketti on menossa tai mistä se nyt onkaan noudettavissa ennen kuin lähtee noutamaan sitä.
 
Ei tullut tämmöistä ketjua vielä vastaan, mutta olenko ainoa ketä häiritsee varsinkin modernien ohelmien/ohjelmistojen hitaus? Tuntuu, että mitä enemmän itse oppii ohjelmoimista ja prosessorien/koneiden sielunelämästä, niin sitä vähemmän sietää ohjelmia, jotka eivät käynnisty välittömästi, pitävät turhan päiväisiä taukoja kun klikkaat jotain yms. tai vaan syövät suhteettoman paljon RAM:ia/resursseja toimintaansa nähden?

Nykyprossut on niin tuhottoman nopeita, niin miksi ihmeessä esim, koodieditorin käynnistymisessä voi mennä se ~10s ja on mahdollista kirjoittaa nopeammin kuin editori kerkeää maalata fontteja näkyviin/pieni mutta havaittava viive jokaisen näppäinpainalluksella?? Mobiiliohjelmat/käyttiksen on sitten asia erikseen, jotka häiritsevät ihan jatkuvasti joka sekunti kun käyttää kännykkää mihin asiaan tahansa.

Koska nykyään siellä on ziljoona välikerrosta välissä, lähinnä graafiseen käyttöliittymään liittyen.

Käytännössä kaikki nykyisin käytettävät GUI-kirjastot on älytöntä bloattia.

Ja monet softat on vielä tehty nykyään web-appeina, että käyttöliittymä on tehty HTML:llä ja softaa ajaessa käynnistyy webbiselaimen engine javascript-tulkkeineen.

Hyvä puoli tästä softan toteutuksesta web-appina on parempi portattavuus eri alustojen välillä.
 
Ei tule hirveästi mieleen softia joita usein käytän jotka on ärsyttävän hitaita. Smobiili on vähän hidas boottaa. Vscode on omaan makuun varsin sulava mutta tuo debuggerin watch window on niin hidas ettei sitä siihen voi käyttää.
 
Softien hidastumiseen vaikuttanee monikin asia.

Yksi keskeinen asia on varmastikin tehonlisäyksen ja tehonkulutuksen välinen jatkuva kilpajuoksu. Kun tehoa saadaan rautapuolelle jotenkin lisättyä, niin ohjelmoijat haistavat, että saman asian voi tehdä löysemmin rantein ja lisätä pari kivaa uutta kilkettä koodiin siinä samalla. Hetken päästä ohjelma on uudella raudalla yhtä raskas, tai jopa raskaampi kuin aiemmin. Tämä sama ilmiö on havaittavissa historiallisesti esimerkiksi maatalouden tehostumisen myötä kasvaneessa väkiluvussa - yltäkylläisyys on vain hetkellinen olotila ja hetken päästä kakulla on taas enemmän jakajia, jolloin tarvitaan lisää tehostusta.

Toinen seikka on kasvanut koodaajien määrä, rautataistelijoita ei riitä rintamalle enää samoissa määrin kuin ledinvilkuttelijoita. Kirjastojen määrä on suorastaan räjähtänyt viime vuosina ja laatu keskimäärin heikentynyt. Nykyään koodariksi opiskelevat lähihoitajat jollain 3kk kirjekurssilla, kun urapolku oli aiemmin verrattavissa lähestulkoon vuosikausiksi munkkiluostariin eristäytymiseen c64:n tai amigan valo ainoana seuranaan. On keskitytty siihen, että saadaan ylipäätään jotain aikaan, kuin tehokkuuteen, ja toisaalta mieluummin maksetaan AWS:lle tai Azurelle enemmän kuin palkataan osaavaa ja kallista väkeä optimoimaan koodia. Tuntuu, että monesti lähinnä tietokantaa nykyään optimoidaan.

Kolmas asia on tulkkaavien ja tyypittämättömien kielten yleistyminen, python tai javascript nyt vain eivät yllä C/Rust-tehoihin millään, assemblystä puhumattakaan. Mutta kyllä osaava koodari voi löysemmillä kielilläkin saada nopeaa jälkeä ainakin joissain tilanteissa.

Yksi lienee "aika kultaa muistot"-ajattelu, ei tästä sen enempää.

Viides asia lienevät jo nuo esille tulleet erot softien suunnittelussa eri aikakausina. Siinä kun ennen oli täysin lokaalina pyöriviä softia, niin nykyään jo joku painttikin taitaa kysellä päivitystietoja netistä. Ja windows lataa somefiidit, lämpötilat, mainokset yms. käynnistäessä. Tämä kestää.

VS Coden tapauksessa ohjelma on varmaan perusmuodossa pienellä projektilla ihan kohtalaisen nopea, mutta lukuisat vaihtelevalla menestyksellä koodatut lisäosat, erilaiset tarkistelut ja latailut saavat sen vaikuttamaan siltä kuin koittaisi kiihdyttää jollain mopolla, kun vierestä lähtee Hayabusa...
 
Täällä vähä tuntuu keskustelu toistavan itseään. Kantsii lukaista ketju läpi ja katsoa etenki @Paapaa n anti. Itse allekirjoitan noi kirjoitukset. Electronista jauhetaan, mut se ei ole oikeasti mikää ongelma ja softan lamaannuttava tekijä (ainakaan käytettävyyden kannalta, mittauksissa varmasti häviää isossa kuvassa täysin käännettävillä kielillä kirjoitetuille softille, mut ei aina välttis). Pitää nyt taas ottaa erinomainen vscode mainituksi. Ei ole mikää yksinkertainen softa, mut toimii pirun jouhevasti.
 
koittaisi kiihdyttää jollain mopolla, kun vierestä lähtee Hayabusa...

Olen aika monestakin asiasta kanssasi eri mieltä. Mutta olen omat mielipiteeni antanut jo aiemmin joten en suurta osaa tässä toista. En ole samaa mieltä edes premissistä, että nykysofta olisi hidasta. Samaa mieltä olen kuitekin siitä, että aika kultaa muistot. Luulen, että se on suurin ongelma koko keskustelussa jossa suurin osa sisällöstä on aika epämääräisiä väitteitä ilman konkreettisia vertailuja ja lukuja.

Mutta, kerrotko mikä on se "Hayabusa", joka tekee ainakin saman kuin VSCode, mutta on sitä paljon nopeampi? Ja missä tilanteessa? Aidosti kiinnostaa. VSCodella on suurin markkinaosuus editoreissa, eikä ihme: se on vakaa, nopea ja tehokas editori jonka saa räätälöityä mieleisekseen. Ja kuten olen aiemmin kirjoittanut: malliesimerkki nopeasta Electron-softasta. Sitä käytetään siis ihan kaiken kokoisissa projekteissa pikku skripteistä miljoonien rivien projekteihin menestyksekkäästi. En oikein ymmärrä mitä tarkoitat että se on "kohtalaisen nopea pienellä projektilla". Se on hyvin tehokas editori myös isoissa projekteissa. Jos taas haluaa ns. tyhmän editorin nopeuden kaikissa tilanteissa, niin ne lisäkilkkeet voi aina disabloida jotka tekevät jotain mitä se tyhmä editori ei tee. Näin vertaillaan omenoita omenoihin.

Jos VSCodelle tulisi objektiivisesti parempi korvaaja, niin varmasti se saavuttaisi nopeasti suosiota. VSCode söi aikoinaan Atomin markkinat varsin nopeasti. Samalla tavalla sen markkinaosuus voi hävitä korvaajalle. Mielenkiinnolla odotan, mitä esim. Rustilla koodatusta Zedistä tulee kun se hiukan kypsyy ja saa tärkeitä plugareita ja ominaisuuksia. Vaikka Rust on nopea kieli, ei käyttöliittymien tekeminen sillä ole vielä käsittääkseni vielä kovin helppoa - toisin kuin Electronilla
 
Jos VSCodelle tulisi objektiivisesti parempi korvaaja, niin varmasti se saavuttaisi nopeasti suosiota. VSCode söi aikoinaan Atomin markkinat varsin nopeasti.
Itse väittäisin, että sublimen (natiivi-appi eri käyttiksillä, btw. Oli webbikoodarin the editori macilla) se söi pois pikkutekijäksi. Atom oli mielestäni aina hidas ja kankee eikä kaiketi iha hirveen isoa käyttäjäkuntaa ehtinyt haalia? Mut tämä vaa oma kokemus omasta kuplasta.
 
Viimeksi muokattu:
Itse väittäisin, että sublimen (natiivi-appi eri käyttiksillä, btw. Oli the webbikoodarin editori macilla) se söi pois pikkutekijäksi. Atom oli mielestäni aina hidas ja kankee eikä kaiketi iha hirveen isoa käyttäjäkuntaa ehtinyt haalia? Mut tämä vaa oma kokemus omasta kuplasta.

Totta. Oli Atomilla parhaillaan joku vajaa 20% käyttöaste Stack Overflown kyselyissä. Mutta Sublime oli silloinkin suositumpi. Ja vielä suositumpi oli vähän yllättäen Notepad++. Se oli kuningas vielä vuonna 2016. Sen jälkeen VSCode on hallinnut ja tuoreimmassa VSC:n "markkinaosuus" on jo huimat 74%. Notepad++ sinnittelee 25%:ssa ja Sublime Text 13%:ssa.


(Ja tuo toki ei kata kaikkia maailman softakehittäjiä. Mutta antaa hyvin osviitan silti.)

Yritin pitää Sublimestä aikoinaan, mutta sen laajennokset olivat niin pahasti jäljessä että siinä ei parin millisekunnin tehot paljon auta todellisessa työtehossa jos on muita isompia puutteita. Hyvin harvoin se editorin UI:n perffi on se hidastava tai haittaava tekijä, vaan lopulta ihan muut asiat.
 
Tossa vielä kuva itse asiasta ylläolevaan viestiin
2023:
Vscode "kömpelönä ja hitaana electron-softana" ylivoimaisessa kärjessä devaajien piireissä. Sehän ei siis kumpaakaan ole, kun mitataan iha käytettävyyttä eikä penistä. e: toki jos haetaan vertailukohtia, nii atom, sublimetext, vim ja notepad++ on varmaa vastaavia työkaluja. Visual Studio, Intellij IDEA ja Eclipse ym. toisenlaisia työkaluja. Emmäkää vscodella välttis mm. javaa vääntäis. Vim nyt taipuu kaikkeen, jos tahtoa riittää.
Näyttökuva 2024-05-14 kello 19.04.25.png
 
Viimeksi muokattu:
Olen aika monestakin asiasta kanssasi eri mieltä. Mutta olen omat mielipiteeni antanut jo aiemmin joten en suurta osaa tässä toista. En ole samaa mieltä edes premissistä, että nykysofta olisi hidasta. Samaa mieltä olen kuitekin siitä, että aika kultaa muistot. Luulen, että se on suurin ongelma koko keskustelussa jossa suurin osa sisällöstä on aika epämääräisiä väitteitä ilman konkreettisia vertailuja ja lukuja.

Mutta, kerrotko mikä on se "Hayabusa", joka tekee ainakin saman kuin VSCode, mutta on sitä paljon nopeampi? Ja missä tilanteessa? Aidosti kiinnostaa. VSCodella on suurin markkinaosuus editoreissa, eikä ihme: se on vakaa, nopea ja tehokas editori jonka saa räätälöityä mieleisekseen. Ja kuten olen aiemmin kirjoittanut: malliesimerkki nopeasta Electron-softasta. Sitä käytetään siis ihan kaiken kokoisissa projekteissa pikku skripteistä miljoonien rivien projekteihin menestyksekkäästi. En oikein ymmärrä mitä tarkoitat että se on "kohtalaisen nopea pienellä projektilla". Se on hyvin tehokas editori myös isoissa projekteissa. Jos taas haluaa ns. tyhmän editorin nopeuden kaikissa tilanteissa, niin ne lisäkilkkeet voi aina disabloida jotka tekevät jotain mitä se tyhmä editori ei tee. Näin vertaillaan omenoita omenoihin.

Jos VSCodelle tulisi objektiivisesti parempi korvaaja, niin varmasti se saavuttaisi nopeasti suosiota. VSCode söi aikoinaan Atomin markkinat varsin nopeasti. Samalla tavalla sen markkinaosuus voi hävitä korvaajalle. Mielenkiinnolla odotan, mitä esim. Rustilla koodatusta Zedistä tulee kun se hiukan kypsyy ja saa tärkeitä plugareita ja ominaisuuksia. Vaikka Rust on nopea kieli, ei käyttöliittymien tekeminen sillä ole vielä käsittääkseni vielä kovin helppoa - toisin kuin Electronilla

Se Hayabusa on vi. Mutta älä ymmärrä väärin, tiedän kyllä, että vi ei mitenkään tee kaikkia samoja asioita kuin VS Code. En väitä ettei VS Code olisi hyvä, sehän on ihan loistava editori ja itsekin käytän sitä päivittäin. Mutta ei se ole salamannopea, vaan pikemminkin hieman tahmea, etenkin kun sulla on projektissa yli kymmenen repoa, ja lintteriä sun muuta ajellaan koko ajan. En usko, että VS Codea on mahdollista tai järkevää yrittääkään tehdä salamannopeaksi noilla ominaisuuksilla ja laajennettavuudella. Toki sitä voisi parantaa huomattavasti koodaamalla kaiken vaikka Rustilla ja optimoimalla lisäpalikoita, mutta se nyt ei ole kovin tarkoituksenmukaista.

Kerro ihmeessä, tai linkitä tekstejäsi, missä olet eri mieltä kuin minä. Enkä siis nyt väitä, että ohjelmat olisivat jotenkin mystisesti ajan saatossa hidastuneet, monet ovat nopeutuneetkin. Muistan kyllä miten parikymmentä vuotta sitten odoteltiin Windowsin käynnistymistä tai nettisivun latautumista. Se, mitä pohdiskelin, oli että miksi eksponentiaalinen tehon nousu ei näytäkkään tekevän kaikesta salamannopeaa.
 
Se, mitä pohdiskelin, oli että miksi eksponentiaalinen tehon nousu ei näytäkkään tekevän kaikesta salamannopeaa.
Varmaan koska jossain vaiheessa tietsikat oli jo "tarpeeksi nopeita" ja nopeus näky lähinnä mittareilla myöhemmin?
 
Vitsi kun teillä on nopeat puhelimet. Mulla tuo selvästi päin vittua koodattu k-ruoka näyttää sitä logoa noin 30 sekuntia, sitten vielä noin 5-8 sekuntia se latailee viimeisiä juttuja. Ja tuo oli useamman kertaa kokeiltuna, välillä sitä logoakin sai katsella 40+ sekuntia. Koska mulla on puolimegainen netti, kokeilin erikseen sen wlan pakotettuna, ei vaikuta yhtään eli se normaalisti käytti jo wlania.

Plus siinä on tällä hetkellä joku analysoi ostokset niin saat jugurtin ilmaiseksi promo. Mä en voi tätä tehdä koska se näppäin jolla se käynnistetään, on ruudun alareunan alapuolella. Sitä ei saa näkyviin vaikka käyttäisi pienintä tekstin kokoa. Kahdella kädellä sen saa skrollattua näkyviin, mutta sitä ei voi silti klikata koska kun päästää irti, se nopeasti napsahtaa taas yläreunaan.

Mä en enää tuota käytä koska tuo on niin saakelin hidas. Kiva että se vielä jotenkuten toimii niin joskus voin mobiilikupongin aktivoida, jos sellaisen netissä näen.
 
Vitsi kun teillä on nopeat puhelimet. Mulla tuo selvästi päin vittua koodattu k-ruoka näyttää sitä logoa noin 30 sekuntia, sitten vielä noin 5-8 sekuntia se latailee viimeisiä juttuja.

Mä en enää tuota käytä koska tuo on niin saakelin hidas. Kiva että se vielä jotenkuten toimii niin joskus voin mobiilikupongin aktivoida, jos sellaisen netissä näen.

Itse asiassa juuri eilen liikenteessä avasin uudella S24:llä saman sovelluksen ja mieleen palasi tämän ketjun keskustelut kun avaaminen kesti aivan törkeän kauan, varmaan yli 10 sekuntia :D Mutta tällöin mietin että kyseessä oli mahdollisesti huono mobiiliyhteys. Tätä kirjoittaessa kokeilin uudelleen ja n. 4 sekuntia kesti. Ei tuo sovellus kyllä salamannopea ole, mistä sitten johtuukaan.
 
Koska softassa offline-sisältöä on tyyliiin ainoastaan asetukset.

Juu ja sitten 1000Mbit valokuidulla pari pikkukuvaa ja tekstiriviä latautuu useita sekunteja mutta tämä varmaan johtuu backendistä eikä itse Android-sovelluksesta.
 
Juu ja sitten 1000Mbit valokuidulla pari pikkukuvaa ja tekstiriviä latautuu useita sekunteja mutta tämä varmaan johtuu backendistä eikä itse Android-sovelluksesta.
Mie luulen, että sulla on jokin ongelma siinä, kun 40 sekkaa on jo täysin omissa luvuissaan. e: iphone 12 pro max: 4-5 s, kaikki ladattu. 2-3s ja appi on responsiivinen; menut toimii jne. Testailenpas kohta vielä vanhalla samsung galaxy s8:lla (e2: 6-7 sekkaa ja kaikki ladattu. Taustalla vielä kaiken maailman synkkaykset ja appien päivitykset, ku puhelin ollut käyttämätön kuukausia).

e3: Teksti kohdistu väärään hahmoon, oli tarkoitettu @leffo lle.
 
Viimeksi muokattu:
Juu ja sitten 1000Mbit valokuidulla pari pikkukuvaa ja tekstiriviä latautuu useita sekunteja mutta tämä varmaan johtuu backendistä eikä itse Android-sovelluksesta.

Kuulostaa vähän oudolta jos kestää sekunteja. Mutta kerrotko, mitä tarkalleen teit eli minkä näkymän avasit ja kesti sekunteja? Mulla nopea uusi luuri ja nopea netti ja esim. minkä tahansa reseptin avaaminen sovelluksessa kestää melko tarkkaan yhden sekunnin. Tuotesivun avaaminen kestää puoli sekuntia (välillä kuvan lataukseen menee hiukan pidempään, ehkä sekunnin, mutta pääosin kaikki tulee puolessa).
 
Kuulostaa vähän oudolta jos kestää sekunteja. Mutta kerrotko, mitä tarkalleen teit eli minkä näkymän avasit ja kesti sekunteja? Mulla nopea uusi luuri ja nopea netti ja esim. minkä tahansa reseptin avaaminen sovelluksessa kestää melko tarkkaan yhden sekunnin. Tuotesivun avaaminen kestää puoli sekuntia (välillä kuvan lataukseen menee hiukan pidempään, ehkä sekunnin, mutta pääosin kaikki tulee puolessa).

Ohjelman varsinainen avautuminen puhelimen sovellusvalikosta alkunäkymään, nuo mainitsemani ajat katselin valkoista K-Ruoka -tekstiä oranssilla taustalla.
 
Mie luulen, että sulla on jokin ongelma siinä, kun 40 sekkaa on jo täysin omissa luvuissaan. e: iphone 12 pro max: 4-5 s, kaikki ladattu. 2-3s ja appi on responsiivinen; menut toimii jne. Testailenpas kohta vielä vanhalla samsung galaxy s8:lla (e2: 6-7 sekkaa ja kaikki ladattu. Taustalla vielä kaiken maailman synkkaykset ja appien päivitykset, ku puhelin ollut käyttämätön kuukausia).

Sulla meni nimimerkit sekaisin, mulla ei ollut ihan noin pitkiä aikoja.
 
Ihme miettimistaukoja tuntuu kanssa tulevan ihan pikkuasioissa, ihan uusillakin koneilla. Solun kopsaaminen toiseen excelissä, windowsin kuvakatseluohjelman avaaminen... pikkujuttuja joissa kone ikään kuin änkyttää. Ei se mitään oikeaa aikaa vie mutta sopivan ärsyttävästi kuitenkin. Ja kertoo koodaamisen tasoista. Tuntuu että jotkut asiat toimivat 10 tai 15 vuotta sitten sulavammin. Sen aikaisilla prosessoreilla, mekaanisilla läppärin kiekoilla...
 
Ja kertoo koodaamisen tasoista.
Ei kerro.

Tuntuu että jotkut asiat toimivat 10 tai 15 vuotta sitten sulavammin.
En tätäkää iha helpolla allekirjoita. Toi on about sitä aikaa, ku kiintolevyt oli kaiketi vielä enemmistöä(tai ainaki vielä vahvasti mukana) ja softat ja tiedostot takuulla aukes hitaammin. Esim. tämän päivän kännykameran ottaman kuvan avaaminen olisi kestänyt kauemmin.

e: tosin itsekin tätä kirjoittelen yli 10 vuotta vanhalla imacilla eikä käytössä mitää käytännön hidastelua ole, vaikka käytössä on "fusion-levy" eli ~120 gigainen ssd + teranen kiintolevy, joita macos käyttää yhtenä levynä. "Ihme", ku toi kiintolevy vielä toimii.. bootti tosin kestää jotain puol minuuttia(työpöydälle), varmaanki sen takia ettei kaikki käyttistiedostot ole ssd:llä.

e2: olen myös kokeillut asentaa windowsin ssd:lle ja eikä tosiaan mitää käytännön hidastelua ollut nähtävissä silloinkaan.
 
Viimeksi muokattu:
Nykyään nuo "lataus animaatiot", tungetaan vaan joka paikkaan, vaikka niitä ei tarvitsisi ollenkaan.

Esimerkkinä Lidlin sovellus, aiemmin aukesi heti, nyt siinä pyörii 2s joku helvetin ostoskärry ennen kuin päästää etusivulle.

Ei se mitään kuitenkaan lataile, laitettu vain animaatio siihen että näyttää nätiltä...
 
Nykyään nuo "lataus animaatiot", tungetaan vaan joka paikkaan, vaikka niitä ei tarvitsisi ollenkaan.

Esimerkkinä Lidlin sovellus, aiemmin aukesi heti, nyt siinä pyörii 2s joku helvetin ostoskärry ennen kuin päästää etusivulle.

Ei se mitään kuitenkaan lataile, laitettu vain animaatio siihen että näyttää nätiltä...
Ja sitten vastaavasti kun joku ohjelma käynnistyessään latailee ja miettii pitkään niin ei ole mitään indikaatiota että se tekee yhtään mitään. Itsekin käytän satunnaisesti yhtä tuollaista ja sitten kun kyseinen sovellus vielä satunnaisesti kuoleekin siinä käynnistysvaiheessa jos esim verkkoyhteys nykäisee sopivalla hetkellä niin ei ole mitään indikaatiota onko se kaatunut vai lataileeko se vielä eli pitää odotella 5min nähdäkseen käynnistyykö se oikeasti.

Kaikenlaisia tursia splash-screenejä oli jokunen vuosi sitten kyllä suunnilleen joka softassa, onneksi noiden täysin turhien määrä on viimeaikona taas lähtenyt vähenemään päin.
 
Haluaisin olla kärpäsenä katossa siinä palaverissa jossa joku esittää devitiimille että haluaa latausanimaation ilman että sille on tarvetta (lue: en usko että sellaista oikeasti tapahtuu).
 
Haluaisin olla kärpäsenä katossa siinä palaverissa jossa joku esittää devitiimille että haluaa latausanimaation ilman että sille on tarvetta (lue: en usko että sellaista oikeasti tapahtuu).

Kyllä noita oikeasti tehdään yllättävän paljon.

Itseltänikin on pyydetty tekemään samaa, Asiakas ihmetteli kun latausikonia ei enää uudessa versiossa näkynyt.
Eihän sitä näkynyt kun siirrettiin jälkeenpäin latautuva data samaan kutsuun ja otettiin pois.

Kai noihinkin voi kiintyä ja luulla että softa toimii väärin, jos latausikonia ei enää näykkään...
 
Kyllä noita oikeasti tehdään yllättävän paljon.

Itseltänikin on pyydetty tekemään samaa, Asiakas ihmetteli kun latausikonia ei enää uudessa versiossa näkynyt.
Eihän sitä näkynyt kun siirrettiin jälkeenpäin latautuva data samaan kutsuun ja otettiin pois.

Kai noihinkin voi kiintyä ja luulla että softa toimii väärin, jos latausikonia ei enää näykkään...
Niin siis siis ihmetteli miksi sitä ei näy, vai pyysi laittamaan latausruudun jota ei tarvitse? Poistunut latausruutu ja siitä keskustelu on eri asia kuin tarpeettoman latausruudun tekeminen.

EDIT:
Jos tuollainen päästettiin läpi on devitiimissä tai suunnittelussa IMO tehty ihan rehellinen moka.
 
Tossa on varmaan monta eri tasoa. Mä itse en esim. pidä softan käynnistymisnopeutta yleensä kovin oleellisena asiana. Keskimäärin käynnistän softa kerran per päivä. Esim. itse käytän VSCode -editoria, joka käynnistyy sen 2 sekuntia. Nopeampi ei vaikuttaisi mihinkään, sillä editori onkin sitten tuntikausia sen jälkeen auki. Nopea käynnistys on nice to have, mutta nopea käyttö on oleellisempaa.

Softan käynnistysaikahan kytkeytyy paljon siihen, mitä käynnistyksen yhteydessä tehdään. Näistä toiminnoista voisi laatia työkalulla bootchart-tyylisen kuvaajan ja selvittää, mikä ketju operaatioita jumittaa ja johtaa siitä sitten optimointisuunnitelma. Kaikki suoritus ohjelman alussahan ei kontribuoi tähän jumiin. Yksinkertaisin optimointi olisi siirtää taustalle/myöhempään ajankohtaan sellaista, millä ei ole niin kiire. Graafisissa ohjelmissa voi mennä paljon aikaa sellaiseenkin turhaan, että populoidaan kaikki piilossakin olevat ikkunat jo heti alkuun (ainakin perinteisissä ohjelmissa), vaikka niitä ei avattaisi. Generointi lennossa ei välttämättä aiheuttaisi isoakaan hidastusta.

Kyllä yliopistoissa tietojenkäsittelytieteessä ja tietotekniikassa käydään läpi paljon muutakin kuin taukukot ja loopit. Siellä varmasti opetetaan eri algoritmien kompleksisuutta ja käydään läpi teoriatasolla, millaisia ominaisuuksia eri tietorakenteilla on. Eiköhän jokainen valmistunut osaa vaikkapa lisätä uuden alkion punamustaan puuhun.

Toki tuosta on pitkä matka käytäntöön. Eli teoria on hallussa, mutta softankehityksessä pitää tietää, mikä on todellinen pullonkaula ja mitä kannattaa edes yrittää optimoida. Nykyään ohjelmointikielien standardikirjastot ovat todella optimoituja, eikä lopulta monessa tilanteessa kannata edes yrittää toteuttaa samoja asioita itse jos joku ne on jo toteuttanut. Tällöin ongelma on, ettei tunneta kirjastojen metodien ominaisuuksia ja järkevää käyttötapaa. Mutta tää riippuu niin tapauksesta. Ja tuota ei kyllä koulussa voi kauheasti opettaa.

Kouluissa opetetaan tosiaan tietorakenteiden ja algoritmien kompleksisuusanalyysin perusteita, mutta tätä on diplomi-insinöörin/maisterin tutkinnossakin aika pieni osa. Katsoin että esim. Turun yliopistossa kontaktiopetusta aiheesta on 36 tuntia. Lisäksi harjoitukset kotiläksynä. Tuossa opitaan perusasiat, mutta esim. nykyisissä ohjelmointikielissä on perustietorakenteita, joiden yksityiskohtia ei käsitellä. Otetaan esimerkiksi Javan ArrayList ja HashMap. Nuo ovat jatkokehityksiä klassisista rakenteista. Dataorientoitunut ohjelmointi, alignmentin, boxed-tyyppien jne. vaikutus suorituskykyyn jää melko luultavasti eliittiyliopistoissakin monelle epäselväksi. Algoritmeissa niinkin perusjutut kuin lajittelu pohjautuvat klassisten algoritmien jatkokehitelmiin. Esim. Javassa oletuslajittelu on dual-pivot quick sort, joka vaihtaa pienillä kokoelmilla lisäyslajitteluun. Aika harvassa koulussa edes ohimennen mainitaan, että pivot-alkioita voi olla quicksortissa kaksi. Tai median-of-X killereistä.

Oikeastaan edellisiä paljon kriittisempi puute opetusohjelmissa on debuggauksen ja profiloinnin vähäinen opetus ja treenaus. Siitä on aika vähän apua, jos osaa ulkoa jonkun perusalgoritmin kompleksisuuden tai laskea sen ruutupaperilla, jos ei ole mitään systemaattista kykyä selvittää ohjelmasta pullonkauloja ja analysoida, mikä niissä jumittaa. Tätä monimutkaistaa vielä se, että joskus ongelmat johtuvat säikeiden huonosta käytöksestä. Perusalgoritmikursseilla ei puhuta säikeistä ja säikeiden tehokas käyttö yhdessä muistin tehokkaan käytön kanssa jää epäselväksi kun kurssien materiaali on vanhaa ja pohjautuu johonkin arkkitehtuureihin ennen Pentiumia. Jos on säieohjelmointia, siellä on jotain Javan raskaita perussäikeitä ja perus notify/wait/async/await-käytäntöjä eikä mitään algoritmiikan patterneja kuten thread pooleja. Pohja on todella heikko. Sitten vielä muotikielissä JS ja Python on suoritus usein aika yksisäikeistä. Pythonista julkaistiin vasta viikon sisään eka yritelmä, jossa on GIL ja säikeistys tarjottu aikuiskäyttäjille.

Mä olen koko ketjun alkuperäisestä väitteestä täysin eri mieltä. Musta osa nykysoftista on todella nopeita, osa "ihan ok" ja osa hitaita. Kuten on aina ennenkin ollut. Keskimäärin kuitenkin kaikki on nopeampaa kuin 20v sitten. Jonnet ei muista kun pelit ladattiin kasetilta. Siinäpä sitä nopeutta ohjelman käynnistymisessä: kesti minuutteja tai jopa yli 10 minuuttia ladata peli.
Tässäkin samaan aikaan on monenlaista kehitystä. Muistan että joitain vuosia sitten uudetkin pelit käynnistyivät nopeasti, mutta nyt esim. Steamissa jos käynnistää jotain vähänkään uudempaa peliä, ihan aluksi saa odotella shaderien kääntämistä ainakin Linux-versiossa. En tiedä miksei se cacheta niitä jonnekin. Omalla 8th gen i7:lla ja samaan aikakauden Geforcella pelien käynnistys kestää mm. tästä syystä puolisen minuuttiakin pidempään, vaikka olisi kyseessä aika simppeli peli. Tällainen odotus on tavallaan uutta.

Mitä levyn käyttöön tulee, koneissa on tehty kolme aika valtavaa hyppyä levyn suorituskyvyn osalta. SATA/SCSI-pohjaisissa levyissä tuli pyöriviin levyihin NCQ-tyylisiä optimointeja, jotka paransivat suorituskykyä ja levyissä myös yleistyi sisäiset cachet verrattuna ensimmäisen sukupolven PC-kiintolevyihin (toki myös kymmenien gigatavujen keskusmuisti cachena tekee paljon). SATA-pohjaisiin SSD-levyihin siirtyminen myös moninkertaisti IOPS-luvut ja levyt alkoivat saturoida 600 MB/s SATA-väylän. Voi sanoa, että kaista noin 10-kertaistui. Nykyisin NVMe-pohjaisissa levyissä ollaan yli 12 000 MB/s nopeuksissa. Taas yksi 20-kertaistuminen. IOPSien kasvu on myös ollut aika hurjaa ja sillä on tilanteesta riippuen isompi vaikutus. Tähän päälle on tullut läpinäkyvä levypakkaus tuplaamaan kaistaa tietyissä tilanteissa. Esim. Linuxit ja vastaavat luetaan pakattuna levyltä. Tälläkin on luku+purku yhteenlaskettuna nopeuden moninkertaistava vaikutus. Nykyaikainen NVMe SSD on ihan lukuina ilmaistuna luokkaa 100 000 kertaa nopeampi kuin 1,44" korppu. Korppukin oli kasetteihin verrattuna nopea. C-64:llahan kasetteihin oli peräkkäin tallennettu kahteen kertaan ohjelma eli valmista tuli jo puolivälissä, mutta luettiin vielä toistamiseen varmuuden vuoksi. Täysin älyvapaa design nopeuden kannalta. C-64:n kasetti onkin luokkaa puoli miljardia kertaa hitaampi kuin uuden PC:n SSD.
 
Viimeksi muokattu:
Harvaa varmaan kiinnostaa panostaa nopeuteen niin kauan kuin käyttäjät eivät valita liikaa. Työpanoksen voi käyttää muihinkin asioihin, joista voi olla paljon enemmän hyötyä ainakin jostakin näkökulmasta katsottuna. Valitettava tilannehan tämä on, mutta useimmat ohjelmistot toimivat silti riittävän nopeasti (eli silti laitteiden tehoon nähden turhauttavan hitaasti).
Käyttäjiä on jo pitkään totutettu alati hidastuviin tietokoneohjelmiin. Nykyään varsinkin "hinnat alkaen"-raudan kanssa useiden minuuttien odottelut perusasioita tehdessä ovat uusi normaali, vaikka vielä parikymmentä vuotta sitten sellaista olisi pidetty käyttökelvottoman hitaana.

Keskihintaisissa pakettitietokoneissa on edelleen saman verran muistia ja kiintolevytilaa kuin 15 vuotta sitten, ja ainoastaan suorittimet ovat muuttuneet marginaalisesti nopeammiksi. Samalla kuitenkin ohjelmistot ovat muuttuneet kymmeniä kertoja raskaammiksi. Nykyään jollain 750 eurolla voi saada "pelikoneen", jossa on 8 gigatavua muistia ja 256 gigatavun kiintolevy, ja näyttiksenä joku keskihintaluokan näyttis, joka sitten onkin koko koneen kallein osa mutta ei vaikuta työpöytäohjelmien nopeuteen millään tavalla. Ei joku Windows 11 sellaisella toimi mitenkään kehuttavasti, ja moniajokin on melko mahdotonta kun "vähäisen" muistinmääränsä takia voi pitää korkeintaan yhtä ohjelmaa kerrallaan päällä. Ja sitten on olemassa niitä "halvempia" (pikemminkin vähemmän kalliita) koneita joiden speksit ovat tuotakin "vaatimattomammat".

Ja kolmisenkymmentä vuotta sitten kahdestuhannesosalla tuosta muistimäärästä moniajettiin melko monimutkaisiakin asioita tekeviä ohjelmia.

Korporaatiouuskielellä Windowsin uudet versiot ovat "optimoitu SSD-levyille", tarkoittaen kai sitä, että se välimuistialgoritmi on jotenkin totaalisesti rikottu eikä kukaan osaa enää korjata sitä. Mekaanisen kiintolevyn kanssa käyttäessä se sitten sahaa lukupäätä jatkuvasti edestakaisin sellaisiakin sektoreita lukiessa, joiden pitäisi löytyä jo välimuistista. SSD-levynkin kanssa käyttö helposti tahmaa ja käyttisydin tekee paljon enemmän lukuja kuin "pitäisi".

Keskimäärin kuitenkin kaikki on nopeampaa kuin 20v sitten. Jonnet ei muista kun pelit ladattiin kasetilta. Siinäpä sitä nopeutta ohjelman käynnistymisessä: kesti minuutteja tai jopa yli 10 minuuttia ladata peli.
20 vuotta sitten oli 2004, ja oman kokemukseni mukaan silloin kaikki oli kyllä nopeampaa kuin nykyään. C-kasetit ovat hieman huono esimerkki. Kyllä se 8-bittinen Commodorekin muuttuu melkoisen nopeaksi, kun ohjelmat ladataan kunnon random access -medialta kuten levykkeeltä. Eikä niitä C-kasetteja enää vuonna 2004 juurikaan käytetty digitaalisen datan säilöntään. Ammattimaisessa datansäilönnässä käytetään eri kasettityyppejä, joilla on huomattavasti suuremmat kaistanleveydet.

Commodore 64:n tapa tallentaa dataa C-kasetille oli hidas jo 80-luvun mittapuulla, ja moni kilpaileva merkki teki sen nopeammin.

Toisaalta myöskin ajattelu, että RAMmia ei saisi käyttää on jotenkin erikoinen. Ilmeisesti iskostettu Windows käyttäjien johonkin aivolohkoon, että RAMmin käyttö on suorastaan vaarallista. Ja jos RAMmia on käytössä niin siitä pitää huolestua.

Kuulostaa siis erikoiselta, että sinulla on koneessa 32Gb RAMmia ja haluat, että sitä ei käytetä. Kuulostaa yhtä näppärältä kuin se että olet hankkinut 1Gb verkkokortin, mutta toivot, että data liikkuu vain 1Mb:n nopeudella. Tai omistat 8 ytimisen prossun ja haluat, että vain yksi ydin on käytössä. Tätä varten se RAM muisti on kehitetty, siis käytettäväksi ja nopeuttamaan asioita. Kuitenkin seuraavaksi nopein muisti prossun omien muistien jälkeen.
Nykyään tietokoneenkäyttäjä yleensä haluaa moniajaa useampaa softaa yhtä aikaa, joten sitä pidetään huonona asiana, jos yksi ohjelma kuluttaakin kaiken muistin. Jo vanhoissa DOS-ohjelmissa on paljon tuota ongelmaa, että varaavat kaiken käytössä olevan muistin itselleen, mikä on ongelmallista, koska siellä muistissa voi olla muitakin ohjelmia. Ilmeisesti tietty osuus ohjelmoijista ei ole vieläkään oppinut moniajon konseptia.

En allekirjoitetta väitteitä nykysoftien hitaudesta. Ovatko kaikki unohtuneet muistot 90-luvulta, esim Windows 95/98 ajoilta kun koneiden käyttö oli tuskaisen tahmeaa. Officen, Photarin, selaimen tai minkä tahansa softan käynnistäminen ja niiden käyttäminen oli järkyttävän hidasta. Kokeilkaapa käyttää jotain retrokonetta sen ajan sovelluksia, kaikki on aivan järkyttävän hidasta.

Kokeileppa itse. Ei ole hidasta, vaan paljon nopeampaa kuin nykykoneiden käyttö nykysoftalla. Itse tuota silloin tällöin harrastelen.

Tuo "ennen oli vielä hitaampaa" näyttää olevan aika monta kertaa tässä ketjussa toistunut väite, mutta se ei yksinkertaisesti pidä paikkaansa.

Mitähän mahtavat olla ne "modernit" toiminnallisuudet, jotka mielestäsi puuttuvat 90-luvun lopun koodieditoreista?
 
Viimeksi muokattu:
Keskihintaisissa pakettitietokoneissa on edelleen saman verran muistia ja kiintolevytilaa kuin 15 vuotta sitten, ja ainoastaan suorittimet ovat muuttuneet marginaalisesti nopeammiksi.

Siis meinaat, että jos ostit sen about 500e koneen vuonna 2009, niin siinä oli 8-16 Gt muistia? Epäilen aika vahvasti.
Kiintolevytila voi ehkä olla about samat, mutta erona on se, että nykyään se on se radikaalisti nopeampi SSD kuin se kiekkolevy.

*edit*
Piti oikein vilkaista Wayback Machinella, että minkälaisilla spekseillä sai koneen Verkkiksestä vuonna 2009. Tässä esimerkki:
Ominaisuudet:
  • AMD Athlon 64 X2 Dual-Core 6000+ 3.0GHz prosessori
  • 2GB DDR2 keskusmuisti
  • 320GB 7200rpm SATA-II kiintolevy
  • ATI Radeon HD 2600 Pro 256MB näytönohjain
  • DVD-RW asema
  • Realtek ALC888 äänikortti
  • Gigabit Ethernet
  • 1 vapaa 5.25" paikka
  • 3 vapaata 3.5" paikkaa
  • 1x PCI-E 16x, 1x PCI-E 1x
  • 8x USB 2.0
  • Rinnakkaisportti, DVI, FireWire
  • Integroitu muistikortinlukija
  • Windows Vista Home Premium (FIN/SWE/UK) käyttöjärjestelmä

Hinta oli 550e.
 
Viimeksi muokattu:
Siis meinaat, että jos ostit sen about 500e koneen vuonna 2009, niin siinä oli 8-16 Gt muistia? Epäilen aika vahvasti.
Kiintolevytila voi ehkä olla about samat, mutta erona on se, että nykyään se on se radikaalisti nopeampi SSD kuin se kiekkolevy.

*edit*
Piti oikein vilkaista Wayback Machinella, että minkälaisilla spekseillä sai koneen Verkkiksestä vuonna 2009. Tässä esimerkki:


Hinta oli 550e.
Niin, eli sillä 250 euroa kalliimmalla hinnalla sai jo hyvinkin neliydinprossun ja neljä kertaa enemmän muistia.

Vielä 2009 tietokoneissa oli myös paremmin liittimiä. Nykyään kaikki on vain USB:tä tietoturvaongelmista välittämättä, dedikoituja liittimiä ei enää löydy muista kuin kalliimman hintaluokan koneista.
 
Niin, eli sillä 250 euroa kalliimmalla hinnalla sai jo hyvinkin neliydinprossun ja neljä kertaa enemmän muistia.
Sun väite oli, että keskihintaisissa pakettikoneissa olisi nykyään yhtä paljon muistia kuin 15 vuotta sitten. Tuossa olet yksinkertaisesti väärässä.
Voit selata tuota about vuoden 2009 verkkistä Wayback Machinen kautta ja näet, että tuolloin jos koneen hinta oli siellä 500-1000e paikkeilla, niin niissä oli 2-4 Gt muistia. Jos nyt katsot saman hintaluokan koneita, niin niissä 8-16 Gt muistia. Eli ei yhtä paljon vaan about 4x enemmän.
 
Sun väite oli, että keskihintaisissa pakettikoneissa olisi nykyään yhtä paljon muistia kuin 15 vuotta sitten. Tuossa olet yksinkertaisesti väärässä.
Voit selata tuota about vuoden 2009 verkkistä Wayback Machinen kautta ja näet, että tuolloin jos koneen hinta oli siellä 500-1000e paikkeilla, niin niissä oli 2-4 Gt muistia. Jos nyt katsot saman hintaluokan koneita, niin niissä 8-16 Gt muistia. Eli ei yhtä paljon vaan about 4x enemmän.
Noihin aikoihin Windows (XP, Vista, 7) oli useimmiten 32-bittinen, eikä ollut mitään järkevää tapaa hyödyntää yli neljän gigan muistia. Muistan elävästi, että vuonna 2005 (jolloin 64-bittinen WinXP ilmestyi, mutta ei yleistynyt) tyypillinen ja riittävänä suositeltu perus-PC:n muistimäärä oli 512 megaa. Muistin inflaatiokorjattu dollarihinta oli tuolloin noin satakertainen nykyiseen verrattuna. Vuoteen 2008 mennessä hinta kuitenkin romahti kymmenesosaan, ja on siitä pitäen laskenut melko tasaisesti. Mutta kesti kuitenkin monta vuotta ennen kuin 64-bittisestä Windowsista ja 64-bittisistä Windows-sovelluksista tuli valtavirtaa.

Otsikon "hitaudesta" sanon vain sen, että ainakin minä olen kokenut kehityksen edistyksenä.
 
Käyttäjiä on jo pitkään totutettu alati hidastuviin tietokoneohjelmiin. Nykyään varsinkin "hinnat alkaen"-raudan kanssa useiden minuuttien odottelut perusasioita tehdessä ovat uusi normaali, vaikka vielä parikymmentä vuotta sitten sellaista olisi pidetty käyttökelvottoman hitaana.

Keskihintaisissa pakettitietokoneissa on edelleen saman verran muistia ja kiintolevytilaa kuin 15 vuotta sitten, ja ainoastaan suorittimet ovat muuttuneet marginaalisesti nopeammiksi. Samalla kuitenkin ohjelmistot ovat muuttuneet kymmeniä kertoja raskaammiksi. Nykyään jollain 750 eurolla voi saada "pelikoneen", jossa on 8 gigatavua muistia ja 256 gigatavun kiintolevy, ja näyttiksenä joku keskihintaluokan näyttis, joka sitten onkin koko koneen kallein osa mutta ei vaikuta työpöytäohjelmien nopeuteen millään tavalla. Ei joku Windows 11 sellaisella toimi mitenkään kehuttavasti, ja moniajokin on melko mahdotonta kun "vähäisen" muistinmääränsä takia voi pitää korkeintaan yhtä ohjelmaa kerrallaan päällä. Ja sitten on olemassa niitä "halvempia" (pikemminkin vähemmän kalliita) koneita joiden speksit ovat tuotakin "vaatimattomammat".

Ja kolmisenkymmentä vuotta sitten kahdestuhannesosalla tuosta muistimäärästä moniajettiin melko monimutkaisiakin asioita tekeviä ohjelmia.

Korporaatiouuskielellä Windowsin uudet versiot ovat "optimoitu SSD-levyille", tarkoittaen kai sitä, että se välimuistialgoritmi on jotenkin totaalisesti rikottu eikä kukaan osaa enää korjata sitä. Mekaanisen kiintolevyn kanssa käyttäessä se sitten sahaa lukupäätä jatkuvasti edestakaisin sellaisiakin sektoreita lukiessa, joiden pitäisi löytyä jo välimuistista. SSD-levynkin kanssa käyttö helposti tahmaa ja käyttisydin tekee paljon enemmän lukuja kuin "pitäisi".
En tiedä, miten tämä vastaa viestiini muuten kuin aasinsillan kautta vähän sinnepäin muttei oikeastaan sittenkään, mutta OK.
 
Sun väite oli, että keskihintaisissa pakettikoneissa olisi nykyään yhtä paljon muistia kuin 15 vuotta sitten. Tuossa olet yksinkertaisesti väärässä.
Voit selata tuota about vuoden 2009 verkkistä Wayback Machinen kautta ja näet, että tuolloin jos koneen hinta oli siellä 500-1000e paikkeilla, niin niissä oli 2-4 Gt muistia. Jos nyt katsot saman hintaluokan koneita, niin niissä 8-16 Gt muistia. Eli ei yhtä paljon vaan about 4x enemmän.
Minä sain vuonna 2008 "vähän käytetyn" tietokoneen, jossa oli kaksi gigatavua muistia. Jo silloin tuota kahta gigatavua pidettiin pienenä määränä muistia, ja vasta lisäämällä toiset kaksi gigatavua uudet pelit kuten GTA IV alkoivat toimimaan sillä edes jotenkuten.

Ei tuolta arkistoidusta verkkokaupasta saa edes listattua tuotteita niin, että saisi järkevän kuvan siitä, minkälaisia koneita siellä on missäkin hintaluokassa ollut myytävänä vuonna 2009. Listauksessa näkyy muutamia koneita, joissa lähes kaikissa on vähintään 250 gigatavun kiintolevy ja muistin määrä vaihtelee 2 - 6 gigatavun väliltä. Kyse on kuitenkin "myydyimmistä" malleista, jotka ovat keskimäärin halvempia kuin se 800 euron hintaluokka, josta tässä nyt oli puhe. Kyllä sillä sen hintaiseen koneeseen jo hyvinkin sai vuonna 2009 myös sen kahdeksan gigatavua muistia, jos halusi. Ei ehkä välttämättä valmiin pakettikoneen muodossa kuitenkaan, vaan komponentit piti valikoida itse.

Siis 800 eurolla hyvinkin sai jo 15 vuotta sitten tietokoneen, jossa kaikki kovilla numeroilla mitattavat speksit ovat samat kuin nykyään 800 euron pakettikoneessa, eikä komponentteja tarvinnut edes metsästää mistään halvimmista mahdollisista paikoista.
 
Minä sain vuonna 2008 "vähän käytetyn" tietokoneen, jossa oli kaksi gigatavua muistia. Jo silloin tuota kahta gigatavua pidettiin pienenä määränä muistia, ja vasta lisäämällä toiset kaksi gigatavua uudet pelit kuten GTA IV alkoivat toimimaan sillä edes jotenkuten.
Huutelen sivusta tähän väliin, että pelit on kyl iha oma juttunsa eikä mielestäni tähän ketjuun mahdu. Laskentatehoa yksinkertaisesti vain tarvitaan ja näin se on ollut aina? Peleissäkin on niitä pirun huonosti optimoituja tapauksia, mut kyl yleensä pelit pyrkii ottaan (uusimmasta) raudasta irti mahd. paljon.
 
Huutelen sivusta tähän väliin, että pelit on kyl iha oma juttunsa eikä mielestäni tähän ketjuun mahdu. Laskentatehoa yksinkertaisesti vain tarvitaan ja näin se on ollut aina? Peleissäkin on niitä pirun huonosti optimoituja tapauksia, mut kyl yleensä pelit pyrkii ottaan (uusimmasta) raudasta irti mahd. paljon.
Valtavirtapelien grafiikat ovat jo pitkään kehittyneet pelkistetympään suuntaan, eikä ultrarealismi ja yksityiskohtien lisääntyminen ole enää valtavirtaa eikä sellaista muutamia poikkeuksia lukuunottamatta edes tavoitella. Siitä huolimatta uudet pelit näyttävät yhä yleensä vaativan aina entistä enemmän tietokoneelta ja myös näytönohjaimelta, vaikka graafisesti ne eivät ole sen näyttävämpiä kuin 15 vuotta sittenkään tehdyt pelit.

GTA IV kyllä kuuluu niihin peleihin, joissa pyrittiin maksimaaliseen määrään yksityiskohtia ja fotorealismia.
 
Minä sain vuonna 2008 "vähän käytetyn" tietokoneen, jossa oli kaksi gigatavua muistia. Jo silloin tuota kahta gigatavua pidettiin pienenä määränä muistia, ja vasta lisäämällä toiset kaksi gigatavua uudet pelit kuten GTA IV alkoivat toimimaan sillä edes jotenkuten.

Ei tuolta arkistoidusta verkkokaupasta saa edes listattua tuotteita niin, että saisi järkevän kuvan siitä, minkälaisia koneita siellä on missäkin hintaluokassa ollut myytävänä vuonna 2009. Listauksessa näkyy muutamia koneita, joissa lähes kaikissa on vähintään 250 gigatavun kiintolevy ja muistin määrä vaihtelee 2 - 6 gigatavun väliltä. Kyse on kuitenkin "myydyimmistä" malleista, jotka ovat keskimäärin halvempia kuin se 800 euron hintaluokka, josta tässä nyt oli puhe. Kyllä sillä sen hintaiseen koneeseen jo hyvinkin sai vuonna 2009 myös sen kahdeksan gigatavua muistia, jos halusi. Ei ehkä välttämättä valmiin pakettikoneen muodossa kuitenkaan, vaan komponentit piti valikoida itse.

Siis 800 eurolla hyvinkin sai jo 15 vuotta sitten tietokoneen, jossa kaikki kovilla numeroilla mitattavat speksit ovat samat kuin nykyään 800 euron pakettikoneessa, eikä komponentteja tarvinnut edes metsästää mistään halvimmista mahdollisista paikoista.

Sieltä näkee sen verta, että ei siellä todellakaan ole missään vähänkään edullisissa pakettikoneissa 8 Gt:tä muistia. Puhumattakaan siitä nykyään lähes standardista 16 Gt:stä.
Halvoissa 2 Gt, keskiluokan koneissa max 4 Gt. Jossain high-endissä näkyy ehkä 6 Gt.
Sitten toinen esimerkki arkistoista, Tom's Hardwaren konebuildejä vuodelta 2010.
Halvin ($500) 2 Gt
Keskiluokka ($1000) 4 Gt
High-end ($2000) 6 Gt

Eli edes tuollaiseen high-end custom buildiin ei suositeltu 8 gigaa muistia. Harmi, että Muropaketin arkistoja ei enää löydy netistä. Sieltä varmaan näkisi tasan tarkkaan saman trendin.

Eli nykyään koneissa on muistia karkeasti sellaiset vähintään 4x enemmän kuin 15 vuotta sitten. Joo, vuonna 2009 pystyit kyllä kävelemään sinne kauppaan ja ostamaan koneeseen 8 Gt muistia. Mutta yhtälailla nykyään voin kävellä sinne kauppaan ja ostaa siihen koneeseen 64 gigaa muistia. Tai vaikkapa 128 gigaa. Se ei tarkoita, että tuo 8 gigaa olisi tuolloin ollut mitenkään yleinen vaihtoehto.
 
Käyttäjiä on jo pitkään totutettu alati hidastuviin tietokoneohjelmiin. Nykyään varsinkin "hinnat alkaen"-raudan kanssa useiden minuuttien odottelut perusasioita tehdessä ovat uusi normaali, vaikka vielä parikymmentä vuotta sitten sellaista olisi pidetty käyttökelvottoman hitaana.

Keskihintaisissa pakettitietokoneissa on edelleen saman verran muistia ja kiintolevytilaa kuin 15 vuotta sitten, ja ainoastaan suorittimet ovat muuttuneet marginaalisesti nopeammiksi. Samalla kuitenkin ohjelmistot ovat muuttuneet kymmeniä kertoja raskaammiksi. Nykyään jollain 750 eurolla voi saada "pelikoneen", jossa on 8 gigatavua muistia ja 256 gigatavun kiintolevy, ja näyttiksenä joku keskihintaluokan näyttis, joka sitten onkin koko koneen kallein osa mutta ei vaikuta työpöytäohjelmien nopeuteen millään tavalla. Ei joku Windows 11 sellaisella toimi mitenkään kehuttavasti, ja moniajokin on melko mahdotonta kun "vähäisen" muistinmääränsä takia voi pitää korkeintaan yhtä ohjelmaa kerrallaan päällä. Ja sitten on olemassa niitä "halvempia" (pikemminkin vähemmän kalliita) koneita joiden speksit ovat tuotakin "vaatimattomammat".

Ja kolmisenkymmentä vuotta sitten kahdestuhannesosalla tuosta muistimäärästä moniajettiin melko monimutkaisiakin asioita tekeviä ohjelmia.

Korporaatiouuskielellä Windowsin uudet versiot ovat "optimoitu SSD-levyille", tarkoittaen kai sitä, että se välimuistialgoritmi on jotenkin totaalisesti rikottu eikä kukaan osaa enää korjata sitä. Mekaanisen kiintolevyn kanssa käyttäessä se sitten sahaa lukupäätä jatkuvasti edestakaisin sellaisiakin sektoreita lukiessa, joiden pitäisi löytyä jo välimuistista. SSD-levynkin kanssa käyttö helposti tahmaa ja käyttisydin tekee paljon enemmän lukuja kuin "pitäisi".


20 vuotta sitten oli 2004, ja oman kokemukseni mukaan silloin kaikki oli kyllä nopeampaa kuin nykyään. C-kasetit ovat hieman huono esimerkki. Kyllä se 8-bittinen Commodorekin muuttuu melkoisen nopeaksi, kun ohjelmat ladataan kunnon random access -medialta kuten levykkeeltä. Eikä niitä C-kasetteja enää vuonna 2004 juurikaan käytetty digitaalisen datan säilöntään. Ammattimaisessa datansäilönnässä käytetään eri kasettityyppejä, joilla on huomattavasti suuremmat kaistanleveydet.

Commodore 64:n tapa tallentaa dataa C-kasetille oli hidas jo 80-luvun mittapuulla, ja moni kilpaileva merkki teki sen nopeammin.


Nykyään tietokoneenkäyttäjä yleensä haluaa moniajaa useampaa softaa yhtä aikaa, joten sitä pidetään huonona asiana, jos yksi ohjelma kuluttaakin kaiken muistin. Jo vanhoissa DOS-ohjelmissa on paljon tuota ongelmaa, että varaavat kaiken käytössä olevan muistin itselleen, mikä on ongelmallista, koska siellä muistissa voi olla muitakin ohjelmia. Ilmeisesti tietty osuus ohjelmoijista ei ole vieläkään oppinut moniajon konseptia.



Kokeileppa itse. Ei ole hidasta, vaan paljon nopeampaa kuin nykykoneiden käyttö nykysoftalla. Itse tuota silloin tällöin harrastelen.

Tuo "ennen oli vielä hitaampaa" näyttää olevan aika monta kertaa tässä ketjussa toistunut väite, mutta se ei yksinkertaisesti pidä paikkaansa.

Mitähän mahtavat olla ne "modernit" toiminnallisuudet, jotka mielestäsi puuttuvat 90-luvun lopun koodieditoreista?

Hyvin sanottu.

Tuntuu, että nykyään optimoidaan kehittäjille, ei loppukäyttäjille. Lisäksi useimmilla devaajilla on käytössä (melkein) uusinta huutoa olevat mäkit / pc:t, joilla raskaammatkin ohjelmat pyörivät jouhevasti tai suht jouhevasti. Keskivertotaviksella tosin tälläisiä tehomyllyjä ei yleensä ole, mutta sen sijaan, että ohjelmistojen bloattia vähennettäisiin sanotaan kaikille, että "osta parempaa rautaa".

Kyllä, rauta on halvempaa kuin kehittäjän aika, mutta kyllä iso syy bloatin määrän kasvuun on kehittäjien laiskuus (kiinnostuksen tappaa monella varmasti myös se, ettei paremmin tekeminen näy missään) ja myös aikataulut jotka eivät välttämättä mahdollista kunnolla tekoa, eli ongelma on myös johtamisessa.

Kymmenen vuotta sitten BF3 pyöri loistavasti sen aikaisella keskitason koneella, se näytti hyvältä ja levyltä ei mennyt 160 gigaa tilaa. Uutisia luki sillä kuparikuorisella galaxyllä ruokatauolla tai skutsissa intin metsäleirillä jouhevasti, nykyään 5 vuotta vanhalla huaweilla katsot lataavaa spinneriä ekat 20 sekuntia ja luet "tietoa ei ole vielä lähdetty hakemaan".

On se kumma kun tekstin ja kuvien katsomiseen pitää ladata 10 megan edestä skriptiä nykyään ja omata parin tonnin mäkki jos haluaa jouhevan kokemuksen, tai miten yksinpelien pelaamiseen tarvitsee jatkuvaa internetyhteyttä.

Alla pari videota Tsodingilta.



 
Hyvin sanottu.

Tuntuu, että nykyään optimoidaan kehittäjille, ei loppukäyttäjille. Lisäksi useimmilla devaajilla on käytössä (melkein) uusinta huutoa olevat mäkit / pc:t, joilla raskaammatkin ohjelmat pyörivät jouhevasti tai suht jouhevasti. Keskivertotaviksella tosin tälläisiä tehomyllyjä ei yleensä ole, mutta sen sijaan, että ohjelmistojen bloattia vähennettäisiin sanotaan kaikille, että "osta parempaa rautaa".

Kyllä, rauta on halvempaa kuin kehittäjän aika, mutta kyllä iso syy bloatin määrän kasvuun on kehittäjien laiskuus (kiinnostuksen tappaa monella varmasti myös se, ettei paremmin tekeminen näy missään) ja myös aikataulut jotka eivät välttämättä mahdollista kunnolla tekoa, eli ongelma on myös johtamisessa.

Kymmenen vuotta sitten BF3 pyöri loistavasti sen aikaisella keskitason koneella, se näytti hyvältä ja levyltä ei mennyt 160 gigaa tilaa. Uutisia luki sillä kuparikuorisella galaxyllä ruokatauolla tai skutsissa intin metsäleirillä jouhevasti, nykyään 5 vuotta vanhalla huaweilla katsot lataavaa spinneriä ekat 20 sekuntia ja luet "tietoa ei ole vielä lähdetty hakemaan".

On se kumma kun tekstin ja kuvien katsomiseen pitää ladata 10 megan edestä skriptiä nykyään ja omata parin tonnin mäkki jos haluaa jouhevan kokemuksen, tai miten yksinpelien pelaamiseen tarvitsee jatkuvaa internetyhteyttä.

Alla pari videota Tsodingilta.




Puhut ikään kuin aikataulu ja hinta olisivat eri asia. Rahalla saa enemmän (tai parempaa) työvoimaa.

En tiedä miten hyvin tunnet alaa, mutta minulla jää sellainen kuva että yliarvioit keskiverto webbikoodaajan osaamista aika reippaasti. Hyvin suurelta osalta puuttuu taito tehdä ns. pitkästä tavarasta kunnollista raskaiden pakettien lataamisen sijaan, eikä syy välttämättä ole työvoimassa vaan siinä että se maksaa helposti 10 kertaa enemmän kuin npm install ja kaksi riviä koodia.

Kaikki tuntemani kehittäjät koodaisivat mielummin kunnollista, mutta harvoin pääsee sellaista projektia tekemään jos budjetti sallisi sen. Mikä on ihan ymmärrettävää, koska internetissä kuluttaja on sitä mieltä että kaiken pitää olla ilmaista.
 
Puhut ikään kuin aikataulu ja hinta olisivat eri asia. Rahalla saa enemmän (tai parempaa) työvoimaa.

En tiedä miten hyvin tunnet alaa, mutta minulla jää sellainen kuva että yliarvioit keskiverto webbikoodaajan osaamista aika reippaasti. Hyvin suurelta osalta puuttuu taito tehdä ns. pitkästä tavarasta kunnollista raskaiden pakettien lataamisen sijaan, eikä syy välttämättä ole työvoimassa vaan siinä että se maksaa helposti 10 kertaa enemmän kuin npm install ja kaksi riviä koodia.

Kaikki tuntemani kehittäjät koodaisivat mielummin kunnollista, mutta harvoin pääsee sellaista projektia tekemään jos budjetti sallisi sen. Mikä on ihan ymmärrettävää, koska internetissä kuluttaja on sitä mieltä että kaiken pitää olla ilmaista.

Olen harrastelija, jolla useampi alalla pidempään ollut kaveri. En väitä olevani asiantuntija tekijäpuolella, mutta sanoisin itseäni valveutuneeksi käyttäjäksi. Eli todennäköisesti olet oikeassa ja yliarvioin osaamistason reippaasti, ehkä näkökulmiani vääristää kaikki stoorit siitä, mitä alalle päästäkseen/joutuakseen joutuu osaamaan verrattuna keskimääräiseen tasoon.

Olen myös hyvin perillä sanonnasta "voit valita seuraavista kaksi samaan aikaan: laatu, hinta ja nopeus."

Lähinnä kuitti siihen, miten ihan omasta puolesta olen kerennyt kokemaan lähes kaiken softan hidastumisen, samalla kun rauta ei ole koskaan ollut nopeampaa ja tämä yhtälö kuulostaa minusta aika hullulta. Ja loppupeleissä suurin osa webbisoftasta on käyttöliittymä tietokannasta haettaville tiedoille. Ehkä kaikki träkkerit, integraatiot ja muut kilkkeet ovat moninkertaistuneet, oli niille tarvetta tai ei ja se on yksi iso syy hitauteen.

Olet varmaan paljon kokeneempi niin olisi mielenkiintoista kuulla, miksi kaikki hidastuu vaikka rauta nopeutuu jatkuvasti. Voiko syy olla se, ettei samanlaista osaamistasoa/intohimoa ole yhtä paljon kuin ennen? Vai onko syy se, että päättäjien mentaliteetti on se, että "koska me voidaan tehdä roskaa ja rahaa tulee silti"
 
miksi kaikki hidastuu vaikka rauta nopeutuu jatkuvasti
Musta tämä väite on niin epämääräinen ja absurdi, että voisitko tarkentaa, että mikä "kaikki hidastuu jatkuvasti". Puhutko sä webbisivuista, joita pyöritetään selaimella ja netin yli, puhutko sovelluksista, jotka hakevat netistä tavaraa, puhutko sovelluksista jota eivät hae netin yli mitään, puhutko graafisista vai komentorivityökaluista, vertaatko sä edes omenoita keskenään, vai vertaatko softaa joka teki 10% siitä mitä nykysofta, jolloin niiden nopeutta ei voi suoraan edes verrata?

Mulla taas kone käynnistyy nopeammin kuin 20v sitten, herää lepotilasta nopeammin kuin 20v sitten, vim avautuu nopeammin kuin 20v sitten, nettisivut avautuvat nopeammin kuin 20v sitten, pelit pyörivät paremmin kuin 20v sitten ja piirtävät monta kertaa enemmän kolmioita ruudulle sekunnissa ja näyttävät paremmilta, 3d-softa rendaa monta kertaluokkaa enemmän valonsäteitä sekunnissa kuin 20v sitten, kone lataa paljon isommat skenet nopeammin kuin 20v sitten, kuvankäsittelyn filtterit ovat paljon nopeampi moninkertaisesti isompiin kuviin kuin 20v sitten. Esimerkkejä on vaikka kuinka. Kaikki ei ole hidastunut, vaikka joku asia onkin hidastunut. Ja sillekin on varmaan syy.

Kuten miljoona kertaa todettu: jos tehoa on tarjolla, se kyllä käytetään.
 
Nettisivuista puheen ollen, miksi evästehyväksynnät on usein tehty sellaisella sisään ja ulos feidaavalla animaatiolla jossa on hätäiselle käyttäjälle raivostuttavat viiveet? Vai onko viive todellisuudessa monimutkaisen seurannan latautumisaikaa? Pahimmillaan tämä toimii niin, että menet uudelle sivulle jossa ehdit jo selata valikkoa tai klikata jotain, jonka jälkeen evästehyväksyntä ilmestyy eteen ja keskeyttää toiminnan.
 

Statistiikka

Viestiketjuista
262 606
Viestejä
4 552 140
Jäsenet
75 030
Uusin jäsen
Kumikala

Hinta.fi

Back
Ylös Bottom