Sitten alan lisäämään siihen asioita sen mukaan kuin mitä käytän vanhaa järjestelmää.
Lopulta minulla pitäisi olla uudella kovolla Windows 10, jossa on käyttämäni asiat, eikä bloat:ia.
Tässä kannattaa ainakin harkita suoraan Windows 11:n asennusta. Win10:n tuki päättyy lokakuussa 2025. Aikaa siis vielä on, mutta loppu häämöttää ja jossain vaiheessa Win10:n käyttö ei enää ole turvallista eikä se saa mitään tietoturvapäivityksiä.
Yksinkertaisimmillaan vaan kirjaat ylös ne vaiheet ja softat/päivitykset/ajurit, jotka uuteen asennukseen haluat. Ja voit tuota ohjetta hyödyntää jatkossa jos on tarvis tehdä asennus alusta uudestaan. Tuon lisäksi on paljon työkaluja, jolla hommaa voi automatisoida. Esim.
Ninite - Install or Update Multiple Apps at Once mahdollista helposti perussoftien asennuksen. Vastaavia on paljon, enkä osaa sanoa mikä olisi juuri paras. Sitten on työkaluja joita voi käyttää niin Windowsin kuin Linuxien kanssa. Niin työpöydällä kuin servereillä. Esim.
Homepage | Ansible Collaborative on hyvin käytetty softa asennusten kaikenlaiseen automatisointiin ja kykenee hyvin monimutkaisiinkin juttuihin. macOS:n ja Linuxin käyttäjät ottavat usein asennustiedostot eli "dotfiles" talteen ja säilövat esim. GitHubiin.
Osa näistä voi olla yliampuvia työkaluja. Riippuu ihan tarpeesta. Jotta päästään ketjun aiheeseen, niin se olisi hyvä tavoite, että sitä koneen uudelleenasennusta ei tarvitsisi "pelätä". Eli vaikka se onkin työläs ja vähän ärsyttävä homma, niin se ei olisi kuitenkaan
katastrofi. Se on kuitenkin äärimmäisen epätodennäköinen tapahtuma.
Itselläni menee aina uusiksiasennuksessa vähintään puoli vuotta että kaikki ohjelmat toimivat
Ja jossain mättää pahasti jos siihen uudelleenasennukseen menee "6 kuukautta" tai "2 vuotta" että ohjelmat toimivat. Tuossa on kyse jostain muusta, ei uudelleenasennuksesta.
Kannattaa siis keskittyä siihen, että se korvaamaton data on varmasti tallessa. Näin ei tarvitse säilöä itse käyttöjärjestelmää välttämättä lainkaan tai riittää harvoin otettu dumppi. Windowsissa on tuo työkalu jolla ottaa dumppi koko systeemistä. Ei sen käytössä sinänsä mitään pahaa ole. Ja toisaalta datasta otetaan sitten inkrementaalisia varmuuskopioita tiuhaan. Näin sen varmuuskopioitavan datan määrä pienenee ja sen voi helposti tehdä useammin.
Softakehityspuolellakin kaikki automatisoidaan. Ei haittaa vaikka pilvessä oleva palvelin hajoaisi. Se luodaan automaattisesti sinne uudestaan (esim. jollain Terraformilla), joka määrittää millainen palvelin, millä raudalla, millä levykuvalla, millä asetuksilla jne. Kukaan ei kliksuttele mitään manuaalisesti tai aja skriptejä manuaalisesti terminaalista, vaan automaatio hoitaa kaiken. Varsinainen data taas on ihan erillisellä levyllä - tai esim. tietokannassa - joka voidaan liittää tähän uuteen palvelimeen. Ja tämä data on varmuuskopioitu niin hyvin kuin tarve vaatii moneen paikkaan. Se palvelin ja softa on bulkkia, josta ei niin väliä. Data tai esim. konffitiedostot ovat korvaamattomia.
Eli jos saa pidettyä datan ja konffit erillään muusta ja varmasti varmuuskopioitua, niin homma menee helpommaksi.
Ei muuten opetettu yliopistossakaan näitä.
Jep, ei yliopistoissa yleensäkään opeteta kovin paljon käytännönläheisiä asioita. Vaan teoriaa joita sitten voi omalla ajalla tai työelämässä soveltaa - tai sitten ei voi. Ei opeteta miten koneen datasta otetaan varmuuskopio, vaan opetataan miten modernit käyttöjärjestelmät tai tietokoneet toimivat yleisellä tasolla. Poikkeuksena jotkut projektikurssit, joissa oikeasti laitetaan kädet saveen.