Digitalisaatio - hyvät ja huonot puolet

Liittynyt
02.08.2022
Viestejä
190
Legacy-koodit eivät tiedä tällaisesta mitään vaan ne on kirjoitettu oletuksella 1 tavu = 1 merkki. On vähän vaikeaa arvioida miten paljon tämän oletuksen särkyminen rikkoo koodia. Eihän esim. alimerkkijonoihin pääse enää käsiksi suoraan indeksoimalla (esim. tekstirivillä 5 saraketta vakiopaikoissa ja halutaan poimia 4. sarakkeessa oleva numero ja konvertoida se liukuluvuksi). Hyvin tavallinen tehtävä, kun luetaan tekstitiedostosta dataa sisään. Toki voi pitäytyä ASCII-merkistössä mutta entäs kun 2. sarakkeessa lukeekin "Hyvinkää"?

Ihanko varmasti, jos käytetään jotain binääriä (esim. vanha kirjasto), jossa nämä kutsut on inline-optimoitu suoraan assembleriksi? Enää näin ei voi tehdä, jolloin suorituskyky kärsii.

Ehkä toimii, jos todella kutsutaan jotain funktiota mutta monet merkkijonofunktiot on tehty inline-assemblerina. Ei taida toimia, jos on koodattu jokin toiminnallisuus itse käsin.
Legacy-ohjelma, joka ei tiedä UTF-8'sta mitään, näkee nuo enkoodatut pätkät tilanvarauksensa mukaisina hivenen pitempinä pätkinä. Pääsääntöisesti tuo ei haittaa mitään. Esimerkiksi tuota tekstitiedostoa (vaikka CSV) parsiessa etsit jonkinlaisia column-markereita, joilla jaat tekstin sarakkeiksi. Nuo löytyvät ihan samalla tavalla kuin ennenkin. Se "hyvinkää" parsiutuu sieltä ihan oikein. strlen() palauttaa sille oikean tilanvarauksen mukaisen arvon, jolla voi tarvittaessa varata oikean määrän muistia. Ja vaikka strncpy kopioi sen varattuun bufferiin oikein, vaikka sovellus ei ole ikinä unicodesta kuullutkaan. Ja ei haittaa, vaikka kaikki nuo olisi inlinetetty binääriin, se strlen on edelleen ihan sama toteutus.

Sitten jos sulla on vaikka legacy tekstieditori, niin toki sillä saa generoitua rikkinäisiä utf-8 payloadeja: menet vaikka lisäämään välilyönnin keskelle tuollaista enkoodattua blobia. Mutta niiden esimerkiksi deletoiminen tai copy-paste toimii ihan oikein. Tällainen käyttötapaus sopii hyvin tilanteeseen, jossa tiedoston payload on pääasiassa ASCII, mutta voi sisältää pieniä määriä muita merkkejä.
 
Liittynyt
02.08.2022
Viestejä
190
Unicode on tarpeellinen tapauksissa, joissa saman dokumentin on pystyttävä näyttämään eri kirjoitusjärjestelmien merkkejä, siis esimerkiksi sekä koodisivulta IBM850 että japanilaisten kirjoitusjärjestelmästä löytyviä merkkejä.
Hyöty unicodesta tulee jo ihan siitä, että jokaisen tiedoston mukana ei tarvitse erikseen olla jossain toisaalla metatietona, millä koodisivulla se on kirjoitettu. Ääkköset ja muutkin yli 128'n olevat merkit menevät heti pieleen, jos tietoa siirtäessä lähettäjä ja vastaanottaja käyttävät eri koodisivua. UTF-8 pystyy esittämään kerralla kaikki unicode-speksin määrittelemät merkit, ei pelkkää 256-merkin subsettia. No, meille Suomessa on tuttua jo kymmenien vuosien takaa, että ääkköset voivat mennä pieleen, mutta käytännössä nämä paikat ovat koko ajan vähentyneet. Ja tässä unicode on ratkaisu, ei ongelma. Ongelma ovat nuo toisistaan irralliset 8-bittiset merkistöt.

Ja näinä päivinä tietty ihan mikä teksti vaan voi sisältää vaikka hymiöitä.
 
Liittynyt
16.10.2016
Viestejä
17 094
Hyöty unicodesta tulee jo ihan siitä, että jokaisen tiedoston mukana ei tarvitse erikseen olla jossain toisaalla metatietona, millä koodisivulla se on kirjoitettu. Ääkköset ja muutkin yli 128'n olevat merkit menevät heti pieleen, jos tietoa siirtäessä lähettäjä ja vastaanottaja käyttävät eri koodisivua. UTF-8 pystyy esittämään kerralla kaikki unicode-speksin määrittelemät merkit, ei pelkkää 256-merkin subsettia. No, meille Suomessa on tuttua jo kymmenien vuosien takaa, että ääkköset voivat mennä pieleen, mutta käytännössä nämä paikat ovat koko ajan vähentyneet. Ja tässä unicode on ratkaisu, ei ongelma. Ongelma ovat nuo toisistaan irralliset 8-bittiset merkistöt.

Ja näinä päivinä tietty ihan mikä teksti vaan voi sisältää vaikka hymiöitä.
Puhumattakaan siitä, että noin 2/3 maailmasta käyttää jotain muita aakkosia kuin latinalaisia.
 
Viimeksi muokattu:
Liittynyt
17.10.2016
Viestejä
15 374
Hämmentävää lukea, että joku haikailee suppeita merkistöjä, jotka eivät siis kykene kattamaan edes kaikkia länsieurooppalaisten kielien tarvitsemia merkkejä, puhumattakaan muusta maailmasta. Se, että ohjelmoija on paska eikä kykene toimimaan UTF-8:n kanssa ja on saanut oppinsa 80-luvulla ei ole mikään peruste luopua siitä ja palata johonkin puutteellisen Latin-1:een. Devaaja on hyvä ja siirtyy 2000-luvulle. UTF-8-enkoodaus on todella toimiva ratkaisu, eikä ihme että se on saavuttanut laajan tuen.

Mutta miten ihmeessä tämä nyt sitten liittyy digitalisaatioon? En tiedä. Taas jotain ihme vänkäämistä uusista ja vanhoista protokollista, mikä varmaan kuuluisi jonnekin muualle. EDIT: No ehkä niin, että merkistöongelmat olivat ihan oikea ja paha ongelma digitalisaation alkuvaiheessa: nimet olivat väärin, vieraskieliset sanat oli väärin, piti muuttaa kirjaimia vääriksi ja sen jälkeen samalla sanalla olikin useita kirjoitusasuja ja haku ei toiminut oikein, sama sana näkyi eri tavalla eri käyttäjille jne. UTF-8 ja tietenkin Unicode ovat tuoneet tähän todella hyvän ja toimivan ratkaisun. EI nyt jumalauta kukaan tervejärkinen voi kaivata jotain vanhoja merkistöjä :facepalm:
 
Viimeksi muokattu:
Liittynyt
16.10.2016
Viestejä
17 094
Legacy-koodit eivät tiedä tällaisesta mitään vaan ne on kirjoitettu oletuksella 1 tavu = 1 merkki. On vähän vaikeaa arvioida miten paljon tämän oletuksen särkyminen rikkoo koodia. Eihän esim. alimerkkijonoihin pääse enää käsiksi suoraan indeksoimalla (esim. tekstirivillä 5 saraketta vakiopaikoissa ja halutaan poimia 4. sarakkeessa oleva numero ja konvertoida se liukuluvuksi). Hyvin tavallinen tehtävä, kun luetaan tekstitiedostosta dataa sisään. Toki voi pitäytyä ASCII-merkistössä mutta entäs kun 2. sarakkeessa lukeekin "Hyvinkää"?
Tai jos siinä lukeekin 北京 tai 東京都. Puhumattakaan جِدَّة‎ tai תל אביב. Sitten on toki myös Αθήνα ja Hà Nội.
Suht nopeasti huomataan, että tuollaisia yksinkertaistuksia sisältävät legacy-koodit kuuluvat sinne roskakoriin kaksinumeroisten vuosilukujen ja 32 bittisten aikaleimojen kanssa.
 
Viimeksi muokattu:
Liittynyt
08.12.2017
Viestejä
1 547
Eleganttius ottaa merkittävää osumaa, jos/kun olemassaolevaa koodia menee rikki.

Legacy-koodit eivät tiedä tällaisesta mitään vaan ne on kirjoitettu oletuksella 1 tavu = 1 merkki. On vähän vaikeaa arvioida miten paljon tämän oletuksen särkyminen rikkoo koodia. Eihän esim. alimerkkijonoihin pääse enää käsiksi suoraan indeksoimalla (esim. tekstirivillä 5 saraketta vakiopaikoissa ja halutaan poimia 4. sarakkeessa oleva numero ja konvertoida se liukuluvuksi). Hyvin tavallinen tehtävä, kun luetaan tekstitiedostosta dataa sisään. Toki voi pitäytyä ASCII-merkistössä mutta entäs kun 2. sarakkeessa lukeekin "Hyvinkää"?

Ihanko varmasti, jos käytetään jotain binääriä (esim. vanha kirjasto), jossa nämä kutsut on inline-optimoitu suoraan assembleriksi? Enää näin ei voi tehdä, jolloin suorituskyky kärsii.

Ehkä toimii, jos todella kutsutaan jotain funktiota mutta monet merkkijonofunktiot on tehty inline-assemblerina. Ei taida toimia, jos on koodattu jokin toiminnallisuus itse käsin.
Vanhaa koodia menee jatkuvasti rikki, kun vaatimukset muuttuvat. Esim. merkistöistä jos luet lisää, huomaat että se "vanha" ei ollut 8 bittiä vaan ASCII oli 7 bittiä ja kahdeksas saattoi olla esimerkiksi virheenkorjaukseen pariteetti. 8-bittiset merkistöt kyllä rikkoivat yhteensopivuutta myös jos oletus oli että merkit ovat 7-bittisiä ja esim. kirjaimet ovat väleillä a-z ja A-Z. Ääkköset kun eivät kuulu noihin väleihin. 128 merkkiin on aika paha sovittaa montaakaan kieltä, kun mukana on ohjausmerkkejäkin.

Oikeastaan toit aika hyvin esille parikin virhekäsitystä - C-tyylinen tapa koodata merkkijonot 0-loppuisiksi ilman pituustietoa on tehoton ja tietoturvaongelmille altis paskakoodaus. Samoin tekstin käsittely inline assyllä. Tietoturvasyistä tällainen pitäisi lopettaa kuten myös näitä tekevät koodarit. Toinen pointti on että kovinkaan usein tekstiin ei sovelleta merkkikohtaisella indeksoinnilla hajasaantia vaan teksti käydään läpi kokonaisuutena tai jollain muulla tavalla (esim. rivinvaihdot), jotka kuitenkin vaativat läpikäyntiä. Vaihtelevanpituiset merkit tuovat miinuspuolia, mutta myös etuja. Merkkijonoja kannattaisi C-tyylin sijaan käsitellä aina pituustiedolla, koska vaikka siinä on hieman enemmän kirjanpitoa, strlen-tyylinen nopeutuu O(n)-ajallisesta O(1)-aikaiseksi ja monet oikeasti raskaat operaatiot voi optimoida menemään vektoreilla tai muuten kevyemmällä muistikuormalla, kun ei tarvitse lukea jonoa haarautumisen päättämiseksi.

Digitalisaation kannalta on hyvä jos merkistöt ovat monikäyttöisiä. Se että joku MUMPSin 1960-luvun 8-bittinen paskakoodi toimii vielä 2230 ilman tarvetta muokata jotain 8-bittistä assyä on enemmän joku (kaulaparta)koodarien eroottinen fantasia.
 
Liittynyt
03.06.2022
Viestejä
943
Offtopic seis ja keskittykää ketjun aiheeseen, kiitos.
Kun katson ylläolevaa kommentointia, niin minusta alkaa näyttää siltä, että pakkodigitalisaation ydinongelma ei ehkä olekaan analogisen pakottaminen digitaaliseksi vaan yleisemmin kaiken vanhan pakottaminen uudeksi, hinnasta ja seurauksista piittaamatta. Legacy on kirosana ja paskaa riippumatta siitä onko kyse pahvikortistosta, analogisesta radiosta vai VAXille tehdystä, Linuxille portatusta tietokannasta. Pelkkä digitalisaatio ei olekaan riittävää, vaan pitää olla uudenaikaista digitalisaatiota. Lähinnä tällaisesta asennoitumisesta tulee mieleen Maon kulttuurivallankumous, jossa vanha historia tuhottiin aktiivisesti ja yritettiin korvata uudella, kommunistisella tulevaisuudella.

Porukka ilkkuu sille, että uusien maailmanstandardien pakottaminen kaikkeen särkee toimivia tietojärjestelmiä, eikä haitoilla ja kustannuksilla ole väliä. Esim. tällainen, uudenaikaisesti koodattu kartta on tosi hyödyllinen eurooppalaiselle:
Screenshot at 2024-09-11 20-39-01.png
 

Kautium

IOdootti
Tukijäsen
Liittynyt
16.10.2016
Viestejä
20 519
...pakkodigitalisaation ydinongelma ei ehkä olekaan analogisen pakottaminen digitaaliseksi vaan yleisemmin kaiken vanhan pakottaminen uudeksi, hinnasta ja seurauksista piittaamatta.
Väärin, ei kukaan ole haluamassa "kaiken vanhan pakottamista uudeksi, hinnasta ja seurauksista piittaamatta". Kyse on siitä, että halutaan vanhentuneiden menetelmien korvaamista tehokkaammilla, nopeammilla, käytettävämmillä ja modulaarisemmilla.

Aina uusi ei tietenkään ole kaikessa parempi, mutta kehitys kehittyy, eikä yleensä kuitenkaan mennä kokonaisuutena taaksepäin, vaikka ei kertalaakista priimaa tulisikaan.

Legacy on kirosana ja paskaa riippumatta siitä onko kyse pahvikortistosta, analogisesta radiosta vai VAXille tehdystä, Linuxille portatusta tietokannasta.
Niin no, lähtökohtaisesti legacy nimenomaan on paskaa, jos ei kyse ole jostakin sellaisesta asiasta, jota ei nykypäivänä ole mahdollista korvata paremmalla. Paikallaan jumittamisen ei pidä olla itseisarvo, eikä varsinkaan jos takana on vain muutosvastarintaa, tai yksittäisten dinosaurusten vanhoillisia ajatusmalleja.
 
Liittynyt
21.04.2020
Viestejä
2 003
Väärin, ei kukaan ole haluamassa "kaiken vanhan pakottamista uudeksi, hinnasta ja seurauksista piittaamatta". Kyse on siitä, että halutaan vanhentuneiden menetelmien korvaamista tehokkaammilla, nopeammilla, käytettävämmillä ja modulaarisemmilla.
Tuolta se käyttäjälle monesti näyttää että pääasia että vaan uudistetaan. Sen lisäksi kun ne uuden järjestelmän opettelut tulee muiden töiden päälle eikä muita töitä korvaavasti. Hyödytkin jää kysymysmerkiksi käyttäjälle kun pääsääntöisesti käyttöliittymät nykyisin huononee, mikä taas tekee valtavia kustannuksia kun kukaan ei osaa käyttää, ja päivityksessä valikot sotketaan tms.

Ainakin itsellä on ollu ainakin 15 vuotta väsymys turhanpäiväiseen opetteluun erityisesti tietotekniikan kanssa...joskus teininä vielä jaksoi.
 
Liittynyt
19.10.2016
Viestejä
825
Hyöty unicodesta tulee jo ihan siitä, että jokaisen tiedoston mukana ei tarvitse erikseen olla jossain toisaalla metatietona, millä koodisivulla se on kirjoitettu.
Mutta pitää kuitenkin olla metatieto siitä, että se on unicodea - ja myös siitä, mitä unicoden tyyppiä ja versiota se on. Mikään ei siis ole muuttunut.


Hämmentävää lukea, että joku haikailee suppeita merkistöjä, jotka eivät siis kykene kattamaan edes kaikkia länsieurooppalaisten kielien tarvitsemia merkkejä, puhumattakaan muusta maailmasta. Se, että ohjelmoija on paska eikä kykene toimimaan UTF-8:n kanssa ja on saanut oppinsa 80-luvulla ei ole mikään peruste luopua siitä ja palata johonkin puutteellisen Latin-1:een. Devaaja on hyvä ja siirtyy 2000-luvulle. UTF-8-enkoodaus on todella toimiva ratkaisu, eikä ihme että se on saavuttanut laajan tuen.
Edellisessä viestissäni jo kerroin, miksi unicoden pitäminen oletuksena ei ole hyvä asia. Se tekee ihan konkreettisia tietoturvariskejä ja on ongelmallinen myös käyttäjien tuottaman sisällön kanssa esimerkiksi foorumeilla ja vieraskirjoissa. Unicode on kyllä hyvä asia silloin, kun sitä tarvitaan, ja ilman unicodea moni asia olisi hankalampaa. Kuitenkin tuollainen kaikkien pakottaminen unicoden käyttäjiksi on vastenmielistä ja tuottaa enemmän ongelmia kuin ratkaisee niistä.

Ja ovathan ne tasapituiset merkistöt aina myös helpompia implementoida.

Oikeastaan toit aika hyvin esille parikin virhekäsitystä - C-tyylinen tapa koodata merkkijonot 0-loppuisiksi ilman pituustietoa on tehoton
Itse asiassa nollaloppuiset merkkijonot ovat kyllä ainakin x86-alustalla varsin nopeita käsitellä. Siitä voisikin tehdä jonkinlaisen vertailun, että kumpaan menee enemmän kellosyklejä, PASCAL-tyyppisiin merkkijonoihin joissa pituustieto on alussa kokonaislukuna vai C-tyyppisiin merkkijonoihin jotka loppuvat nollatavuun. Edellämainituissa on muuten melko merkittävänä sellainen ongelma, että sen pituustiedon bittileveys pitää tietää jostain, ennen kuin koko merkkijonoa voi edes alkaa käsittelemään.
 
Viimeksi muokattu:
Liittynyt
10.01.2019
Viestejä
18 341
....

Porukka ilkkuu sille, että uusien maailmanstandardien pakottaminen kaikkeen särkee toimivia tietojärjestelmiä, eikä haitoilla ja kustannuksilla ole väliä. Esim. tällainen, uudenaikaisesti koodattu kartta on tosi hyödyllinen eurooppalaiselle:
Nyt ei tuo karttajuttu avaudu, png kuvatiedosto, otsikkoon liittyen haikailetko paperisia.
Digitaaliset kartat ovat olle vuosikausia ihan muuta kuin pikselikuvatiedostoja.


Mutta pitää kuitenkin olla metatieto siitä, että se on unicodea - ja myös siitä, mitä unicoden tyyppiä ja versiota se on. Mikään ei siis ole muuttunut.
....
Ymmärsin että moderointi nimenomaan kielsi merkistö keskustelun

Offtopic seis ja keskittykää ketjun aiheeseen, kiitos.
 
Liittynyt
17.10.2016
Viestejä
5 460
Nyt ei tuo karttajuttu avaudu, png kuvatiedosto, otsikkoon liittyen haikailetko paperisia.
Digitaaliset kartat ovat olle vuosikausia ihan muuta kuin pikselikuvatiedostoja.
Veikkaan että tuossa oli pointti että nuo paikkojen nimet on paikallisilla koukeroilla eikä latinalaisilla aakkosilla. Eli merkistöjuttua tämäkin.
 
Liittynyt
28.12.2019
Viestejä
3 266
Digitalisaatio tarkoittaa laajempaa yhteiskunnallista muutosta, joka tapahtuu, kun perinteisiä analogisia toimintoja ja prosesseja korvataan digitaalisilla ratkaisuilla ja teknologioilla. Digitalisaatio voi vaikuttaa monilla eri aloilla, kuten terveydenhuollossa, koulutuksessa, liiketoiminnassa ja julkishallinnossa. Esimerkiksi ostaminen netissä, etätyö ja viranomaisten viestintä sosiaalisessa mediassa ovat digitalisaatiota

Digitalisoinnilla puolestaan tarkoitetaan tietokoneiden ja datan hyödyntämistä toimintaan tai kehittämiseen. Esimerkiksi sähköpostitse viestiminen, verkkokaupan rakentaminen tai valokuvaaminen puhelimella ovat digitalisointia.
Lähde

Eikö olisi jo sama sulkea lopullisesti tämä lanka, kun ei tämä kerta kaikkiaan tunnu pysyvän aiheessa? Tredin aloittaja itse vie kerta toisensa jälkeen keskustelun aivan väärille raiteille, ja sitten porukkaa lähtee mukaan tähän offtopic-vänkäykseen..
 
Liittynyt
17.10.2016
Viestejä
6 044
Veikkaan että tuossa oli pointti että nuo paikkojen nimet on paikallisilla koukeroilla eikä latinalaisilla aakkosilla. Eli merkistöjuttua tämäkin.
Tuo kartta näyttäisi kovasti openstreetmap-kartalta. Samassa kartassa on eri kieliset maiden ja paikkojen nimet olemassa karttadatassa, on vain visualisoinnista kiinni minkä maan kielellä nuo tulevat näkyviin. Teoriassa kuka tahansa voi tehdä oman kartan openstreetmap-kartta-aineistosta haluamallaan kielellä. En siis sanoisi tuota ongelmaksi tai huonoksi puoleksi, päin vastoin on kätevää että samassa kartta-aineistossa on nimistö monella kielellä niin voi käyttää sitä kieltä mitä haluaa. Se, että jollain netin karttasivulla kiinalaiset paikat näkyy kiinan kielellä on vain sen kyseisen karttapalvelun visualisoinnin ominaisuus.
 
Liittynyt
19.10.2016
Viestejä
825
Kyllä merkistöt nimenomaan liittyvät digitalisaatioon - aina kun käsitellään tekstiä digitaalisessa muodossa, niin ollaan merkistöjen kanssa tekemisissä. Tuo "asia X ei liity digitalisaatioon" -huutelu tuntuu olevan eräille vain tapa vaientaa keskustelu, jos se lähtee menemään faktojen osalta omasta mielestä epämieluisaan suuntaan.
 
Liittynyt
16.10.2016
Viestejä
17 094
Kyllä merkistöt nimenomaan liittyvät digitalisaatioon - aina kun käsitellään tekstiä digitaalisessa muodossa, niin ollaan merkistöjen kanssa tekemisissä. Tuo "asia X ei liity digitalisaatioon" -huutelu tuntuu olevan eräille vain tapa vaientaa keskustelu, jos se lähtee menemään faktojen osalta omasta mielestä epämieluisaan suuntaan.
@Juha Kokkonen voi varmaan sitten tarkemmin ohjeistaa, että mikä lasketaan offtopiciksi ja mikä ei, kerta vissiin väellä on jotain epäselvyyksiä asian suhteen.
 
Liittynyt
17.10.2016
Viestejä
15 374
@Juha Kokkonen voi varmaan sitten tarkemmin ohjeistaa, että mikä lasketaan offtopiciksi ja mikä ei, kerta vissiin väellä on jotain epäselvyyksiä asian suhteen.
Tämä. Kaikki tietokoneisiin liittyvä ei liity digitalisaatioon. Muutoin koko ketjussa ei olisi mitään järkeä kun tästä tulee vain IT-ongelmien kaatopaikka tai huru-ukkojen haikailuketju kuinka kaikki oli ennen paremmin kun ääkköset eivät toimineet ja nettiyhteys ei ollut salattu.

Digitalisaatio liittyy siihen kun aiemmin "analogisia asioita" on alettu tehdä digitaalisesti ja samalla mahdollistettu kokonaan uusia palveluita tai ominaisuuksia. Tämä siirtymä ja vertailu analogisen ja digitaalisen välillä liittyy ketjuun. Muu vollotus sitten omiin ketjuihin. Ja jos haluaa perustaa jonkun "Ennen oli ATK:ssa kaikki paremmin"-valitusketjun, niin siitä vain. Siellä voi sitten jatkaa ISO/IEC 8859-1:n kaipailuja.
 

Juha Kokkonen

Ylläpidon jäsen
Liittynyt
17.10.2016
Viestejä
13 757
Kyllä merkistöt nimenomaan liittyvät digitalisaatioon - aina kun käsitellään tekstiä digitaalisessa muodossa, niin ollaan merkistöjen kanssa tekemisissä. Tuo "asia X ei liity digitalisaatioon" -huutelu tuntuu olevan eräille vain tapa vaientaa keskustelu, jos se lähtee menemään faktojen osalta omasta mielestä epämieluisaan suuntaan.
@Juha Kokkonen voi varmaan sitten tarkemmin ohjeistaa, että mikä lasketaan offtopiciksi ja mikä ei, kerta vissiin väellä on jotain epäselvyyksiä asian suhteen.
Tämä. Kaikki tietokoneisiin liittyvä ei liity digitalisaatioon. Muutoin koko ketjussa ei olisi mitään järkeä kun tästä tulee vain IT-ongelmien kaatopaikka tai huru-ukkojen haikailuketju kuinka kaikki oli ennen paremmin kun ääkköset eivät toimineet ja nettiyhteys ei ollut salattu.

Digitalisaatio liittyy siihen kun aiemmin "analogisia asioita" on alettu tehdä digitaalisesti ja samalla mahdollistettu kokonaan uusia palveluita tai ominaisuuksia. Tämä siirtymä ja vertailu analogisen ja digitaalisen välillä liittyy ketjuun. Muu vollotus sitten omiin ketjuihin. Ja jos haluaa perustaa jonkun "Ennen oli ATK:ssa kaikki paremmin"-valitusketjun, niin siitä vain. Siellä voi sitten jatkaa ISO/IEC 8859-1:n kaipailuja.
Ketjun aloituspostauksessa on nähdäkseni pohjustettu varsin selvästi mitä digitalisaatio tarkoittaa ja asiaa on myös ketjussa jo useita kertoja ohjeistettu.
 
Liittynyt
17.10.2016
Viestejä
1 214
Kun katson ylläolevaa kommentointia, niin minusta alkaa näyttää siltä, että pakkodigitalisaation ydinongelma ei ehkä olekaan analogisen pakottaminen digitaaliseksi vaan yleisemmin kaiken vanhan pakottaminen uudeksi, hinnasta ja seurauksista piittaamatta. Legacy on kirosana ja paskaa riippumatta siitä onko kyse pahvikortistosta, analogisesta radiosta vai VAXille tehdystä, Linuxille portatusta tietokannasta. Pelkkä digitalisaatio ei olekaan riittävää, vaan pitää olla uudenaikaista digitalisaatiota. Lähinnä tällaisesta asennoitumisesta tulee mieleen Maon kulttuurivallankumous, jossa vanha historia tuhottiin aktiivisesti ja yritettiin korvata uudella, kommunistisella tulevaisuudella.

Porukka ilkkuu sille, että uusien maailmanstandardien pakottaminen kaikkeen särkee toimivia tietojärjestelmiä, eikä haitoilla ja kustannuksilla ole väliä. Esim. tällainen, uudenaikaisesti koodattu kartta on tosi hyödyllinen eurooppalaiselle:
Meinaatko että paperikarttojen aikakaudella esim. kiinalaisten ja japanilaisten kartat, ja miksei kaikkien muunmaalaistenkin kartat, on aina ollut selvällä suomen kielellä? Onhan se nyt selvää, että esim. pohjoismaisten naapuriemme pääkaupunkien nimet ovat nimenomaan Tukholma ja Kööpenhamina.
 
Liittynyt
16.10.2016
Viestejä
17 094
Mutta pitää kuitenkin olla metatieto siitä, että se on unicodea - ja myös siitä, mitä unicoden tyyppiä ja versiota se on. Mikään ei siis ole muuttunut.



Edellisessä viestissäni jo kerroin, miksi unicoden pitäminen oletuksena ei ole hyvä asia. Se tekee ihan konkreettisia tietoturvariskejä ja on ongelmallinen myös käyttäjien tuottaman sisällön kanssa esimerkiksi foorumeilla ja vieraskirjoissa. Unicode on kyllä hyvä asia silloin, kun sitä tarvitaan, ja ilman unicodea moni asia olisi hankalampaa. Kuitenkin tuollainen kaikkien pakottaminen unicoden käyttäjiksi on vastenmielistä ja tuottaa enemmän ongelmia kuin ratkaisee niistä.

Ja ovathan ne tasapituiset merkistöt aina myös helpompia implementoida.


Itse asiassa nollaloppuiset merkkijonot ovat kyllä ainakin x86-alustalla varsin nopeita käsitellä. Siitä voisikin tehdä jonkinlaisen vertailun, että kumpaan menee enemmän kellosyklejä, PASCAL-tyyppisiin merkkijonoihin joissa pituustieto on alussa kokonaislukuna vai C-tyyppisiin merkkijonoihin jotka loppuvat nollatavuun. Edellämainituissa on muuten melko merkittävänä sellainen ongelma, että sen pituustiedon bittileveys pitää tietää jostain, ennen kuin koko merkkijonoa voi edes alkaa käsittelemään.
Loin aiheelle ihan oman ketjunsa oikeaan paikkaan:

 
Liittynyt
05.05.2017
Viestejä
1 106
Tietääkö joku, miksi Nordean piti väenväkisin korvata oikein hyvin toiminut Solo tällä uudella Netbank-kötöstyksellä?
Veikkaisin ainakin näitä: Koska kyse ei ole pelkästä verkkopankin käyttöliittymän uusimisesta ja koska Nordealla on asiakkaita useassa maassa. Siellähän tehtiin mm. iso core banking -uudistus, niin siihen on varmasti kytkös. Ja Solo on peruja ajalta, jolloin maiden toiminnot olivat suurelta osin erillisiä.
 
Liittynyt
03.06.2022
Viestejä
943
Digitalisaatio liittyy siihen kun aiemmin "analogisia asioita" on alettu tehdä digitaalisesti ja samalla mahdollistettu kokonaan uusia palveluita tai ominaisuuksia. Tämä siirtymä ja vertailu analogisen ja digitaalisen välillä liittyy ketjuun. Muu vollotus sitten omiin ketjuihin. Ja jos haluaa perustaa jonkun "Ennen oli ATK:ssa kaikki paremmin"-valitusketjun, niin siitä vain. Siellä voi sitten jatkaa ISO/IEC 8859-1:n kaipailuja.
Mitä tämän otsikon alle sinun mielestäsi sitten kuuluu?

Historian muisteluna toki paljonkin: pankit digitalisoituivat 70-80-luvulla, analogi-TV heivattiin sivuun 00-luvulla (tosin teksti-tv tuli 80-luvulla ja NICAM 90-luvun alussa), lankapuhelimet digitalisoituivat 80-luvulla viimeistä mailia lukuunottamatta ja toihan äänivalinta digin kotiinkin, GSM tuli 90-luvulla. CD-soitin on 80-luvun alusta ja iso kotien digitalisaatioaalto oli 80-luvun kuusnepat ja spektrumit ja myöhemmin pleikat. Tätä ennen videopelit. Autojen moottorinohjaus digitalisoitui viimeistään 90-luvulla. Matkatoimistot kai 80-luvulla? Taskulaskimet tulivat 70-luvulla.

Merkittäviltä osin maailma digitalisoitui 80-luvulla ja viimeistään 90-luvulla. Digitalisaatio alkoi isossa määrin 60-luvulla, kun tietokoneita alettiin hankkia julkishallintoon ja isompiin yrityksiin.

Eli mitä keskusteltavaa tässä enää on, jos rajaudutaan tiukasti analogin korvaamiseen digillä? Analogi-radion kohtalo? Mitä merkittävää digitalisaatiota muka on 2020-luvulla?
Keskusteltavaa olisi aika paljon enemmän, jos mukana olisi myös digitalisaation sukupolvet.

Väärin, ei kukaan ole haluamassa "kaiken vanhan pakottamista uudeksi, hinnasta ja seurauksista piittaamatta". Kyse on siitä, että halutaan vanhentuneiden menetelmien korvaamista tehokkaammilla, nopeammilla, käytettävämmillä ja modulaarisemmilla.
Ootapa. Aika paljon isoja, tärkeitä asioita on digitalisoitu 80-luvun tietotekniikalla. Silloin on ollut kortilla muisti, CPU-teho ja tallennustila. Ihanko tosissasi väität, että nykyaikaiset menetelmät olisivat tehokkaampia ja nopeampia kuin vanhat? :rofl:

Ennen on pitänyt oikeasti miettiä resurssien riittävyyttä. Lisäresurssien hankkiminen kun ei ole ollut ihan ilmaista ja rajansa on ollut silläkin mitä saa edes rahalla.

Meinaatko että paperikarttojen aikakaudella esim. kiinalaisten ja japanilaisten kartat, ja miksei kaikkien muunmaalaistenkin kartat, on aina ollut selvällä suomen kielellä?
Kun kartta (tai muu aineisto) renderöidään eurooppalaiselle, on luonnollista, että tekstit translitteroidaan latinalaiselle merkistölle. Ei kukaan täällä ymmärrä jotain burmalaisia koukeroita.
 
Liittynyt
16.10.2016
Viestejä
17 094
Eli mitä keskusteltavaa tässä enää on, jos rajaudutaan tiukasti analogin korvaamiseen digillä? Analogi-radion kohtalo? Mitä merkittävää digitalisaatiota muka on 2020-luvulla?
Keskusteltavaa olisi aika paljon enemmän, jos mukana olisi myös digitalisaation sukupolvet.
Tämä on tietotekniikkafoorumi. Tämä on täynnä keskusteluja noista "digitalisaation sukupolvista", mutta ne käydään omilla alaosiolla omissa ketjuissansa. Kuten kuuluukin toimia foorumin sääntöjen mukaan.
Keskustelu merkistöstä kuuluu ohjelmointiosiolle. Keskustelu AP:n Sisyfosmaisesta taistelusta MS:n pilvisoftien kanssa kuuluu joko Ongelmat-osioon tai Ohjelmisto-osioon.
 
Liittynyt
22.10.2016
Viestejä
11 576
Ootapa. Aika paljon isoja, tärkeitä asioita on digitalisoitu 80-luvun tietotekniikalla. Silloin on ollut kortilla muisti, CPU-teho ja tallennustila. Ihanko tosissasi väität, että nykyaikaiset menetelmät olisivat tehokkaampia ja nopeampia kuin vanhat? :rofl:

Ennen on pitänyt oikeasti miettiä resurssien riittävyyttä. Lisäresurssien hankkiminen kun ei ole ollut ihan ilmaista ja rajansa on ollut silläkin mitä saa edes rahalla.
Sinulla on nyt todella paljon hukassa se, mitä "tehokkuudella" tässä tarkoitetaan.

Tehokkuus tarkoittaa sitä, paljonko asioita saadaan aikaseksi / aika, mitä työntekijä siihen kokonaisuudessaan käyttää.

Otetaan vaikka esimerkki henkilöstä, jonka pitää töissä vierailla monessa paikassa, ja paikat vaihtuu päivittäin.

Vanha mekanismi == mennään joka aamu hakemaan tukikohdasta paperinen lista osoitteista missä pitää käydä. Tukikohdassa joko käsin kopioidaan se lista ottamalla siihen seinällä olevasta listasta omat osuudet tai printataan se tukikohdan tietokoneelta (jos ollaan jo 1980-luvulla)

Vasta kun tämä on haettu, lähdetään asiakkaiden luokse.

Uusi mekanismi: Kännykkään tulee lista asiakkaiden osoitteista, joissa pitää käydä. Järjestelmä myös laskee ehdotuksen käyntijärjestyksestä, jolla ajomatka paikkojen välillä minimoituu.

Kun säästyy aamun tukikohtakäynti, voidaan samassa kokonaisajassa heti käydä yhden parin asiakkaan luona enemmän. Ja kun järjestelmä laskee optimaalisen käyntijärjestyksen, voidaan säästellä ajomatkassa ja ajoajassa.


Ja mikäli listaa pitää päivitellä päivän aikana, homma hankaloituu vielä lisää vanhalla mekanismilla. Pitää joko soitella ja alkaa kirjoittelemaan listalle lisää, tai pitää käydä vaikka aina ruokatauolla tukikohdassa tarkastamassa, että olisiko listalle tullut lisää kohteita.

Uudella taas lista päivittyy kännykän softassa automaattisesti.
 
Viimeksi muokattu:
Liittynyt
17.10.2016
Viestejä
6 044
Sinulla on nyt todella paljon hukassa se, mitä "tehokkuudella" tässä tarkoitetaan.

Tehokkuus tarkoittaa sitä, paljonko asioita saadaan aikaseksi / aika, mitä työntekijä siihen kokonaisuudessaan käyttää.

Otetaan vaikka esimerkki henkilöstä, jonka pitää töissä vierailla monessa paikassa, ja paikat vaihtuu päivittäin.

Vanha mekanismi == mennään joka aamu hakemaan tukikohdasta paperinen lista osoitteista missä pitää käydä. Tukikohdassa joko käsin kopioidaan se lista ottamalla siihen seinällä olevasta listasta omat osuudet tai printataan se tukikohdan tietokoneelta (jos ollaan jo 1980-luvulla)

Vasta kun tämä on haettu, lähdetään asiakkaiden luokse.

Uusi mekanismi: Kännykkään tulee lista asiakkaiden osoitteista, joissa pitää käydä. Järjestelmä myös laskee ehdotuksen käyntijärjestyksestä, jolla ajomatka paikkojen välillä minimoituu.

Kun säästyy aamun tukikohtakäynti, voidaan samassa kokonaisajassa heti käydä yhden parin asiakkaan luona enemmän. Ja kun järjestelmä laskee optimaalisen käyntijärjestyksen, voidaan säästellä ajomtkassa ja ajoajassa.


Ja mikäli listaa pitää päivitellä päivän aikana, homma hankaloituu vielä lisää vanhalla mekanismilla. Pitää joko soitella ja alkaa kirjoittelemaan lisalle lisää, tai pitää käydä vaikka aina ruokatauolla tukikohdassa tarkastamassa, että olisiko listalle tullut lisää kohteita.

Uudella taas lista päivittyy kännykän softassa automaattisesti.
Noinhan tuon digitalisoinnin pitäisi toimia. Tosin, on kyllä tullut nähtyä sitäkin että vanhanaikaiset paperilomakkeet vaan tehdään täytettävinä PDF-versioina eikä samalla paranneta prosessia millään tavalla vaikka siihen olisi ollut mahdollisuus, esimerkiksi hakemalla tietokannasta lomakkeelle suoraan asiakkaan tiedot, tuotteiden/palveluiden hinnat jne. Tuollainen pelkän lomakkeen uusiminen jopa hidastaa ja huonontaa tehokkuutta kun jollain mobiililaitteella kymmeniä kenttiä käsittävä lomake on hitaampaa ja hankalampaa täyttää. Ja pahimmillaan tuosta eteenpäin homma toimii niin että lomake lähtee seuraavalle ihmiselle PDF-lomakkeena ja hän sitten manuaalisesti naputtelee tiedot laskutusjärjestelmään sun muihin järjestelmiin vaikka sekin olisi samalla voitu automatisoida.

Eli tuollaisen digisiirtymän voi tehdä hyvin, miettimällä koko prosessi uusiksi tai sitten vaan siirtää paperilomake sähköiseksi ja työmäärä pysyy samana kuin ennenkin eikä sillä saavuteta mitään aika- tai kustannussäästöjä.
 

Kautium

IOdootti
Tukijäsen
Liittynyt
16.10.2016
Viestejä
20 519
Eli tuollaisen digisiirtymän voi tehdä hyvin, miettimällä koko prosessi uusiksi tai sitten vaan siirtää paperilomake sähköiseksi ja työmäärä pysyy samana kuin ennenkin eikä sillä saavuteta mitään aika- tai kustannussäästöjä.
Niin voi. Ei ole kuitenkaan millään tavalla digitalisaation vika, jos jossakin yrityksessä ei osata tai ei haluta päivittää prosesseja ja järjestelmiä nykyaikaisemmiksi.
 
Liittynyt
10.01.2019
Viestejä
18 341
Noinhan tuon digitalisoinnin pitäisi toimia. Tosin, on kyllä tullut nähtyä sitäkin että vanhanaikaiset paperilomakkeet vaan tehdään täytettävinä PDF-versioina eikä samalla paranneta prosessia millään tavalla vaikka siihen olisi ollut mahdollisuus, esimerkiksi hakemalla tietokannasta lomakkeelle suoraan asiakkaan tiedot, tuotteiden/palveluiden hinnat jne. Tuollainen pelkän lomakkeen uusiminen jopa hidastaa ja huonontaa tehokkuutta kun jollain mobiililaitteella kymmeniä kenttiä käsittävä lomake on hitaampaa ja hankalampaa täyttää. Ja pahimmillaan tuosta eteenpäin homma toimii niin että lomake lähtee seuraavalle ihmiselle PDF-lomakkeena ja hän sitten manuaalisesti naputtelee tiedot laskutusjärjestelmään sun muihin järjestelmiin vaikka sekin olisi samalla voitu automatisoida.

Eli tuollaisen digisiirtymän voi tehdä hyvin, miettimällä koko prosessi uusiksi tai sitten vaan siirtää paperilomake sähköiseksi ja työmäärä pysyy samana kuin ennenkin eikä sillä saavuteta mitään aika- tai kustannussäästöjä.
En tiedä mistä tämän kaivoit digitalisaatiota kuvaavaksi esimerkiksi.

Toki PDF lommakkeita on tullut ja vaikka se ei ole se maali ollut, niin on tehostannut isosti toimintaa.
Paperiseen verrattuna
- lomakkeet helpompi pitää ajantasalla
- Käsinkirjoitettuun verrattuna luettavia, ja kurinalaisempia
- Tänäpäivänä iso juttu, paperit ei pyöri siellä täällä, helppo tapa parantaa sitä hallintaa
- Lomakkeiden toimitus nopeutuu, halvempaa
- Jos esimerkki kohteessa tänää vielä käsin syöttö vastaanotto päässä, niin sähköinen lomake mahdallistaa siinäkin tehostamista, puolimekaanista sähköistä käsittelyä, jos esim kopio/liitä sallittu, niin vähentää entisestään virheitä. Jossain voi olla kielletty. Mahdollistaa kuitenkin jatkossa prosessi automatisointia.

Monessa paikkaan ollaa toki paljon pidemmällä , mutta nuokin vaiheet ovat olleet isoja harppauksia. Kannattaa myös se tiedostaa että jossain pisteessä se näkymä on vain siitä kohtaa, jossain pisteessä voi työmäärä jopa lisääntyä, mutta isommassa kuvassa iso tehostus.

Tyypillinen esimerkki jälkimmäisestä on se että ennen digitalisaatiota joku suorittavaa työtä tekevä teki sitä omaa hommaa, ja sen tekemistä organisoit ja välitti useita henkilöitä, ja tänään se suorittavaa työtä tekevä sen lisäksi itse hakee seuraan tehtävän määrykset, ohjeet, ja tekee niistä kuittaukset, raportin, eli kokee tekevänsä sen lisää, vs aiemmin. Mutta homma tehostunut järkyttävästi.
 
Liittynyt
17.10.2016
Viestejä
2 186
Työeläkealalla digitalisaatio on ollut huimaa vaikka verrattuna vuoteen 2005 jolloin itse aloittelin alalla. Silloin oikeasti kaikki hakemukset sun muut tulivat joko paperilla, sähköpostilla tai faksilla jonka jälkeen nämä käsin lähetettiin skannattavaksi talon asiakirjaskannaamoon tai postitukseen ja syötettiin kaikki tiedot käsin järjestelmiin.

Kun tuli päätöksen antamisen aika, kirjoitettiin päätös Wordissa vakiopohjia käyttäen ja tulostettiin tuo päätös omalla printterillä ja tämän jälkeen kuoritettiin ja lähetettiin sisäisellä postilla postitukseen. Vakuutuskirjat kansioitiin > sisäisellä postilla postitukseen. Sisäinen posti kävi 4 kertaa päivässä hakemassa lähtevät postit.

Nykyään kaikki on digitaalista. Päätökset tulevat suoraan systeemeistä, asiakkaat löytyvät Salesforcesta ja CRM:stä, kaikki tapahtuu digitaalisesti tai robottien tekemänä. Itselle jää aikaa asiantuntijatyöhön paljon enemmän päivän aikana. En edes muista koska olisin lähettänyt viimeksi kenellekään postilla mitään.
 
Viimeksi muokattu:
Liittynyt
17.10.2016
Viestejä
6 044
En tiedä mistä tämän kaivoit digitalisaatiota kuvaavaksi esimerkiksi.

Toki PDF lommakkeita on tullut ja vaikka se ei ole se maali ollut, niin on tehostannut isosti toimintaa.
Paperiseen verrattuna
- lomakkeet helpompi pitää ajantasalla
- Käsinkirjoitettuun verrattuna luettavia, ja kurinalaisempia
- Tänäpäivänä iso juttu, paperit ei pyöri siellä täällä, helppo tapa parantaa sitä hallintaa
- Lomakkeiden toimitus nopeutuu, halvempaa
- Jos esimerkki kohteessa tänää vielä käsin syöttö vastaanotto päässä, niin sähköinen lomake mahdallistaa siinäkin tehostamista, puolimekaanista sähköistä käsittelyä, jos esim kopio/liitä sallittu, niin vähentää entisestään virheitä. Jossain voi olla kielletty. Mahdollistaa kuitenkin jatkossa prosessi automatisointia.

Monessa paikkaan ollaa toki paljon pidemmällä , mutta nuokin vaiheet ovat olleet isoja harppauksia. Kannattaa myös se tiedostaa että jossain pisteessä se näkymä on vain siitä kohtaa, jossain pisteessä voi työmäärä jopa lisääntyä, mutta isommassa kuvassa iso tehostus.

Tyypillinen esimerkki jälkimmäisestä on se että ennen digitalisaatiota joku suorittavaa työtä tekevä teki sitä omaa hommaa, ja sen tekemistä organisoit ja välitti useita henkilöitä, ja tänään se suorittavaa työtä tekevä sen lisäksi itse hakee seuraan tehtävän määrykset, ohjeet, ja tekee niistä kuittaukset, raportin, eli kokee tekevänsä sen lisää, vs aiemmin. Mutta homma tehostunut järkyttävästi.
No jos otetaan esimerkiksi vaikkapa joku asentajan keikkalappunen, niin paperiversion naputtelee nopeammin koneelle oikeisiin kenttiin kuin copypasteaa kenttä kerrallaan jostakin ensin sähköpostin liitteenä tulleesta pdf-lomakkeesta joka pitää erikseen avata ruudulle ja vaihdella ikkunasta ja sovelluksesta toiseen (jos vaan käsialasta saa selvää). Lisäksi asentajat inhoavat täytellä mitään kankeita pdf-lomakkeita työkännykän pieneltä näytöltä ja mieluummin tekisivät niitä paperisia kun ne oli nopeampia täyttää käsin kynällä.

Sanoisin että tuollaisessa uudistuksessa digitalisoinnista on ollut vain haittaa kun hankaloittaa ja hidastaa prosessia, asentajien ja lomakkeiden naputtelijoiden ärsyyntymisestä puhumattakaan. Ainoa säästö on se, että paperilomakkeita ei tarvitse asentajilla olla mukana, mutta pahimmassa tapauksessa tuokin korvautuu sillä että joku pienellä näytöllä varustetun koneen omaava konttoriduunari printtailee nuo laput ensin paperille helpottaakseen omaa syöttötyötään kun ei tarvitse sovellusten välillä pomppia.

Ja olen päässyt todistamaan sitäkin kun eräässä firmassa siirryttiin joskus yli 20v sitten "paperittomaan konttoriin", paperin kulutus lisääntyi ensimmäisen vuoden aikana kolminkertaiseksi...
 
Liittynyt
17.10.2016
Viestejä
6 044
Työeläkealalla digitalisaatio on ollut huimaa vaikka verrattuna vuoteen 2005 jolloin itse aloittelin alalla. Silloin oikeasti kaikki hakemukset sun muut tulivat joko paperilla, sähköpostilla tai faksilla jonka jälkeen nämä käsin lähetettiin skannattavaksi talon asiakirjaskannaamoon tai postitukseen ja syötettiin kaikki tiedot käsin järjestelmiin.

Kun tuli päätöksen antamisen aika, kirjoitettiin päätös Wordissa vakiopohjia käyttäen ja tulostettiin tuo päätös omalla printterillä ja tämän jälkeen kuoritettiin ja lähetettiin sisäisellä postilla postitukseen. Vakuutuskirjat kansioitiin > sisäisellä postilla postitukseen. Sisäinen posti kävi 4 kertaa päivässä hakemassa lähtevät postit.

Nykyään kaikki on digitaalista. Päätökset tulevat suoraan systeemeistä, asiakkaat löytyvät Salesforcesta ja CRM:stä, kaikki tapahtuu digitaalisesti tai robottien tekemänä. Itselle jää aikaa asiantuntijatyöhön paljon enemmän päivän aikana.
Noinhan sen digitalisaation pitäisikin onnistua, ja joissakin paikoissa on onnistuttukin. Valitettavan usein jostain "säästetään" ja sitten samoista analogiprosesseista tehdään vain monimutkaisia digiprosesseja joissa joku asia on aavistuksen halvempaa ja nopeampaa mutta kaikki muu on kalliimpaa ja hitaampaa.
 
Liittynyt
10.01.2019
Viestejä
18 341
No jos otetaan esimerkiksi vaikkapa joku asentajan keikkalappunen, niin paperiversion naputtelee nopeammin koneelle oikeisiin kenttiin kuin copypasteaa kenttä kerrallaan jostakin ensin sähköpostin liitteenä tulleesta pdf-lomakkeesta joka pitää erikseen avata ruudulle ja vaihdella ikkunasta ja sovelluksesta toiseen (jos vaan käsialasta saa selvää). Lisäksi asentajat inhoavat täytellä mitään kankeita pdf-lomakkeita työkännykän pieneltä näytöltä ja mieluummin tekisivät niitä paperisia kun ne oli nopeampia täyttää käsin kynällä.
Voidaan toki maalailla kankeita prosesseja käistellä se PDF vastaanotto päässä ja verratta johonkin näppärään selkeään käsinkirjoitettuun. Jos copy/paste on esimerkissä vaikeaa, niin voi sen lukea ja naputella, virhe riski lisääntyy.

Mutta tuossakin säästyy se paperinlapun toimitus, käsittely, arkistointi, tuhoaminen.

Se toki harmillista että esimerkki kohteessa lomakkeen täyttäjillä huonot välineet, ja se että lomakkeen toimituskin vaikeaksi koetulla sähköpostilla, näihin olisi toki helppoja ja edullisia vaihtoehtoja. Koska en yksittäistä tapausta tunne niin menee arvailuksi jutun taustat.

Ensinnä tulee toki mieleen se että se digatalisointi ollut jälkijunassa, ja kun on esim tullut kyselyä että mites te niitä lappusia käsittelette niin tuolla tavalla nopeasti saati hommaa paikattua.

Ehkä siellä on jotain isompaa menossa, jos tuo vaihe on vielä pitkään käytössä, niin päätelaitteet miettiä, ja se lomakkeiden välitys, esim lomakkeet täyttää ohjelmalla joka tukee pilvitallennusta, se taipuu pieneenkin oraganisaatioon. Tietenkin jos kyse ison ja pienen oraganisaation välisestä rajapinta puutteesta, niin voi olla pitkäprosessi tehdä väliaikaisesti.


Muistettava se että sähköpostin valinnalla muistakin syistä kuin vain se että lomake saadaan perille.
 
Viimeksi muokattu:

kaarlos

Virallinen JimmZ-boikotoija
Premium-jäsen
Liittynyt
13.11.2016
Viestejä
1 769
Erinäiset automatisoidut tuotevarastot ovat hyvä esimerkki valtavasta tehostuksesta joka ei olisi mahdollista ilman digitalisaatiota. Joskus vuosia sitten tuli käytyä töiden merkeissä todella suuren vaatevalmistajan automatisoidussa varastossa josta lähetettiin tuotteita eteenpäin liikkeisiin ja verkkokauppatilauksiin. Robotit sinkoilivat hyllyltä toiselle ja keräsivät ja kuljettivat ne paketointialueelle.

Noi on todella vakuuttavia kokonaisuuksia kun pääsee näkemään vierestä miten prosessi pyörii. Oli ymmärtääkseni vielä tuolloin kyseisen firman vanhentuneempi varasto, uudempaa en päässyt näkemään.
 
Liittynyt
08.12.2017
Viestejä
1 547
Noinhan tuon digitalisoinnin pitäisi toimia. Tosin, on kyllä tullut nähtyä sitäkin että vanhanaikaiset paperilomakkeet vaan tehdään täytettävinä PDF-versioina eikä samalla paranneta prosessia millään tavalla vaikka siihen olisi ollut mahdollisuus, esimerkiksi hakemalla tietokannasta lomakkeelle suoraan asiakkaan tiedot, tuotteiden/palveluiden hinnat jne. Tuollainen pelkän lomakkeen uusiminen jopa hidastaa ja huonontaa tehokkuutta kun jollain mobiililaitteella kymmeniä kenttiä käsittävä lomake on hitaampaa ja hankalampaa täyttää. Ja pahimmillaan tuosta eteenpäin homma toimii niin että lomake lähtee seuraavalle ihmiselle PDF-lomakkeena ja hän sitten manuaalisesti naputtelee tiedot laskutusjärjestelmään sun muihin järjestelmiin vaikka sekin olisi samalla voitu automatisoida.

Eli tuollaisen digisiirtymän voi tehdä hyvin, miettimällä koko prosessi uusiksi tai sitten vaan siirtää paperilomake sähköiseksi ja työmäärä pysyy samana kuin ennenkin eikä sillä saavuteta mitään aika- tai kustannussäästöjä.
Toki PDF:kin tukee osittaista koneellista käsittelyä. PDF-lomake mahdollistaa syötteen rakenteistamista, rajaamista ja lomakkeen lukemisen koneellisesti. Syötteen validointi on vähän puutteellista. Tiedostoja joutuu manuaalisesti pyörittelemään. Asiakkaat voivat myös lähettää takaisin sellaisia PDF-tiedostoja, joissa kaikki rakenteinen data on kadonnut ja lomake pitää lukea käsin printistä. Tietoturvan huolehtiminen jää asiakkaankin vastuulle. Hyvänä puolena tuossa on offline-käyttö ja sen manuaalisen työn takia siinä ei ole samanlaista bittiruton mahdollisuutta kuin digipalveluissa. Kun palveluita on digitalisoitu, kyllä tuokin on ollut ihan hyödyllinen kehitysvaihe. Varsinkin julkisella puolellahan palveluiden uudelleenkehityksen tarve on jatkuvaa ja Vitjan ja Digionen tapaiset epäonnistumiset kyllä syövät paljon niitä etuja mitä saavutetaan kun käyttöliittymä on tehty Nodella, Reactilla, Tailwindilla ja muilla 1-2 viime viikon aikana hitiksi nousseilla js-kirjastoilla.

Toki varmaan niitäkin organisaatioita vielä 2024 on, jotka keksivät nyt ekaa kertaa, että rtf/doc-formaatin sijaan lomakkeet voi tarjota pdf:nä, niin ne näyttävät printattuna samana ilman että tarvii olla sama 16 vuotta vanha mustavalkolaser rinnakkaisporttiin kytkettynä 300 dpi:n asetuksilla kuten siellä virastossa. Edelläkävijät hoksasivat tuon jo 40 vuotta sitten.
 

jad

Liittynyt
22.10.2016
Viestejä
1 271
Yksi ei niin hyvin loppuun asti mietitty tai toteutettu digitalisaatio on lupapiste.fi Kunnat on pitkäli siirtyneet käyttämään vain lupapisteen kautta lähetettyjä lupahakemuksia. Erittäin hyvä ja asioita nopauttava digiloikka. Teoriassa.

Esimerkiksi kunta vaatii toimenpideluvan hakemista, jos kaava-alueella haluat rakentaa katetun terassin takapihalle. Helppo homma, tee tunnukset lupapisteeseen, täytä hakemus ja se on siinä. Kilinvitut.

Työnjohtaja ? Minä ? Ei, pitää olla veronumero. Mihin rakennusjätteet toimitetaan ? Mitkä rakennusjätteet ? Kuka tekee lopputarkastuksen ? Piirrustuksen laatija ? Ei, et ole arkkitehti. Vitut, rakennetaan ilman lupaa. :D

Palvelua toteutettaessa on ollut mielessä vain suuret rakennushankkeet, joita toteuttaa ammattilaiset ja tavallinen ihminen on unohdettu kokonaan.
 
Toggle Sidebar

Statistiikka

Viestiketjut
252 697
Viestejä
4 399 145
Jäsenet
73 046
Uusin jäsen
Harmaaparta

Hinta.fi

Ylös Bottom