Digitalisaatio - hyvät ja huonot puolet

Liittynyt
02.08.2022
Viestejä
190
Legacy-koodit eivät tiedä tällaisesta mitään vaan ne on kirjoitettu oletuksella 1 tavu = 1 merkki. On vähän vaikeaa arvioida miten paljon tämän oletuksen särkyminen rikkoo koodia. Eihän esim. alimerkkijonoihin pääse enää käsiksi suoraan indeksoimalla (esim. tekstirivillä 5 saraketta vakiopaikoissa ja halutaan poimia 4. sarakkeessa oleva numero ja konvertoida se liukuluvuksi). Hyvin tavallinen tehtävä, kun luetaan tekstitiedostosta dataa sisään. Toki voi pitäytyä ASCII-merkistössä mutta entäs kun 2. sarakkeessa lukeekin "Hyvinkää"?

Ihanko varmasti, jos käytetään jotain binääriä (esim. vanha kirjasto), jossa nämä kutsut on inline-optimoitu suoraan assembleriksi? Enää näin ei voi tehdä, jolloin suorituskyky kärsii.

Ehkä toimii, jos todella kutsutaan jotain funktiota mutta monet merkkijonofunktiot on tehty inline-assemblerina. Ei taida toimia, jos on koodattu jokin toiminnallisuus itse käsin.
Legacy-ohjelma, joka ei tiedä UTF-8'sta mitään, näkee nuo enkoodatut pätkät tilanvarauksensa mukaisina hivenen pitempinä pätkinä. Pääsääntöisesti tuo ei haittaa mitään. Esimerkiksi tuota tekstitiedostoa (vaikka CSV) parsiessa etsit jonkinlaisia column-markereita, joilla jaat tekstin sarakkeiksi. Nuo löytyvät ihan samalla tavalla kuin ennenkin. Se "hyvinkää" parsiutuu sieltä ihan oikein. strlen() palauttaa sille oikean tilanvarauksen mukaisen arvon, jolla voi tarvittaessa varata oikean määrän muistia. Ja vaikka strncpy kopioi sen varattuun bufferiin oikein, vaikka sovellus ei ole ikinä unicodesta kuullutkaan. Ja ei haittaa, vaikka kaikki nuo olisi inlinetetty binääriin, se strlen on edelleen ihan sama toteutus.

Sitten jos sulla on vaikka legacy tekstieditori, niin toki sillä saa generoitua rikkinäisiä utf-8 payloadeja: menet vaikka lisäämään välilyönnin keskelle tuollaista enkoodattua blobia. Mutta niiden esimerkiksi deletoiminen tai copy-paste toimii ihan oikein. Tällainen käyttötapaus sopii hyvin tilanteeseen, jossa tiedoston payload on pääasiassa ASCII, mutta voi sisältää pieniä määriä muita merkkejä.
 
Liittynyt
02.08.2022
Viestejä
190
Unicode on tarpeellinen tapauksissa, joissa saman dokumentin on pystyttävä näyttämään eri kirjoitusjärjestelmien merkkejä, siis esimerkiksi sekä koodisivulta IBM850 että japanilaisten kirjoitusjärjestelmästä löytyviä merkkejä.
Hyöty unicodesta tulee jo ihan siitä, että jokaisen tiedoston mukana ei tarvitse erikseen olla jossain toisaalla metatietona, millä koodisivulla se on kirjoitettu. Ääkköset ja muutkin yli 128'n olevat merkit menevät heti pieleen, jos tietoa siirtäessä lähettäjä ja vastaanottaja käyttävät eri koodisivua. UTF-8 pystyy esittämään kerralla kaikki unicode-speksin määrittelemät merkit, ei pelkkää 256-merkin subsettia. No, meille Suomessa on tuttua jo kymmenien vuosien takaa, että ääkköset voivat mennä pieleen, mutta käytännössä nämä paikat ovat koko ajan vähentyneet. Ja tässä unicode on ratkaisu, ei ongelma. Ongelma ovat nuo toisistaan irralliset 8-bittiset merkistöt.

Ja näinä päivinä tietty ihan mikä teksti vaan voi sisältää vaikka hymiöitä.
 
Liittynyt
16.10.2016
Viestejä
17 084
Hyöty unicodesta tulee jo ihan siitä, että jokaisen tiedoston mukana ei tarvitse erikseen olla jossain toisaalla metatietona, millä koodisivulla se on kirjoitettu. Ääkköset ja muutkin yli 128'n olevat merkit menevät heti pieleen, jos tietoa siirtäessä lähettäjä ja vastaanottaja käyttävät eri koodisivua. UTF-8 pystyy esittämään kerralla kaikki unicode-speksin määrittelemät merkit, ei pelkkää 256-merkin subsettia. No, meille Suomessa on tuttua jo kymmenien vuosien takaa, että ääkköset voivat mennä pieleen, mutta käytännössä nämä paikat ovat koko ajan vähentyneet. Ja tässä unicode on ratkaisu, ei ongelma. Ongelma ovat nuo toisistaan irralliset 8-bittiset merkistöt.

Ja näinä päivinä tietty ihan mikä teksti vaan voi sisältää vaikka hymiöitä.
Puhumattakaan siitä, että noin 2/3 maailmasta käyttää jotain muita aakkosia kuin latinalaisia.
 
Viimeksi muokattu:
Liittynyt
17.10.2016
Viestejä
15 369
Hämmentävää lukea, että joku haikailee suppeita merkistöjä, jotka eivät siis kykene kattamaan edes kaikkia länsieurooppalaisten kielien tarvitsemia merkkejä, puhumattakaan muusta maailmasta. Se, että ohjelmoija on paska eikä kykene toimimaan UTF-8:n kanssa ja on saanut oppinsa 80-luvulla ei ole mikään peruste luopua siitä ja palata johonkin puutteellisen Latin-1:een. Devaaja on hyvä ja siirtyy 2000-luvulle. UTF-8-enkoodaus on todella toimiva ratkaisu, eikä ihme että se on saavuttanut laajan tuen.

Mutta miten ihmeessä tämä nyt sitten liittyy digitalisaatioon? En tiedä. Taas jotain ihme vänkäämistä uusista ja vanhoista protokollista, mikä varmaan kuuluisi jonnekin muualle. EDIT: No ehkä niin, että merkistöongelmat olivat ihan oikea ja paha ongelma digitalisaation alkuvaiheessa: nimet olivat väärin, vieraskieliset sanat oli väärin, piti muuttaa kirjaimia vääriksi ja sen jälkeen samalla sanalla olikin useita kirjoitusasuja ja haku ei toiminut oikein, sama sana näkyi eri tavalla eri käyttäjille jne. UTF-8 ja tietenkin Unicode ovat tuoneet tähän todella hyvän ja toimivan ratkaisun. EI nyt jumalauta kukaan tervejärkinen voi kaivata jotain vanhoja merkistöjä :facepalm:
 
Viimeksi muokattu:
Liittynyt
16.10.2016
Viestejä
17 084
Legacy-koodit eivät tiedä tällaisesta mitään vaan ne on kirjoitettu oletuksella 1 tavu = 1 merkki. On vähän vaikeaa arvioida miten paljon tämän oletuksen särkyminen rikkoo koodia. Eihän esim. alimerkkijonoihin pääse enää käsiksi suoraan indeksoimalla (esim. tekstirivillä 5 saraketta vakiopaikoissa ja halutaan poimia 4. sarakkeessa oleva numero ja konvertoida se liukuluvuksi). Hyvin tavallinen tehtävä, kun luetaan tekstitiedostosta dataa sisään. Toki voi pitäytyä ASCII-merkistössä mutta entäs kun 2. sarakkeessa lukeekin "Hyvinkää"?
Tai jos siinä lukeekin 北京 tai 東京都. Puhumattakaan جِدَّة‎ tai תל אביב. Sitten on toki myös Αθήνα ja Hà Nội.
Suht nopeasti huomataan, että tuollaisia yksinkertaistuksia sisältävät legacy-koodit kuuluvat sinne roskakoriin kaksinumeroisten vuosilukujen ja 32 bittisten aikaleimojen kanssa.
 
Viimeksi muokattu:
Liittynyt
08.12.2017
Viestejä
1 546
Eleganttius ottaa merkittävää osumaa, jos/kun olemassaolevaa koodia menee rikki.

Legacy-koodit eivät tiedä tällaisesta mitään vaan ne on kirjoitettu oletuksella 1 tavu = 1 merkki. On vähän vaikeaa arvioida miten paljon tämän oletuksen särkyminen rikkoo koodia. Eihän esim. alimerkkijonoihin pääse enää käsiksi suoraan indeksoimalla (esim. tekstirivillä 5 saraketta vakiopaikoissa ja halutaan poimia 4. sarakkeessa oleva numero ja konvertoida se liukuluvuksi). Hyvin tavallinen tehtävä, kun luetaan tekstitiedostosta dataa sisään. Toki voi pitäytyä ASCII-merkistössä mutta entäs kun 2. sarakkeessa lukeekin "Hyvinkää"?

Ihanko varmasti, jos käytetään jotain binääriä (esim. vanha kirjasto), jossa nämä kutsut on inline-optimoitu suoraan assembleriksi? Enää näin ei voi tehdä, jolloin suorituskyky kärsii.

Ehkä toimii, jos todella kutsutaan jotain funktiota mutta monet merkkijonofunktiot on tehty inline-assemblerina. Ei taida toimia, jos on koodattu jokin toiminnallisuus itse käsin.
Vanhaa koodia menee jatkuvasti rikki, kun vaatimukset muuttuvat. Esim. merkistöistä jos luet lisää, huomaat että se "vanha" ei ollut 8 bittiä vaan ASCII oli 7 bittiä ja kahdeksas saattoi olla esimerkiksi virheenkorjaukseen pariteetti. 8-bittiset merkistöt kyllä rikkoivat yhteensopivuutta myös jos oletus oli että merkit ovat 7-bittisiä ja esim. kirjaimet ovat väleillä a-z ja A-Z. Ääkköset kun eivät kuulu noihin väleihin. 128 merkkiin on aika paha sovittaa montaakaan kieltä, kun mukana on ohjausmerkkejäkin.

Oikeastaan toit aika hyvin esille parikin virhekäsitystä - C-tyylinen tapa koodata merkkijonot 0-loppuisiksi ilman pituustietoa on tehoton ja tietoturvaongelmille altis paskakoodaus. Samoin tekstin käsittely inline assyllä. Tietoturvasyistä tällainen pitäisi lopettaa kuten myös näitä tekevät koodarit. Toinen pointti on että kovinkaan usein tekstiin ei sovelleta merkkikohtaisella indeksoinnilla hajasaantia vaan teksti käydään läpi kokonaisuutena tai jollain muulla tavalla (esim. rivinvaihdot), jotka kuitenkin vaativat läpikäyntiä. Vaihtelevanpituiset merkit tuovat miinuspuolia, mutta myös etuja. Merkkijonoja kannattaisi C-tyylin sijaan käsitellä aina pituustiedolla, koska vaikka siinä on hieman enemmän kirjanpitoa, strlen-tyylinen nopeutuu O(n)-ajallisesta O(1)-aikaiseksi ja monet oikeasti raskaat operaatiot voi optimoida menemään vektoreilla tai muuten kevyemmällä muistikuormalla, kun ei tarvitse lukea jonoa haarautumisen päättämiseksi.

Digitalisaation kannalta on hyvä jos merkistöt ovat monikäyttöisiä. Se että joku MUMPSin 1960-luvun 8-bittinen paskakoodi toimii vielä 2230 ilman tarvetta muokata jotain 8-bittistä assyä on enemmän joku (kaulaparta)koodarien eroottinen fantasia.
 
Liittynyt
03.06.2022
Viestejä
943
Offtopic seis ja keskittykää ketjun aiheeseen, kiitos.
Kun katson ylläolevaa kommentointia, niin minusta alkaa näyttää siltä, että pakkodigitalisaation ydinongelma ei ehkä olekaan analogisen pakottaminen digitaaliseksi vaan yleisemmin kaiken vanhan pakottaminen uudeksi, hinnasta ja seurauksista piittaamatta. Legacy on kirosana ja paskaa riippumatta siitä onko kyse pahvikortistosta, analogisesta radiosta vai VAXille tehdystä, Linuxille portatusta tietokannasta. Pelkkä digitalisaatio ei olekaan riittävää, vaan pitää olla uudenaikaista digitalisaatiota. Lähinnä tällaisesta asennoitumisesta tulee mieleen Maon kulttuurivallankumous, jossa vanha historia tuhottiin aktiivisesti ja yritettiin korvata uudella, kommunistisella tulevaisuudella.

Porukka ilkkuu sille, että uusien maailmanstandardien pakottaminen kaikkeen särkee toimivia tietojärjestelmiä, eikä haitoilla ja kustannuksilla ole väliä. Esim. tällainen, uudenaikaisesti koodattu kartta on tosi hyödyllinen eurooppalaiselle:
Screenshot at 2024-09-11 20-39-01.png
 

Kautium

IOdootti
Tukijäsen
Liittynyt
16.10.2016
Viestejä
20 515
...pakkodigitalisaation ydinongelma ei ehkä olekaan analogisen pakottaminen digitaaliseksi vaan yleisemmin kaiken vanhan pakottaminen uudeksi, hinnasta ja seurauksista piittaamatta.
Väärin, ei kukaan ole haluamassa "kaiken vanhan pakottamista uudeksi, hinnasta ja seurauksista piittaamatta". Kyse on siitä, että halutaan vanhentuneiden menetelmien korvaamista tehokkaammilla, nopeammilla, käytettävämmillä ja modulaarisemmilla.

Aina uusi ei tietenkään ole kaikessa parempi, mutta kehitys kehittyy, eikä yleensä kuitenkaan mennä kokonaisuutena taaksepäin, vaikka ei kertalaakista priimaa tulisikaan.

Legacy on kirosana ja paskaa riippumatta siitä onko kyse pahvikortistosta, analogisesta radiosta vai VAXille tehdystä, Linuxille portatusta tietokannasta.
Niin no, lähtökohtaisesti legacy nimenomaan on paskaa, jos ei kyse ole jostakin sellaisesta asiasta, jota ei nykypäivänä ole mahdollista korvata paremmalla. Paikallaan jumittamisen ei pidä olla itseisarvo, eikä varsinkaan jos takana on vain muutosvastarintaa, tai yksittäisten dinosaurusten vanhoillisia ajatusmalleja.
 
Liittynyt
21.04.2020
Viestejä
1 997
Väärin, ei kukaan ole haluamassa "kaiken vanhan pakottamista uudeksi, hinnasta ja seurauksista piittaamatta". Kyse on siitä, että halutaan vanhentuneiden menetelmien korvaamista tehokkaammilla, nopeammilla, käytettävämmillä ja modulaarisemmilla.
Tuolta se käyttäjälle monesti näyttää että pääasia että vaan uudistetaan. Sen lisäksi kun ne uuden järjestelmän opettelut tulee muiden töiden päälle eikä muita töitä korvaavasti. Hyödytkin jää kysymysmerkiksi käyttäjälle kun pääsääntöisesti käyttöliittymät nykyisin huononee, mikä taas tekee valtavia kustannuksia kun kukaan ei osaa käyttää, ja päivityksessä valikot sotketaan tms.

Ainakin itsellä on ollu ainakin 15 vuotta väsymys turhanpäiväiseen opetteluun erityisesti tietotekniikan kanssa...joskus teininä vielä jaksoi.
 
Liittynyt
19.10.2016
Viestejä
824
Hyöty unicodesta tulee jo ihan siitä, että jokaisen tiedoston mukana ei tarvitse erikseen olla jossain toisaalla metatietona, millä koodisivulla se on kirjoitettu.
Mutta pitää kuitenkin olla metatieto siitä, että se on unicodea - ja myös siitä, mitä unicoden tyyppiä ja versiota se on. Mikään ei siis ole muuttunut.


Hämmentävää lukea, että joku haikailee suppeita merkistöjä, jotka eivät siis kykene kattamaan edes kaikkia länsieurooppalaisten kielien tarvitsemia merkkejä, puhumattakaan muusta maailmasta. Se, että ohjelmoija on paska eikä kykene toimimaan UTF-8:n kanssa ja on saanut oppinsa 80-luvulla ei ole mikään peruste luopua siitä ja palata johonkin puutteellisen Latin-1:een. Devaaja on hyvä ja siirtyy 2000-luvulle. UTF-8-enkoodaus on todella toimiva ratkaisu, eikä ihme että se on saavuttanut laajan tuen.
Edellisessä viestissäni jo kerroin, miksi unicoden pitäminen oletuksena ei ole hyvä asia. Se tekee ihan konkreettisia tietoturvariskejä ja on ongelmallinen myös käyttäjien tuottaman sisällön kanssa esimerkiksi foorumeilla ja vieraskirjoissa. Unicode on kyllä hyvä asia silloin, kun sitä tarvitaan, ja ilman unicodea moni asia olisi hankalampaa. Kuitenkin tuollainen kaikkien pakottaminen unicoden käyttäjiksi on vastenmielistä ja tuottaa enemmän ongelmia kuin ratkaisee niistä.

Ja ovathan ne tasapituiset merkistöt aina myös helpompia implementoida.

Oikeastaan toit aika hyvin esille parikin virhekäsitystä - C-tyylinen tapa koodata merkkijonot 0-loppuisiksi ilman pituustietoa on tehoton
Itse asiassa nollaloppuiset merkkijonot ovat kyllä ainakin x86-alustalla varsin nopeita käsitellä. Siitä voisikin tehdä jonkinlaisen vertailun, että kumpaan menee enemmän kellosyklejä, PASCAL-tyyppisiin merkkijonoihin joissa pituustieto on alussa kokonaislukuna vai C-tyyppisiin merkkijonoihin jotka loppuvat nollatavuun. Edellämainituissa on muuten melko merkittävänä sellainen ongelma, että sen pituustiedon bittileveys pitää tietää jostain, ennen kuin koko merkkijonoa voi edes alkaa käsittelemään.
 
Viimeksi muokattu:
Liittynyt
10.01.2019
Viestejä
18 323
....

Porukka ilkkuu sille, että uusien maailmanstandardien pakottaminen kaikkeen särkee toimivia tietojärjestelmiä, eikä haitoilla ja kustannuksilla ole väliä. Esim. tällainen, uudenaikaisesti koodattu kartta on tosi hyödyllinen eurooppalaiselle:
Nyt ei tuo karttajuttu avaudu, png kuvatiedosto, otsikkoon liittyen haikailetko paperisia.
Digitaaliset kartat ovat olle vuosikausia ihan muuta kuin pikselikuvatiedostoja.


Mutta pitää kuitenkin olla metatieto siitä, että se on unicodea - ja myös siitä, mitä unicoden tyyppiä ja versiota se on. Mikään ei siis ole muuttunut.
....
Ymmärsin että moderointi nimenomaan kielsi merkistö keskustelun

Offtopic seis ja keskittykää ketjun aiheeseen, kiitos.
 
Liittynyt
17.10.2016
Viestejä
5 460
Nyt ei tuo karttajuttu avaudu, png kuvatiedosto, otsikkoon liittyen haikailetko paperisia.
Digitaaliset kartat ovat olle vuosikausia ihan muuta kuin pikselikuvatiedostoja.
Veikkaan että tuossa oli pointti että nuo paikkojen nimet on paikallisilla koukeroilla eikä latinalaisilla aakkosilla. Eli merkistöjuttua tämäkin.
 
Liittynyt
28.12.2019
Viestejä
3 265
Digitalisaatio tarkoittaa laajempaa yhteiskunnallista muutosta, joka tapahtuu, kun perinteisiä analogisia toimintoja ja prosesseja korvataan digitaalisilla ratkaisuilla ja teknologioilla. Digitalisaatio voi vaikuttaa monilla eri aloilla, kuten terveydenhuollossa, koulutuksessa, liiketoiminnassa ja julkishallinnossa. Esimerkiksi ostaminen netissä, etätyö ja viranomaisten viestintä sosiaalisessa mediassa ovat digitalisaatiota

Digitalisoinnilla puolestaan tarkoitetaan tietokoneiden ja datan hyödyntämistä toimintaan tai kehittämiseen. Esimerkiksi sähköpostitse viestiminen, verkkokaupan rakentaminen tai valokuvaaminen puhelimella ovat digitalisointia.
Lähde

Eikö olisi jo sama sulkea lopullisesti tämä lanka, kun ei tämä kerta kaikkiaan tunnu pysyvän aiheessa? Tredin aloittaja itse vie kerta toisensa jälkeen keskustelun aivan väärille raiteille, ja sitten porukkaa lähtee mukaan tähän offtopic-vänkäykseen..
 
Liittynyt
17.10.2016
Viestejä
6 034
Veikkaan että tuossa oli pointti että nuo paikkojen nimet on paikallisilla koukeroilla eikä latinalaisilla aakkosilla. Eli merkistöjuttua tämäkin.
Tuo kartta näyttäisi kovasti openstreetmap-kartalta. Samassa kartassa on eri kieliset maiden ja paikkojen nimet olemassa karttadatassa, on vain visualisoinnista kiinni minkä maan kielellä nuo tulevat näkyviin. Teoriassa kuka tahansa voi tehdä oman kartan openstreetmap-kartta-aineistosta haluamallaan kielellä. En siis sanoisi tuota ongelmaksi tai huonoksi puoleksi, päin vastoin on kätevää että samassa kartta-aineistossa on nimistö monella kielellä niin voi käyttää sitä kieltä mitä haluaa. Se, että jollain netin karttasivulla kiinalaiset paikat näkyy kiinan kielellä on vain sen kyseisen karttapalvelun visualisoinnin ominaisuus.
 
Liittynyt
19.10.2016
Viestejä
824
Kyllä merkistöt nimenomaan liittyvät digitalisaatioon - aina kun käsitellään tekstiä digitaalisessa muodossa, niin ollaan merkistöjen kanssa tekemisissä. Tuo "asia X ei liity digitalisaatioon" -huutelu tuntuu olevan eräille vain tapa vaientaa keskustelu, jos se lähtee menemään faktojen osalta omasta mielestä epämieluisaan suuntaan.
 
Liittynyt
16.10.2016
Viestejä
17 084
Kyllä merkistöt nimenomaan liittyvät digitalisaatioon - aina kun käsitellään tekstiä digitaalisessa muodossa, niin ollaan merkistöjen kanssa tekemisissä. Tuo "asia X ei liity digitalisaatioon" -huutelu tuntuu olevan eräille vain tapa vaientaa keskustelu, jos se lähtee menemään faktojen osalta omasta mielestä epämieluisaan suuntaan.
@Juha Kokkonen voi varmaan sitten tarkemmin ohjeistaa, että mikä lasketaan offtopiciksi ja mikä ei, kerta vissiin väellä on jotain epäselvyyksiä asian suhteen.
 
Liittynyt
17.10.2016
Viestejä
15 369
@Juha Kokkonen voi varmaan sitten tarkemmin ohjeistaa, että mikä lasketaan offtopiciksi ja mikä ei, kerta vissiin väellä on jotain epäselvyyksiä asian suhteen.
Tämä. Kaikki tietokoneisiin liittyvä ei liity digitalisaatioon. Muutoin koko ketjussa ei olisi mitään järkeä kun tästä tulee vain IT-ongelmien kaatopaikka tai huru-ukkojen haikailuketju kuinka kaikki oli ennen paremmin kun ääkköset eivät toimineet ja nettiyhteys ei ollut salattu.

Digitalisaatio liittyy siihen kun aiemmin "analogisia asioita" on alettu tehdä digitaalisesti ja samalla mahdollistettu kokonaan uusia palveluita tai ominaisuuksia. Tämä siirtymä ja vertailu analogisen ja digitaalisen välillä liittyy ketjuun. Muu vollotus sitten omiin ketjuihin. Ja jos haluaa perustaa jonkun "Ennen oli ATK:ssa kaikki paremmin"-valitusketjun, niin siitä vain. Siellä voi sitten jatkaa ISO/IEC 8859-1:n kaipailuja.
 

Juha Kokkonen

Ylläpidon jäsen
Liittynyt
17.10.2016
Viestejä
13 753
Kyllä merkistöt nimenomaan liittyvät digitalisaatioon - aina kun käsitellään tekstiä digitaalisessa muodossa, niin ollaan merkistöjen kanssa tekemisissä. Tuo "asia X ei liity digitalisaatioon" -huutelu tuntuu olevan eräille vain tapa vaientaa keskustelu, jos se lähtee menemään faktojen osalta omasta mielestä epämieluisaan suuntaan.
@Juha Kokkonen voi varmaan sitten tarkemmin ohjeistaa, että mikä lasketaan offtopiciksi ja mikä ei, kerta vissiin väellä on jotain epäselvyyksiä asian suhteen.
Tämä. Kaikki tietokoneisiin liittyvä ei liity digitalisaatioon. Muutoin koko ketjussa ei olisi mitään järkeä kun tästä tulee vain IT-ongelmien kaatopaikka tai huru-ukkojen haikailuketju kuinka kaikki oli ennen paremmin kun ääkköset eivät toimineet ja nettiyhteys ei ollut salattu.

Digitalisaatio liittyy siihen kun aiemmin "analogisia asioita" on alettu tehdä digitaalisesti ja samalla mahdollistettu kokonaan uusia palveluita tai ominaisuuksia. Tämä siirtymä ja vertailu analogisen ja digitaalisen välillä liittyy ketjuun. Muu vollotus sitten omiin ketjuihin. Ja jos haluaa perustaa jonkun "Ennen oli ATK:ssa kaikki paremmin"-valitusketjun, niin siitä vain. Siellä voi sitten jatkaa ISO/IEC 8859-1:n kaipailuja.
Ketjun aloituspostauksessa on nähdäkseni pohjustettu varsin selvästi mitä digitalisaatio tarkoittaa ja asiaa on myös ketjussa jo useita kertoja ohjeistettu.
 
Liittynyt
17.10.2016
Viestejä
1 214
Kun katson ylläolevaa kommentointia, niin minusta alkaa näyttää siltä, että pakkodigitalisaation ydinongelma ei ehkä olekaan analogisen pakottaminen digitaaliseksi vaan yleisemmin kaiken vanhan pakottaminen uudeksi, hinnasta ja seurauksista piittaamatta. Legacy on kirosana ja paskaa riippumatta siitä onko kyse pahvikortistosta, analogisesta radiosta vai VAXille tehdystä, Linuxille portatusta tietokannasta. Pelkkä digitalisaatio ei olekaan riittävää, vaan pitää olla uudenaikaista digitalisaatiota. Lähinnä tällaisesta asennoitumisesta tulee mieleen Maon kulttuurivallankumous, jossa vanha historia tuhottiin aktiivisesti ja yritettiin korvata uudella, kommunistisella tulevaisuudella.

Porukka ilkkuu sille, että uusien maailmanstandardien pakottaminen kaikkeen särkee toimivia tietojärjestelmiä, eikä haitoilla ja kustannuksilla ole väliä. Esim. tällainen, uudenaikaisesti koodattu kartta on tosi hyödyllinen eurooppalaiselle:
Meinaatko että paperikarttojen aikakaudella esim. kiinalaisten ja japanilaisten kartat, ja miksei kaikkien muunmaalaistenkin kartat, on aina ollut selvällä suomen kielellä? Onhan se nyt selvää, että esim. pohjoismaisten naapuriemme pääkaupunkien nimet ovat nimenomaan Tukholma ja Kööpenhamina.
 
Liittynyt
16.10.2016
Viestejä
17 084
Mutta pitää kuitenkin olla metatieto siitä, että se on unicodea - ja myös siitä, mitä unicoden tyyppiä ja versiota se on. Mikään ei siis ole muuttunut.



Edellisessä viestissäni jo kerroin, miksi unicoden pitäminen oletuksena ei ole hyvä asia. Se tekee ihan konkreettisia tietoturvariskejä ja on ongelmallinen myös käyttäjien tuottaman sisällön kanssa esimerkiksi foorumeilla ja vieraskirjoissa. Unicode on kyllä hyvä asia silloin, kun sitä tarvitaan, ja ilman unicodea moni asia olisi hankalampaa. Kuitenkin tuollainen kaikkien pakottaminen unicoden käyttäjiksi on vastenmielistä ja tuottaa enemmän ongelmia kuin ratkaisee niistä.

Ja ovathan ne tasapituiset merkistöt aina myös helpompia implementoida.


Itse asiassa nollaloppuiset merkkijonot ovat kyllä ainakin x86-alustalla varsin nopeita käsitellä. Siitä voisikin tehdä jonkinlaisen vertailun, että kumpaan menee enemmän kellosyklejä, PASCAL-tyyppisiin merkkijonoihin joissa pituustieto on alussa kokonaislukuna vai C-tyyppisiin merkkijonoihin jotka loppuvat nollatavuun. Edellämainituissa on muuten melko merkittävänä sellainen ongelma, että sen pituustiedon bittileveys pitää tietää jostain, ennen kuin koko merkkijonoa voi edes alkaa käsittelemään.
Loin aiheelle ihan oman ketjunsa oikeaan paikkaan:

 
Liittynyt
05.05.2017
Viestejä
1 106
Tietääkö joku, miksi Nordean piti väenväkisin korvata oikein hyvin toiminut Solo tällä uudella Netbank-kötöstyksellä?
Veikkaisin ainakin näitä: Koska kyse ei ole pelkästä verkkopankin käyttöliittymän uusimisesta ja koska Nordealla on asiakkaita useassa maassa. Siellähän tehtiin mm. iso core banking -uudistus, niin siihen on varmasti kytkös. Ja Solo on peruja ajalta, jolloin maiden toiminnot olivat suurelta osin erillisiä.
 
Liittynyt
03.06.2022
Viestejä
943
Digitalisaatio liittyy siihen kun aiemmin "analogisia asioita" on alettu tehdä digitaalisesti ja samalla mahdollistettu kokonaan uusia palveluita tai ominaisuuksia. Tämä siirtymä ja vertailu analogisen ja digitaalisen välillä liittyy ketjuun. Muu vollotus sitten omiin ketjuihin. Ja jos haluaa perustaa jonkun "Ennen oli ATK:ssa kaikki paremmin"-valitusketjun, niin siitä vain. Siellä voi sitten jatkaa ISO/IEC 8859-1:n kaipailuja.
Mitä tämän otsikon alle sinun mielestäsi sitten kuuluu?

Historian muisteluna toki paljonkin: pankit digitalisoituivat 70-80-luvulla, analogi-TV heivattiin sivuun 00-luvulla (tosin teksti-tv tuli 80-luvulla ja NICAM 90-luvun alussa), lankapuhelimet digitalisoituivat 80-luvulla viimeistä mailia lukuunottamatta ja toihan äänivalinta digin kotiinkin, GSM tuli 90-luvulla. CD-soitin on 80-luvun alusta ja iso kotien digitalisaatioaalto oli 80-luvun kuusnepat ja spektrumit ja myöhemmin pleikat. Tätä ennen videopelit. Autojen moottorinohjaus digitalisoitui viimeistään 90-luvulla. Matkatoimistot kai 80-luvulla? Taskulaskimet tulivat 70-luvulla.

Merkittäviltä osin maailma digitalisoitui 80-luvulla ja viimeistään 90-luvulla. Digitalisaatio alkoi isossa määrin 60-luvulla, kun tietokoneita alettiin hankkia julkishallintoon ja isompiin yrityksiin.

Eli mitä keskusteltavaa tässä enää on, jos rajaudutaan tiukasti analogin korvaamiseen digillä? Analogi-radion kohtalo? Mitä merkittävää digitalisaatiota muka on 2020-luvulla?
Keskusteltavaa olisi aika paljon enemmän, jos mukana olisi myös digitalisaation sukupolvet.

Väärin, ei kukaan ole haluamassa "kaiken vanhan pakottamista uudeksi, hinnasta ja seurauksista piittaamatta". Kyse on siitä, että halutaan vanhentuneiden menetelmien korvaamista tehokkaammilla, nopeammilla, käytettävämmillä ja modulaarisemmilla.
Ootapa. Aika paljon isoja, tärkeitä asioita on digitalisoitu 80-luvun tietotekniikalla. Silloin on ollut kortilla muisti, CPU-teho ja tallennustila. Ihanko tosissasi väität, että nykyaikaiset menetelmät olisivat tehokkaampia ja nopeampia kuin vanhat? :rofl:

Ennen on pitänyt oikeasti miettiä resurssien riittävyyttä. Lisäresurssien hankkiminen kun ei ole ollut ihan ilmaista ja rajansa on ollut silläkin mitä saa edes rahalla.

Meinaatko että paperikarttojen aikakaudella esim. kiinalaisten ja japanilaisten kartat, ja miksei kaikkien muunmaalaistenkin kartat, on aina ollut selvällä suomen kielellä?
Kun kartta (tai muu aineisto) renderöidään eurooppalaiselle, on luonnollista, että tekstit translitteroidaan latinalaiselle merkistölle. Ei kukaan täällä ymmärrä jotain burmalaisia koukeroita.
 
Toggle Sidebar

Statistiikka

Viestiketjut
252 685
Viestejä
4 400 638
Jäsenet
73 032
Uusin jäsen
tetkiq

Hinta.fi

Ylös Bottom