Merkistöistä

  • Keskustelun aloittaja Keskustelun aloittaja JCSH
  • Aloitettu Aloitettu
Pointtina ei ole se, että se tiedonsiirto olisi muka uusi juttu. Pointtina on se, että sille tiedonsiirrolle on tullut uusia vaatimuksia sitä mukaa kun niiden tietojärjestelmien käyttö laajenee.
Toistan nyt ties kuinka monennen kerran:
Pelkästään EU:n sisällä tarvitaan 4 eri 8-bittistä legacymerkistöä. Tai siis tarvittaisin, jos ei olisi sitä Unicodea. Mutta koska se Unicode löytyy, niin sitä käytetään, ja sillä vältetään kaikki ne ongelmat, mitä monien eri 8-bittisten merkistöjen sekakäytöstä tuli aiemmin. Eli verottajankin softat ovat hyvä esimerkki paikasta, jossa sille Unicodelle on nykyaikana oikeasti tarvetta.
Erittäin suurelle osalle tietojenkäsittelyä 4 eri legacymerkistöä ei ole olennainen ongelma. Osaltaan kyse on siitä, että ongelmatilanteille on aikaa sitten kehitetty kelvolliset ratkaisut. Esim. meillä oli ensin lokinsiipi-ASCII, sitten/rinnalla PC-merkistö ja sitten ISO-Latin1. UTF-8 on perfektionistinen ratkaisu, jota ilmankin pärjää monessa. Toki silläkin on paikkansa aidosti kansainvälisessä toiminnassa.
Tuo puhe "UTF-8 viruksesta" alkaa kyllä jo kuulostamaan pahasti foliohattuilulta. Lisäksi tuo kuulostaa siltä, että kerta koko maailma on jo siirtynyt sinne UTF-8:n käyttöön, eikä siitä ole seurannut mitään massiivisia ongelmia, niin sun pitää maalailla jotain näkymättömiä ja toteutumattomia uhkakuvia.
Ei kyse ole siitä, etteikö UTF-8:aa voisi toteuttaa oikein. Tietenkin voi, kunhan koodi tehdään alusta pitäen UTF:n ehdoilla mutta joka tapauksessa koodista tulee tehottomampaa kuin 8-bittisellä merkistöllä. Koodin tehottomuus on ihan oikea ongelma ja toinen oikea ongelma on se, että UTF rikkoo 8-bittiset koodit.

IT:n kuluttama raaka sähköteho alkaa olla konkreettinen ongelma. Osaltaan kyse on laskennasta mutta osansa on myös tekstimuotoisen datan käsittelystä, mm. big datan louhintaa ja AI:n opettamista. Jos aivan perustason tekstitoiminnot on rautatasolla tehottomampia, niin kyllä sille alkaa hintaa kertyä.

Länsimaat saavat kilpailuetua Aasiaan verrattuna, kun voivat käsitellä tekstit 8-bittisinä vaihtuvapituisen UTF:n sijaan. Miksi tämä etu heitetään romukoppaan vapaaehtoisesti?
Lisäksi kuten olen jo aiemmin sanonut, joo, kaikki vanhat legacykoodit eivät toimi Unicoden kanssa. Mutta tuo ei ole mikään syy olla käyttämättä sitä Unicodea uusissa järjestelmissä. Vanhat legacy softat sitten joko muutetaan Unicoden kanssa yhteensopiviksi tai käyttäjien täytyy tietää mitä tekevät.
Miten Fortran tai COBOL tukevat UTF:aa? Koko vakiomuotoisen tietueen käsite menee romukoppaan, jos pitää varautua vaihtuvapituisiin merkkeihin.

COBOLissa näyttää jonkinlaista tukea olevan mutta miten sen käyttö vaikuttaa koodin tehokkuuteen?

Jos on kyse laskentaohjelmista, niin on muuten ihan jäätävä urakka konvertoida joku miljoonarivinen koodi UTF-yhteensopivaksi - ja miksi? Onko se todellakin tehokkaasti käytettyä aikaa, sen sijaan että kehittäisi algoritmeja paremmiksi?

Tuo softa ei toimi kunnolla edes non-unicode ympäristössä. ASCII on 7-bittinen merkistö joka sisältää ainoastaan kirjaimet a-z. Eli edes tavanomaisia ä- ja ö-kirjaimia ei voi käyttää tuon ohjelmiston kanssa.
Pedantisti näin, mutta hyvin harvoin ohjelmisto tekee eroa 7- ja 8-bittisen tekstin välillä. Kun lähdekoodikin on saatavilla, niin voi jopa olla mahdollista osoittaa, että koodi on sellaisenaan 8-bit yhteensopiva.

Ihan triviana, miten kauas historiaan pitää mennä, että CPU olisi tehnyt eroa 7- ja 8-bittisen datan välillä? Esim. 36-bittinen PDP (1966) voisi kai pakata 5 ASCII merkkiä/sana. Tiedonsiirrossa 7bit+pariteetti on ollut yleisempi, mutta jo 80-luvulta lähtien 'historiallisista syistä'. 8bit+pariteetti olisi yhtä lailla mahdollinen, jos halutaan pariteettitarkistus.
 
Erittäin suurelle osalle tietojenkäsittelyä 4 eri legacymerkistöä ei ole olennainen ongelma. Osaltaan kyse on siitä, että ongelmatilanteille on aikaa sitten kehitetty kelvolliset ratkaisut. Esim. meillä oli ensin lokinsiipi-ASCII, sitten/rinnalla PC-merkistö ja sitten ISO-Latin1. UTF-8 on perfektionistinen ratkaisu, jota ilmankin pärjää monessa. Toki silläkin on paikkansa aidosti kansainvälisessä toiminnassa.

Paitsi että ne eivät koskaan olleet mitään kelvollisia ratkaisuja. Ne aiheutti jatkuvasti kaikensorttisia yhteensopivuus ongelmia, rikkinäisiä tai hylättyjä inputteja, korruptoituneita outputteja, merkkien rendaukset päin vittua jne. jne. Tuon takia nykyään käytännössä kukaan ei enää käytä niitä, jos on mahdollisuus käyttää sitä Unicodea. Koska Unicode korjasi nuo ongelmat.
"Aidosti kansainvälinen toiminta". Koko IT-ala on aidosti kansainvälistä. Olen aika varma, että tuonkin viestin kirjoitit jollain kansainvälisille markkinoille tähdätyllä selaimella, jota ajat kansainvälisille markkinoille tähdätyllä käyttöjärjestelmällä, foorumille, joka pyörii kansainvälisille markkinoille tähdätyllä softastackillä.

Ei kyse ole siitä, etteikö UTF-8:aa voisi toteuttaa oikein. Tietenkin voi, kunhan koodi tehdään alusta pitäen UTF:n ehdoilla mutta joka tapauksessa koodista tulee tehottomampaa kuin 8-bittisellä merkistöllä. Koodin tehottomuus on ihan oikea ongelma ja toinen oikea ongelma on se, että UTF rikkoo 8-bittiset koodit.

IT:n kuluttama raaka sähköteho alkaa olla konkreettinen ongelma. Osaltaan kyse on laskennasta mutta osansa on myös tekstimuotoisen datan käsittelystä, mm. big datan louhintaa ja AI:n opettamista. Jos aivan perustason tekstitoiminnot on rautatasolla tehottomampia, niin kyllä sille alkaa hintaa kertyä.

Länsimaat saavat kilpailuetua Aasiaan verrattuna, kun voivat käsitellä tekstit 8-bittisinä vaihtuvapituisen UTF:n sijaan. Miksi tämä etu heitetään romukoppaan vapaaehtoisesti?

AI/ML on esimerkki siitä, miten se Unicode on helvetin tärkeä asia. Jos meillä olisi vielä legacy 8-bittiset merkistöt käytössä, niin tekstipohjaiset ML-mallit pitäisi kouluttaa erikseen jokaiselle eri merkistölle. Sen sijaan, että meillä olisi yksi malli, joka ymmärtää sitä UTF-8 syötettä, meillä olisi se pari tusinaa eri malleja, joista jokainen ymmärtää vain sitä omaa syötemerkistöään. Tuo vasta olisi ajan ja energian tuhlausta.
Lisäksi koska ML:ssä merkkaa se koulutusdatan määrä ja monimuotoisuus, niin kun se koulutusdata jakautuu eri 8-bittisiin merkistöihin, niin jokaisen yksittäisen 8-bittistä tekstiä ymmärtävät mallin koulutusdata suppenee. Joka mitä todennäköisemmin tekee siitä mallista huonommin toimivan. Oikeastaan jos joku ML-malleja treenaava devaaja joutuisi käsittelemään eri 8-bittisiä inputteja, niin olen aika varma, että hän ensimmäisenä ottaisin kaikki ne eri 8-bittiset merkistöt, konvertoisi sen datan Unicodeksi ja sitten kouluttaisi mallinsa sillä.

Taaskin väite kilpailuedusta on täysin irrallaan todellisuudesta. Miten helvetissä me saataisiin kilpailuetua siitä, että tehdään hommat vaikeammin ja vähemmän yhteensopivasti muun maailman kanssa? Nyt kun me länsimaissa käytetään Unicodea, niin me voidaan erittäin helposti myydä ne meidän tekemät softat myös sinne Kiinaan, Japaniin, Koreaan, arabimaihin, jne. jne. jne. Jos me käytettäisiin omissa softissa 8-bittisiä merkistöjä, niin tuo tulisi helvetisti vaikeammaksi.
Kun taaskin sitä Unicodea käyttävä muu maailma pystyisi myymään softaansa niin muuhun maailmaan kuin myös länsimaihinkin. Kerta se Unicode kuitenkin toimisi myös länsimaissa.

Miten Fortran tai COBOL tukevat UTF:aa? Koko vakiomuotoisen tietueen käsite menee romukoppaan, jos pitää varautua vaihtuvapituisiin merkkeihin.

COBOLissa näyttää jonkinlaista tukea olevan mutta miten sen käyttö vaikuttaa koodin tehokkuuteen?

Jos on kyse laskentaohjelmista, niin on muuten ihan jäätävä urakka konvertoida joku miljoonarivinen koodi UTF-yhteensopivaksi - ja miksi? Onko se todellakin tehokkaasti käytettyä aikaa, sen sijaan että kehittäisi algoritmeja paremmiksi?
Kuinka monta kertaa tämä pitää sanoa?
Jos niitä vanhoja softia ei pystytä/ei kannata muuttaa Unicodea tukeviksi, niin sitten niitä ei muuteta. Se ei tarkoita, etteikö uusia softia kannattaisi tehdä Unicoden päälle.
 
Taaskin väite kilpailuedusta on täysin irrallaan todellisuudesta. Miten helvetissä me saataisiin kilpailuetua siitä, että tehdään hommat vaikeammin ja vähemmän yhteensopivasti muun maailman kanssa? Nyt kun me länsimaissa käytetään Unicodea, niin me voidaan erittäin helposti myydä ne meidän tekemät softat myös sinne Kiinaan, Japaniin, Koreaan, arabimaihin, jne. jne. jne. Jos me käytettäisiin omissa softissa 8-bittisiä merkistöjä, niin tuo tulisi helvetisti vaikeammaksi.
Kun taaskin sitä Unicodea käyttävä muu maailma pystyisi myymään softaansa niin muuhun maailmaan kuin myös länsimaihinkin. Kerta se Unicode kuitenkin toimisi myös länsimaissa.

En tuota kilpailuetua lainkaan tajunnut, kansallisesti tehtäisiin jotain viritystä että sujuisi edes meidän kansalliset kielet, joka olisi rikki jo ihan sisämarkkinoilla.
Ihan tarpeeksi jumppaa vanhojen juttujen perässä raahamisessa, joten samaa mieltä että niistä pitäisi päästä eroon, ei luoda lisää samaa ongelmaa.

Ja kansallisesti meillä ehdottoman tärkeää että meidän merkistöt olisi tuettuna ja tukea sitä että niin myös olisi.

Jos jossain tietokannassa on energiasäästöä, niin taitaa usein olla jostain muusta kyse. ja jos on kyse kentistä missä ihmisen luettavaa sisältöä, niin varmaan ihan plussaa että ne on siellä sellaisella merkistöllä mikä tukee sellaisenaan kaikkia. Oli sitten kyse nimestä, katuosoitteesta, sähköposti osoitteesta, niin menee vähän vaikeeksi 8 bittisillä, jos vapaata tekstiä niin samoin. Lähinnä noloa jos joku pikku paikallis kerho käyttäisi 8bit merkistöä, eihän kenenkään osoite ole ASCII ulkopuolelle, entäs sitten kun yksi jäsen muuttaa, toinen vaihtaa nimeä, esim menee naimisiin., mailiosoite vaihtuu.

80 luvulla vielä pysty selittään että sori ääkköset, mutta ei enään.

Jos resurssit ei riitä sähköön, niin listalla taitaa olla liuta muita asioita mistä tingitään aiemmin, tai toivottavasti jostain muusta kuin siitä että nimet on oikein.

Ja todennäköisesti jos joku valitsisi sen 8 bittisen ACSCIIn, niin sitä sitten aletaan paikkaileen jos ei ihan AIllä, niin melkein.
 
Viimeksi muokattu:
Taaskin väite kilpailuedusta on täysin irrallaan todellisuudesta. Miten helvetissä me saataisiin kilpailuetua siitä, että tehdään hommat vaikeammin ja vähemmän yhteensopivasti muun maailman kanssa?

Ei mikään täysjärkinen softatalo enää väkipakolla käytä näitä 80-luvun rajoitettuja merkistöjä jos voidaan tukea Unicodea. Tässä nyt hakataan kuollutta pollea. Unicode-juna meni jo aikoja sitten, eikä muutama 80-luvulle haikaileva todellisuudesta irrallaan oleva ulisija enää muuta asiaa mihinkään. Toimimaton legacy-paska vähenee koko ajan ja sitä korvataan uudemmalla koodilla, joka tukee Unicodea. Käytetään uudempia ohjelmointikieliä ja kirjastoja, joiden kanssa Unicode toimii saumattomasti ilman ongelmia. Käytetään standardeja, jotka ovat jo rakennettu Unicode huomioiden.

Se on nimenomaan kilpailuetu ja helpottaa softan lokalisointia ja myymistä uusille markkinoille.
 
Pedantisti näin, mutta hyvin harvoin ohjelmisto tekee eroa 7- ja 8-bittisen tekstin välillä. Kun lähdekoodikin on saatavilla, niin voi jopa olla mahdollista osoittaa, että koodi on sellaisenaan 8-bit yhteensopiva.

Jos se toimii 8-bittisellä tekstillä, niin miksi ei sitten UTF-8:lla? UTF-8:n voi ajatella eksoottiseksi 8-bittiseksi merkistöksi.

Käytännössä ainoa ero tulee jos halutaan laskea merkkijonojen pituuksia. C-kirjaston strlen() laskee tavupituuden, mutta konsoliin printf() funktiolla tulostuvien merkkien määrä ei olekaan sama. Tästä tulee ongelmia jos halutaan tulostaa esimerkiksi taulukoita.

Ihan triviana, miten kauas historiaan pitää mennä, että CPU olisi tehnyt eroa 7- ja 8-bittisen datan välillä? Esim. 36-bittinen PDP (1966) voisi kai pakata 5 ASCII merkkiä/sana. Tiedonsiirrossa 7bit+pariteetti on ollut yleisempi, mutta jo 80-luvulta lähtien 'historiallisista syistä'. 8bit+pariteetti olisi yhtä lailla mahdollinen, jos halutaan pariteettitarkistus.
80-luvulla 7-bit + pariteetti oli ihan validi tapa säästää kaistaa. Se on tietysti ollut vain optimointia eikä varsinainen rautarajoite.

CPU:ssa 128-255 lukualue on tietysti sillä tavalla spesiaali että 8-bittisen luvun voi käsitellä joko etumerkillisenä (signed) tai etumerkittömänä (unsigned). Tälläkin on monet bugit saatu varsinkin kun C-standardi oli alussa tämän määrityksessä epätarkka.
 
Kertokaas muuten miksi näppäimistön asettelulla on edelleen väliä vuonna 2024?

Ymmärrettävää joskus 90 luvulla mutta eikö nykyään saataisi jo tehtyä näppäimistöä joka lähettäisi vaikkas UTF-8 datana sen merkin joka näppäimessä lukee (nuolet ja muut erikoisnapit omilla koodeillaan) ja se olisi sillä jämpti?

Tulee melkoinen "VMP" fiilis joka kerta kun tulee tarvetta tökätä näppäimistö johonkin eksoottisempaan laitteeseen ja se olettaa järjestään että jenkkinäppis on. :comp:
 
Kertokaas muuten miksi näppäimistön asettelulla on edelleen väliä vuonna 2024?

Ymmärrettävää joskus 90 luvulla mutta eikö nykyään saataisi jo tehtyä näppäimistöä joka lähettäisi vaikkas UTF-8 datana sen merkin joka näppäimessä lukee (nuolet ja muut erikoisnapit omilla koodeillaan) ja se olisi sillä jämpti?:comp:

Uskallatko sinä tökätä tällaisen hienon kiinasta tilaamasi näppiksen joka sisältää älyä kiinni sun tietokoneeseen. Kuulostaa idealta jossa on miljoona turvallisuusaukkoa.

Esim tämän näppiksen sisällä oleva tietokone voi haistaa että sinä näppäilet "google.com" ja päättelee että ollaan selaimen osoiterivillä ja se lähettääkin tietokoneelle googlen.com sijasta "googlecompitkärivisotkuachinaspyware.com" ja muutaman enterin painalluksen että tämä softa tulee asennettua ja tämä chinaspyware.com sivusto ohjaa sinut sitten asennuksen jälkeen oikealle google sivulle ja sinä vain ihmettelet että mikäs tässä kesti sekunnin kauemmin kuin normaalisti ja joku ikkuna pomppasi näkyviin 0.1 sekunnin ajaksi.

Tai se voi itse sisältää spyware softan jonka se asentaa koneelle suoraan näppiksen tietokoneen kiinteästä muistista ja sitten haistella että sinä näppäilet crypto salasanaa ja laittaa sen muistiin ja kertoa sen sinun huomaamatta tälle asentamalleen spyware ohjelmalle.

Se että näppis on tyhmä on turvallisuusseikka.
Tosin mikäs sen takaa että tyhmä näppis on oikeasti tyhmä.
 
Viimeksi muokattu:
Uskallatko sinä tökätä tällaisen hienon kiinasta tilaamasi näppiksen joka sisältää älyä kiinni sun tietokoneeseen. Kuulostaa idealta jossa on miljoona turvallisuusaukkoa.

Esim tämän näppiksen sisällä oleva tietokone voi haistaa että sinä näppäilet "google.com" ja päättelee että ollaan selaimen osoiterivillä ja se lähettääkin tietokoneelle googlen.com sijasta "googlecompitkärivisotkuachinaspyware.com" ja muutaman enterin painalluksen että tämä softa tulee asennettua ja tämä chinaspyware.com sivusto ohjaa sinut sitten asennuksen jälkeen oikealle google sivulle ja sinä vain ihmettelet että mikäs tässä kesti sekunnin kauemmin kuin normaalisti ja joku ikkuna pomppasi näkyviin 0.1 sekunnin ajaksi.

Tai se voi itse sisältää spyware softan jonka se asentaa koneelle suoraan näppiksen tietokoneen kiinteästä muistista ja sitten haistella että sinä näppäilet crypto salasanaa ja laittaa sen muistiin ja kertoa sen sinun huomaamatta tälle asentamalleen spyware ohjelmalle.

Se että näppis on tyhmä on turvallisuusseikka.
Tosin mikäs sen takaa että tyhmä näppis on oikeasti tyhmä.

Voisi se näppis silti olla "tyhmä" kuin USB näppis.

Tosin mikäs sen takaa että tyhmä näppis on oikeasti tyhmä.
Luottamusta koko toimitusketjuun siinä tarvitaan. Jos ei voida luottaa niin sitten menee vaikeammaksi. Mutta menee jo ohi aiheen.

Mutta olen Huglo nimimerkin kanssa samaa mieltä, olisi siinä etunsa jos näppis olisi unicode, ja se kai olisi ihan mahdollistakin.
 
Uskallatko sinä tökätä tällaisen hienon kiinasta tilaamasi näppiksen joka sisältää älyä kiinni sun tietokoneeseen. Kuulostaa idealta jossa on miljoona turvallisuusaukkoa.

Esim tämän näppiksen sisällä oleva tietokone voi haistaa että sinä näppäilet "google.com" ja päättelee että ollaan selaimen osoiterivillä ja se lähettääkin tietokoneelle googlen.com sijasta "googlecompitkärivisotkuachinaspyware.com" ja muutaman enterin painalluksen että tämä softa tulee asennettua ja tämä chinaspyware.com sivusto ohjaa sinut sitten asennuksen jälkeen oikealle google sivulle ja sinä vain ihmettelet että mikäs tässä kesti sekunnin kauemmin kuin normaalisti ja joku ikkuna pomppasi näkyviin 0.1 sekunnin ajaksi.

Tai se voi itse sisältää spyware softan jonka se asentaa koneelle suoraan näppiksen tietokoneen kiinteästä muistista ja sitten haistella että sinä näppäilet crypto salasanaa ja laittaa sen muistiin ja kertoa sen sinun huomaamatta tälle asentamalleen spyware ohjelmalle.

Se että näppis on tyhmä on turvallisuusseikka.
Tosin mikäs sen takaa että tyhmä näppis on oikeasti tyhmä.

Jaa-a. Tuoko ei sitten onnistu nykyisillä näppäimistöillä?

Kyllä sinne näppäimistöön saadaan kiinalainen kusetus-chippi sopivalla ohjelmalla mahdutettua nykymallillakin. Se näppäimistö on myyty jollain leiskalla asiakkaalle joten se kusetusohjelmakin on sitten varmaan tehty sille leiskalle. Riippumatta siitä millä datalla kommunikoidaan tietokoneelle.

Varmaan 99.999999% käyttäjistä ei vaihda näppäimistön nappien paikkoja tai yritä arpoa jotain toista asettelua nappeja vaihtamatta joten hyvin menee perille.

Ja jos vaihtaisikin niin jenkkinäppishän on melko lähellä monia muita, vaikkapa suomalaisessa ja amerikkalaisessa on kirjaimet, pisteet ja pilkut samoissa paikoissa. Siinä on jo minimit mitä tuollaiseen osoitekusetukseen tarvitaan.

USB-haavoittuvuuksiahan voi kiinalaisella näppäimistöllä hyödyntää koko ajan kun USB liitännällä ne yleensä myydään. Mulla ei ole ollut tapana ostaa kiinan myyjiltä tietokonetarpeita osin näistä syistä.
 
Dedikoidut näppisliittimet (PC-koneissa DIN ja PS/2) ovat välttämättömät, jos tietoturva on tärkeää. Harmi, että uusissa kuluttajatason emolevyissä ei noita liittimiä useinkaan enää ole.
 
Dedikoidut näppisliittimet (PC-koneissa DIN ja PS/2) ovat välttämättömät, jos tietoturva on tärkeää. Harmi, että uusissa kuluttajatason emolevyissä ei noita liittimiä useinkaan enää ole.
Jos ketjussa aiemmin keskusteltu vihamielisistä näppiksistä, niin jos ei ole jotain protokollaa millä näppiksen aitous/luotettavuus varmistetaan, niin ihan sama mikä se liitin on.
Oli se sitten DIN tai PS/2 niin näppis voi olla tieturvauhka. Toki jostain USB-C PD liittimestä voi saada enemmän energiaa raskaampaa laskentaan. Ja USB mahdollistaa toki paljon muutakin kuin HID laitteet, mutta se menee taasen sinne toiselle puolelle mitä hyväksytään.

USB sinänsä mahdollistaa myös korkean tieturvan näppiksen toteuttamisen. ja sen unicode (no en edes yrittänyt kaivella että mitä PS2 tai DIN vakiintuneet mahdollistaa)
 
Jos ketjussa aiemmin keskusteltu vihamielisistä näppiksistä, niin jos ei ole jotain protokollaa millä näppiksen aitous/luotettavuus varmistetaan, niin ihan sama mikä se liitin on.
Oli se sitten DIN tai PS/2 niin näppis voi olla tieturvauhka. Toki jostain USB-C PD liittimestä voi saada enemmän energiaa raskaampaa laskentaan. Ja USB mahdollistaa toki paljon muutakin kuin HID laitteet, mutta se menee taasen sinne toiselle puolelle mitä hyväksytään.

USB sinänsä mahdollistaa myös korkean tieturvan näppiksen toteuttamisen. ja sen unicode (no en edes yrittänyt kaivella että mitä PS2 tai DIN vakiintuneet mahdollistaa)
Yleiskäyttöisissä liittimissä on se ongelma, että tietokone joutuu kuitenkin joka tapauksessa luottamaan siihen ensimmäisenä tunnistettuun näppikseen, joka siihen kytketään; ymmärrettävästä syystä siihen näytölle ei voida antaa kehotetta, jossa käsketään vaikkapa painamaan [Y] jos liitit USB-liittimeen näppäimistön, ja [N] jos liitit siihen jotain muuta. USB-näppikset näin ollen oikeastaan tuhoavat koko käynnistystietoturvan idean.

Toki myös PS/2-liittimeen kytketty näppis voi yrittää jotain pahaa, mutta dedikoituun näppäimistöliittimeen kytkettynä mikään vihamielinenkään laite ei kuitenkaan voi tehdä kovin paljoa vahinkoa, koska se ei pääse esimerkiksi videosignaaliin käsiksi. USB-liittimen kanssa tilanne on sitten ihan toinen.
 
Yleiskäyttöisissä liittimissä on se ongelma, että tietokone joutuu kuitenkin joka tapauksessa luottamaan siihen ensimmäisenä tunnistettuun näppikseen, joka siihen kytketään; ymmärrettävästä syystä siihen näytölle ei voida antaa kehotetta, jossa käsketään vaikkapa painamaan [Y] jos liitit USB-liittimeen näppäimistön, ja [N] jos liitit siihen jotain muuta. USB-näppikset näin ollen oikeastaan tuhoavat koko käynnistystietoturvan idean.
Jos sinne kokoonpano vaiheseen pääsee hyökkääjä ujuttaan vihamielistä tavaraa, niin heikko tilanne. Eikä se nyt jollain erikoisliittimellä pelastu.

Toki käyttäjälle voi esittää kysymyksen onko vihamielinen näppis vai ei, ja yrittää tehdä niin ettei vihamielinen näppis sitä voi ohittaa. Ajoitus, ja vastaus vaihtoehdot ei ennustettavia. Käyttäjä nyt vastaa että on haluttu. Jos kokoonpanoon on sertifikoitu joku tietty näppis luotettavasti, niin jonkin toisen kytkeminen osalta voidaan sitten varoittaa tai jopa estää.

Mutta ei tuo nyt liity merkistöön, se näppis voi olla vihamielinen riippumatta merkistöstä.
 
Pointtina oli, että PS/2- tai DIN-liittimessä se vihamielinen laite ei pääse käsiksi videosignaaliin. USB-liittimeen kytketty vihamielinen laite taas voi näppäimistön lisäksi tunnistautua vielä näyttönäkin, jolloin se saa aika lailla täyden hallinnan tietokoneesta. Dedikoituun näppisliittimeen kytketty vihamielinen laite voi korkeintaan sokkona antaa jotain näppäinkomentoja tietämättä, miten tietokone oikeasti reagoi niihin.
 
Pointtina oli, että PS/2- tai DIN-liittimessä se vihamielinen laite ei pääse käsiksi videosignaaliin. USB-liittimeen kytketty vihamielinen laite taas voi näppäimistön lisäksi tunnistautua vielä näyttönäkin, jolloin se saa aika lailla täyden hallinnan tietokoneesta. Dedikoituun näppisliittimeen kytketty vihamielinen laite voi korkeintaan sokkona antaa jotain näppäinkomentoja tietämättä, miten tietokone oikeasti reagoi niihin.
No ei liity merkistöihin.

Se millaisia agentti kamoja voi rakentaa eri tietokone väyliin on jonkin muun ketjun aihe ja miten ne voi tunnistaa ja miten niihin voi suojautua.
 
Nyt alkaa kyllä taas menemään aika pahasti offtopiciksi tämä keskustelu, mitkään USB-näytöt eivät kyllä liity millään tavalla merkistöihin. Ei sen puoleen, se että näppis ulostaisi koneelle päin unicodea ei ole sekään missään mielessä järkevää.

Mainittakoon nyt kuitenkin että esimerkiksi ainakin joissakin serverikoneissa pystyy BIOS-setupista estämään esimerkiksi USB-massamuistilaitteet ja joitakin muitakin USB-kategorioita.
 
Ei sen puoleen, se että näppis ulostaisi koneelle päin unicodea ei ole sekään missään mielessä järkevää.
Ketjussa tästä aiemmin puhetta, ja sille nähtiin etuja, en nyt kellannut vanhoja viestejä oliko sille jotain haittoja mainittu. (joo, jotain keksin vaikka ei järjestelmien tuettomuutta mietitä)
 
Viimeksi muokattu:
Nyt alkaa kyllä taas menemään aika pahasti offtopiciksi tämä keskustelu, mitkään USB-näytöt eivät kyllä liity millään tavalla merkistöihin. Ei sen puoleen, se että näppis ulostaisi koneelle päin unicodea ei ole sekään missään mielessä järkevää.

Mainittakoon nyt kuitenkin että esimerkiksi ainakin joissakin serverikoneissa pystyy BIOS-setupista estämään esimerkiksi USB-massamuistilaitteet ja joitakin muitakin USB-kategorioita.
Tietoturvan ymmärryksen kannalta on kuitenkin tärkeää mainita, että ne BIOS-asetukset lakkaavat vaikuttamasta siinä vaiheessa, kun bootataan sellainen käyttöjärjestelmä, joka ei käytä BIOSia - siis kuten vaikkapa Linux tai Windows. Sitten ne kaikki USB-laitteet tunnistetaan uudestaan riippumatta siitä, mitä arvoja siellä CMOS-muistissa on.

Mutta tämä ei tosiaan kuulu enää ketjun aiheeseen mitenkään.
 
Nyt alkaa kyllä taas menemään aika pahasti offtopiciksi tämä keskustelu, mitkään USB-näytöt eivät kyllä liity millään tavalla merkistöihin. Ei sen puoleen, se että näppis ulostaisi koneelle päin unicodea ei ole sekään missään mielessä järkevää.

Joo menee offtopiciksi mutta se lähti siitä kun kyseenalaistin näppäimistöasettelujen käytön vielä 2020-luvulla. Mikä siitä tekee niin vaarallista että näppäimistö tuottaisi Unicodea tai jotenkin muuten standardoitua merkistöä koneelle? Kyllä haittanäppäimistö saadaan nykyisellä mallillakin tehtyä jos niin halutaan.
 
Joo menee offtopiciksi mutta se lähti siitä kun kyseenalaistin näppäimistöasettelujen käytön vielä 2020-luvulla. Mikä siitä tekee niin vaarallista että näppäimistö tuottaisi Unicodea tai jotenkin muuten standardoitua merkistöä koneelle? Kyllä haittanäppäimistö saadaan nykyisellä mallillakin tehtyä jos niin halutaan.
Miksi näppäimistön pitäisi tuottaa mitään muuta kuin aina ennenkin eli näppäimistön scancodeja? Se, että näppäimistö suoltaisi ulos esim unicodea ei saavutettaisi yhtään mitään, tehtäisiin vaan asiasta monimutkaisempi kun näppäimistössä on monia näppäimiä millä ei ole mitään unicode-merkkiä, esimerkkinä funktionäppäimet, numlock, scrolllock, capslock, shiftit, altit, ... Noiden osalta pitäisi kuitenkin keksiä joku muu tapa kuin unicode joka vaan hankaloittaisi käytännössä kaikkea. Ja kaikki uusi aina aiheuttaa kaikenlaisia riskejä uusista tietoturvaongelmista joten se yhdistettynä tuohon että kaikki olisi monimutkaisempaa kuin ennen ainakin omsta mielestä olisi ihan älytöntä.

Näppäimistö tunnistuu yleensä HID-laitteena tietokoneelle ja kuten jo aiemmin mainitsin, esimerkiksi joissakin servereissä voi rajata mitä laitteita sallitaan USB-porteissa. Ja toisin kuin Sompi tuolla aiemmin väitti, ainakin servereissä tuo suojaus toimii ihan käyttiksen ulkopuolella eli jos sieltä setupista blokkaa jotain laitetyyppejä niin myöskään käyttöjärjestelmä ei niitä näe. Toki tavallisissa PC-laitteissa en ole vastaavia toimintoja nähnyt, mutta ei niissä ole mitään iDRACia, iLOa tai muuta vastaavaa oob-hallintaakaan yleensä.
 
Miksi näppäimistön pitäisi tuottaa mitään muuta kuin aina ennenkin eli näppäimistön scancodeja? Se, että näppäimistö suoltaisi ulos esim unicodea ei saavutettaisi yhtään mitään, tehtäisiin vaan asiasta monimutkaisempi kun näppäimistössä on monia näppäimiä millä ei ole mitään unicode-merkkiä, esimerkkinä funktionäppäimet, numlock, scrolllock, capslock, shiftit, altit, ... Noiden osalta pitäisi kuitenkin keksiä joku muu tapa kuin unicode joka vaan hankaloittaisi käytännössä kaikkea. Ja kaikki uusi aina aiheuttaa kaikenlaisia riskejä uusista tietoturvaongelmista joten se yhdistettynä tuohon että kaikki olisi monimutkaisempaa kuin ennen ainakin omsta mielestä olisi ihan älytöntä.

Siksi että ei tarvitsisi enää 2020 luvulla konfiguroida näppäimistön asettelua erikseen. Täyttä paskaa aina kun joku laite/softa olettaa jenkkinäppiksen ja pääsee arpomaan että mistäs se tässä taas saatiin vaihdettua.

Kyllä ne erikoisnäppäimet saataisiin standardoitua jos haluttaisiin.

Kaikki uusi on tietoturvaongelma, no saa sitä vanhalla mallillakin turvattomuutta aikaiseksi. :comp:
 
Siksi että ei tarvitsisi enää 2020 luvulla konfiguroida näppäimistön asettelua erikseen. Täyttä paskaa aina kun joku laite/softa olettaa jenkkinäppiksen ja pääsee arpomaan että mistäs se tässä taas saatiin vaihdettua.

Kyllä ne erikoisnäppäimet saataisiin standardoitua jos haluttaisiin.

Kaikki uusi on tietoturvaongelma, no saa sitä vanhalla mallillakin turvattomuutta aikaiseksi. :comp:
Tuohan on ihan väärä lähestymistapa. Miten olisi jos näppäimistö kertoisi maakoodinsa käyttöjärjestelmälle jollain tavalla eikä mitään unicode-purkkaa tarvittaisi. Lisäksi tuolla unicode-purkalla vaan hajotettaisiin taaksepäin yhteensopivuus aika tehokkaasti, vanhat laitteet eivät ymmärtäisi tuota unicodea tai sitten pitäisi keksiä taas joku fallback-toiminto että näppis palaisikin vanhaan protokollaan jos kone ei ymmärräkään unicodea. Ja tuosta taas aiheutuu noin 100 ja 1 eri uutta ongelmaa ja tietoturvareikää sekä monimutkaistaisi näppiksen softaa joka lisää kustannuksia jne. Muutenkin taas uusi "standardi" vaan hankaloittaisi ja monimutkaistaisi asioita kun tietokoneiden pitäisi kuitenkin tukea sekä vanhaa että uutta systeemiä vuosikaudet. Ja sitten kun otetaan huomioon joissakin näppäimistöissä olevat erikoisnäppäimet niin asia vaan monimutkaistuisi entisestään.

Mutta tämä näppiskeskustelu ei kyllä enää kovin hyvin osu tähän merkistö-keskusteluun mielestäni.
 
Eihän näppäimistö nykyiselläänkään tuota mitään merkistöä, vaan täysin merkistöagnostisia scancodeja. Ja minusta se nykyinen järjestelmä on ihan hyvä. Olisi melkoista horroria, jos näppäimistö tuottaisi unicode-merkkejä, koska silloinhan kaikki käyttöjärjestelmät pakotettaisiin tukemaan sitä unicodea, joka on käytännössä vieläpä juokseva standardi, josta on loputon määrä versioita olemassa. Ja sitten jos jollain sattuisikin olemaan näppis, joka tuottaa merkkejä joita käytetty käyttöjärjestelmä ei tue, niin se johtaisikin ihan ennennäkemättömiin ongelmiin, joita olisi mahdotonta ratkaista ja jotka tekevät tietokoneen käytöstä mahdotonta.

Jos haluat näppäimistön, joka tuottaa jotain tiettyä merkistöä, niin silloin sinun on hankittava terminaali.
 
Tuohan on ihan väärä lähestymistapa. Miten olisi jos näppäimistö kertoisi maakoodinsa käyttöjärjestelmälle jollain tavalla eikä mitään unicode-purkkaa tarvittaisi. Lisäksi tuolla unicode-purkalla vaan hajotettaisiin taaksepäin yhteensopivuus aika tehokkaasti, vanhat laitteet eivät ymmärtäisi tuota unicodea tai sitten pitäisi keksiä taas joku fallback-toiminto että näppis palaisikin vanhaan protokollaan...
Vanhojen tukeminen tuskin ongelma, tuetaanhan niitä nytkin.

Perehtymättä profiiliehin, niin ajatus oli se että ne merkitä, aakkoset, sun muut olisi juuri se merkki, eikä joku koodi jostain mustasta napista. unicode sen takia kun on olemassa, eikä tarvi keksiä jotain uutta.

sen tietokoneen, käyttöjärjestelmän, sovelluksen ei tarvi tietää millainen ulkoasua käyttäjän näppiksessä on, tai eihän sen tarvi olla perinteinen näppis, se voi olla ihan mitä vain. Niin sillä sitten taklattaisiin ne merkistö ongelmat kun vastaanottoja ja lähde käyttää eri merkistöä.

Ilman muuta siitä syntyy alkuajan ongelmia, mutta sillä myös taklataan ongelmia.
 
Siksi että ei tarvitsisi enää 2020 luvulla konfiguroida näppäimistön asettelua erikseen. Täyttä paskaa aina kun joku laite/softa olettaa jenkkinäppiksen ja pääsee arpomaan että mistäs se tässä taas saatiin vaihdettua.
Eikun tässä se näppiksen koffaaminen on joko mahdotonta silloin kun konffaukselle olisi tarve tai konffaamista tapahtuisi paljon enemmän kuin nykyään.

Oletko koskaan matkustanut ulkomaille ja joutunut käyttämään sitä ulkomailla olevaa tietokonetta ja sulla on täysin sormi suussa kun erkoisnäppäimet esim "/[]()=\-_'*" on täysin eri paikassa mihin sinä olet tottunut ja ohjelmakoodin kirjoittamisesta ei tule yhtään mitään.

Tällähetkellä tämä ongelma on jotenkin korjattavissa että sen fyysisen jenkkinäppiksen kanssa tietokoneelle virheellisesti kerrotaan että se onkin suominäppis ja tällä saavutetaan se että nuo erikoismerkit menee totutuille paikoilleen ja lihasmuistilla kirjoitus onnistuu hienosti vaikka näppisten hatuissa lukeekin jotakin erilaista.

Tämä uusi hieno tulevaisuuden näppis on varmaan yksi ja sama geneerinen laite koko maailmaan ja sisältää OLED näytöt jokaisessa näppishatussa ja joka sitten konffataan tietokoneelta mitä merkkejä kukin hattu näyttää senmukaan minkäkielinen näppis se yksi geneerinen näppis on nyt konffattu olemaan ja minkälaista RGB valoshowta se pitää jotta teinit innokkaasti niitä ostaisivat.

Jos yhtään extrapoloi menneisyydestä niin tähän tämä maailma on menossa ja jotkut ludditit vielä vuonna 2024 vänkää vastaan mutta minkäs teet kun kaupoissa vuonna 2030 on pelkästään näitä hienoja tietokoneen sisältäviä RGB OLED valoshow näppiksiä ja vanhat parrat joutuu ensimäisenä etsimään miten siitä konffataan migreenin aiheuttaminen pois.
 
Viimeksi muokattu:
Eikun tässä se näppiksen koffaaminen on joko mahdotonta silloin kun konffaukselle olisi tarve tai konffaamista tapahtuisi paljon enemmän kuin nykyään.

Oletko koskaan matkustanut ulkomaille ja joutunut käyttämään sitä ulkomailla olevaa tietokonetta ja sulla on täysin sormi suussa kun erkoisnäppäimet esim "/[]()=\-_'*" on täysin eri paikassa mihin sinä olet tottunut ja ohjelmakoodin kirjoittamisesta ei tule yhtään mitään.

Tällähetkellä tämä ongelma on jotenkin korjattavissa että sen fyysisen jenkkinäppiksen kanssa tietokoneelle virheellisesti kerrotaan että se onkin suominäppis ja tällä saavutetaan se että nuo erikoismerkit menee totutuille paikoilleen ja lihasmuistilla kirjoitus onnistuu hienosti vaikka näppisten hatuissa lukeekin jotakin erilaista.

Tämä uusi hieno tulevaisuuden näppis on varmaan yksi ja sama geneerinen laite koko maailmaan ja sisältää OLED näytöt jokaisessa näppishatussa ja joka sitten konffataan tietokoneelta mitä merkkejä kukin hattu näyttää senmukaan minkäkielinen näppis se yksi geneerinen näppis on nyt konffattu olemaan ja minkälaista RGB valoshowta se pitää jotta teinit innokkaasti niitä ostaisivat.
Jos otetaan näitä suppeita otantoja, niin tilanteet missä halunnut että näppis ulkoasua eri kuin se mitä sen halua olevan, eli esimerkkisikaltainen , on pientä, ja tilanne missä sen tahtonut tehdä. Verrattuna siihen että näppis merkinnät on ristiriidassa sen kanssa mitä niistä tapahtuu. ja tarve olisi se mitä painettu, tähän sitten se muu sälä mitkä toimii "näppiksinä", tyypillisiä QR, Viivakoodi, magneettikortti, tagi lukijat.

Se että syöttölaite tukee ehdotettua unicodea ei estä sitä että ne voidaan välikerroksessa muuttaa toiseksi.


Tämä uusi hieno tulevaisuuden näppis on varmaan yksi ja sama geneerinen laite koko maailmaan ja sisältää OLED näytöt jokaisessa näppishatussa ja joka sitten konffataan tietokoneelta mitä merkkejä kukin hattu näyttää senmukaan minkäkielinen näppis se yksi geneerinen näppis on nyt konffattu olemaan ja minkälaista RGB valoshowta se pitää jotta teinit innokkaasti niitä ostaisivat.
Osalle on ihan arkinen tarve useille merkistöille, ja arjessa vaihtavat sitä lennossa, näytöllisten näppäimistön etu siinä että näppäin merkinnät vastaa sitä mitä ne on. Ei tietenkään tarvi näyttöä olla, mutta esimerkkinä toimiva.

Ja ei tarvi rajoittua perinteiseen näppäimistöön, ja jos ei ajatella suomalaisittain, vaan ihan mailmanlaajuisesti.


Haittana tässä enemmänkin näen sen että pitäisi standartisoida, ja sen jälkeen laitteiden, käyttöjärjestelmien, osan sovellusten pitäisi tukea, kynnystä alentaa se että unicode käyttäjärjestelmissä perus kauraa.

Ja merkistö on se ketjunaihe, mutta jos tuollaista tuotaisiin niin samaan nippuun muutakin.
 
Tuohan on ihan väärä lähestymistapa. Miten olisi jos näppäimistö kertoisi maakoodinsa käyttöjärjestelmälle jollain tavalla eikä mitään unicode-purkkaa tarvittaisi. Lisäksi

Voisi sen noinkin tehdä. Itse asiassa ehkä parempikin tehdä noin. :comp: Kunhan laite/käyttis/softa tottelisi heittämällä sitä asettelua joka näppäimistössä on. Täyttä paskaa että asia pitää manuaalisesti kertoa sille.

Eikun tässä se näppiksen koffaaminen on joko mahdotonta silloin kun konffaukselle olisi tarve tai konffaamista tapahtuisi paljon enemmän kuin nykyään.

Oletko koskaan matkustanut ulkomaille ja joutunut käyttämään sitä ulkomailla olevaa tietokonetta ja sulla on täysin sormi suussa kun erkoisnäppäimet esim "/[]()=\-_'*" on täysin eri paikassa mihin sinä olet tottunut ja ohjelmakoodin kirjoittamisesta ei tule yhtään mitään.

Tällähetkellä tämä ongelma on jotenkin korjattavissa että sen fyysisen jenkkinäppiksen kanssa tietokoneelle virheellisesti kerrotaan että se onkin suominäppis ja tällä saavutetaan se että nuo erikoismerkit menee totutuille paikoilleen ja lihasmuistilla kirjoitus onnistuu hienosti vaikka näppisten hatuissa lukeekin jotakin erilaista.

Tämä uusi hieno tulevaisuuden näppis on varmaan yksi ja sama geneerinen laite koko maailmaan ja sisältää OLED näytöt jokaisessa näppishatussa ja joka sitten konffataan tietokoneelta mitä merkkejä kukin hattu näyttää senmukaan minkäkielinen näppis se yksi geneerinen näppis on nyt konffattu olemaan ja minkälaista RGB valoshowta se pitää jotta teinit innokkaasti niitä ostaisivat.

Jos yhtään extrapoloi menneisyydestä niin tähän tämä maailma on menossa ja jotkut ludditit vielä vuonna 2024 vänkää vastaan mutta minkäs teet kun kaupoissa vuonna 2030 on pelkästään näitä hienoja tietokoneen sisältäviä RGB OLED valoshow näppiksiä ja vanhat parrat joutuu ensimäisenä etsimään miten siitä konffataan migreenin aiheuttaminen pois.


Jos mulle tulee eteen kone jenkkinäppäimistöllä, ensimmäinen ajatus on että opettelen käyttämään sitä jenkkinäppäimistöllä. Hetken ärsyttävää kunnes rupeaa sujumaan. Kuulostaa oudolta ratkaisulta että näppäimistöä tarkoituksella käytettäisiin eri asettelulla kuin siinä on. Jos mennään tuolla Hyravan ratkaisulla niin tämähän olisi tietysti tehtävissä kunhan asettelun voisi ohittaa windowsissa tai mitä pasketta sitten käyttääkin. :comp:
 
Joo menee offtopiciksi mutta se lähti siitä kun kyseenalaistin näppäimistöasettelujen käytön vielä 2020-luvulla. Mikä siitä tekee niin vaarallista että näppäimistö tuottaisi Unicodea tai jotenkin muuten standardoitua merkistöä koneelle? Kyllä haittanäppäimistö saadaan nykyisellä mallillakin tehtyä jos niin halutaan.
Pohjimiltaan syy on siinä että se tekisi näppäimistöjen lokalisoinnista kalliimpaa. Nykyisellään riittää että muutetaan ainoastaan näppäinhatut eikä näppiksen elektroniikkaa tarvitse muuttaa.
 
Pohjimiltaan syy on siinä että se tekisi näppäimistöjen lokalisoinnista kalliimpaa. Nykyisellään riittää että muutetaan ainoastaan näppäinhatut eikä näppiksen elektroniikkaa tarvitse muuttaa.
Muuttaa, siis parametroida. joku kustannus toki. miten tuotanto suunniteltu. Vaikea nähdä että se oli haitta, päinvastoin. ilman niitä elektroniikka, rauta muutoksia voisi koota monipuolisempia asetteluja.
 

Statistiikka

Viestiketjuista
258 762
Viestejä
4 498 202
Jäsenet
74 279
Uusin jäsen
Muskotti

Hinta.fi

Back
Ylös Bottom