Kouvolaan pudonneet droonit uutisoitiin venäläisiksi tekoälytyökalun virheen vuoksi

NeliYgönen

Ylläpidon jäsen
Liittynyt
02.07.2020
Viestejä
673
Drooneista virheellisesti uutisoivat samaa tekoälytyökalua käyttävät Helsingin Sanomat ja Ilta-Sanomat, minkä jälkeen uutiset korjattiin lähes välittömästi.

kouvoladroonit-otsikko-300326.jpg


Kouvolaan putosi sunnuntaina kaksi miehittämätöntä lennokkia eli droonia, joista uutisoitiin Helsingin Sanomissa ja Ilta-Sanomissa pian tapauksen jälkeen venäläisinä drooneina ja että tieto olisi peräisin puolustusministeriöltä. Kyseessä oli kuitenkin kyseisten mediatalojen käyttämän tekoälytyökalun luoma virheellinen tulkinta, joka oikaistiin hyvin pian juttujen julkaisun jälkeen. Droonit eivät olleet venäläisiä, vaan ukrainalaisia, eikä puolustusministeriö ollut antanut lausuntoa, jossa se olisi todennut droonien olleen venäläisiä. Virheellinen uutisointi oli seurausta toimituksen julkaisuprosessin pettämisestä, eikä tekoälyn tuottamaa aineistoa tarkistetttu alkuperäislähteestä, vaikka se on toimituksen ohjeistus.

Kuva: Yle

Asian turvallisuuspoliittisen luonteen vuoksi IS julkaisi anteeksipyynnön virheellisestä uutisoinnista, joka on eittämättä herättänyt lukijoissa sekaannusta. Tekstissä lehden päätoimittaja Johanna Lahti kertoo mm. seuraavaa:

Tieto oli peräisin toimituksemme käyttämästä AI-työkalusta, joka haravoi toimitukseen tulevaa suurta tiedote- ja sähköpostimäärää ja lähettää niistä hälytyksen toimituksen sisäiselle kanavalle. Työkalu oli virheellisesti kirjoittanut viestiinsä Venäjän, vaikka puolustusministeriön alkuperäisessä tiedotteessa tällaista mainintaa ei ollut.

Myöhemmin sunnuntaina sekaannuksen jälkeen myös pääministeri Petteri Orpo arvioi mediassa droonien olleen ukrainalaisia. Ukraina on tehnyt viime viikolla useita droonihyökkäyksiä Venäjälle ja se myös esitti Suomelle anteeksipyynnön tapauksen johdosta. Toisen drooneista viranomaiset ovat jo hallitusti räjäyttäneet ja toisen droonin mahdollista räjähtämistä pudottuaan selvitetään.

Lähde: IS, HS
 
Viimeksi muokattu:
Taas yksi todiste, että mitään AI:n tuottamaa ei pidä suoraan uskoa, vaan tarkistaa tiedot itse.

--

Ärsyttää ihmisten korvaaminen AI:lla, kun AI tekee samat duunit - huonosti. Ja sitä pitää aina korjailla. Se on kuin alipalkattu harjoittelija, joka keksii vastauksen hatusta, jos ei osaa/muista.
 
Vähän ehkä turha nosto Iotechin uutiseksi. Reaktiojournalismia on ollut ennen AI:takin. Pitää nopeasti olla ekana tuuttaamassa varmistamatonta huttua, jotta saadaan klikkauksia ja voidaan olla eka.
Menee enempi journalismin kritiikin kategoriaan. Erästä asiaa kommentoinutta lainatakseni: "Vika ei ole kirjoituskoneesa, jos kirjoituksessa on virheitä.".
 
Viimeksi muokattu:
Vähän ehkä turha nosto Iotechin uutiseksi. Reaktiojournalismia on ollut ennen AI:takin. Pitää nopeasti olla ekana tuuttaamassa varmistamatonta huttua, jotta saadaan klikkauksia ja voidaan olla eka.
Menee enempi journalismin kritiikin kategoriaan. Erästä asiaa kommentoinutta lainatakseni: "Vika ei ole kirjoituskoneesa, jos kirjoituksessa on virheitä.".
Olen eri mieltä, kyseessä on varsin poikkeuksellinen tapahtuma suomalaisessa mediassa ja journalismissa näin tekoälyn aikakautena, kun sen kehitystä ja käyttöä seurataan.
 
Taas yksi todiste, että mitään AI:n tuottamaa ei pidä suoraan uskoa, vaan tarkistaa tiedot itse.

--

Ärsyttää ihmisten korvaaminen AI:lla, kun AI tekee samat duunit - huonosti. Ja sitä pitää aina korjailla. Se on kuin alipalkattu harjoittelija, joka keksii vastauksen hatusta, jos ei osaa/muista.

Mitä enemmän saa kokemusta AI:stä, tai nykyisistä kielimalleista, sitä enemmän näkee kuinka turhia se on. Tyhmiä kuin saapas, mitä teknisempi asia, sitä suurempi todennäköisyys että ovat väärässä. Erittäin itsevarmati tulee väärää infoa. Alkaa tuntua että parempi heittää kolikkoa kuin kysyä tekoälyltä mitään.
 
Jännä, että tekoälytyökalu voi tehdä näin yksinkertaisessa tapauksessa näin suuren (ratkaisevan) virheen. Olisi tosiaan kiva tietää menikö tuo valvovalta ihmiseltäkin lävitse?

(OT: väittäisin, jos nykyisen kaltaista tekoälytyökalua olisi käytetty korona -pandemian aikana olisi tulokset luultavasti olleen ihan käsittämättömiä, välillä jopa vaarallisia.)
 
Jännä, että tekoälytyökalu voi tehdä näin yksinkertaisessa tapauksessa näin suuren (ratkaisevan) virheen. Olisi tosiaan kiva tietää menikö tuo valvovalta ihmiseltäkin lävitse?

(OT: väittäisin, jos nykyisen kaltaista tekoälytyökalua olisi käytetty korona -pandemian aikana olisi tulokset luultavasti olleen ihan käsittämättömiä, välillä jopa vaarallisia.)
On jo sanottu, että meni.
 
Mitä enemmän saa kokemusta AI:stä, tai nykyisistä kielimalleista, sitä enemmän näkee kuinka turhia se on. Tyhmiä kuin saapas, mitä teknisempi asia, sitä suurempi todennäköisyys että ovat väärässä. Erittäin itsevarmati tulee väärää infoa. Alkaa tuntua että parempi heittää kolikkoa kuin kysyä tekoälyltä mitään.
Eikö sen pitäisi olla toisinpäin; aihe josta on mielipiteitä ja mutua -keskusteluissa netissä, pitäisi johtaa vääriin tai epätarkkoihin AI -vastauksiin. Matemaattiset tai tekniset yksityiskohdathan pitäisi olla suoraviivaisempaa käsitellä oikein?
 
Eli jatkossa edelleen AI tekee uutiset, mutta nyt vahtivat että menee ihmissilmän läpi? Joo, sitten halpuuttavat sinne halvimmat hessut liukuhihnatyöhön. AI ehdottaa uutista "ryssä hyökkäsi"... joo, kesähessun korviin kuulostaa uskottavalta, julkaistaan vain.
 
Eikö sen pitäisi olla toisinpäin; aihe josta on mielipiteitä ja mutua -keskusteluissa netissä, pitäisi johtaa vääriin tai epätarkkoihin AI -vastauksiin. Matemaattiset tai tekniset yksityiskohdathan pitäisi olla suoraviivaisempaa käsitellä oikein?

Näin luulisi, mutta omat kokemukset sanoo toisin. Olen kysellyt lähinnä teknisissä juttuja ja umpisurkeita vastauksia saanut. Jopa lähes puhtaasti matemaattisissa kysymyksissä (esim pyörän nopeuden laskeminen kadenssin perusteella) olen saanut ihan vääriä vastauksia vaikka antanut kaikki tarvittavat tiedot(rattaiden koot, vanne ja renkaan koko, rpm) niiden laskemiseen. Piti itse tehdä.
 
Asian sivusta kerron monen ihmisen tekemän tarkastuksesta huolimatta tapahtuneesta virheestä.
Laitoin vuoden sisään suomalaiselle youtubettajalle sähköpostia, kun hänen uusimmassa videossa näkyy kolmannen osapuolen osoite- ja puhelinnumerotiedot pöytää kuvatessa.
Hän vastasi nopeasti takaisin kysyen että missä kohti videota, ja ihmetteli asiaa kun kolme ihmistä oli videon tarkastanut ennen julkaisua.
 
Eli jatkossa edelleen AI tekee uutiset, mutta nyt vahtivat että menee ihmissilmän läpi? Joo, sitten halpuuttavat sinne halvimmat hessut liukuhihnatyöhön. AI ehdottaa uutista "ryssä hyökkäsi"... joo, kesähessun korviin kuulostaa uskottavalta, julkaistaan vain.

Olen joskus seurannut lehtityöskentelyä, niin ei se tässäkään mennyt näin.

Lehti saa uutisia
  • Tiedotteina
  • Omina juttuina
  • Ulkomaista uutisointia seuraamalla

Tiedotteet tulivat yleensä Suomen Tietotoimistolta (STT), mutta onkohan sitä enää olemassa? Mutta ne voi julkaista melkein sellaisenaan, niinkuin tässä oli todennäköisesti käynyt ja sitten jäänyt väärä leima uutiseen..

--

Ja jos AI on generoinut oman artikkelin, kieltäydyn ihan periaatteesta lukemasta. Niitä on muutama näkynyt, mutta ne on olleet ihan hirveitä. Tässä oli AI:n lähteenä tiedote, ja ne on niinkuin julkaistavissa yleensä suoraan sellaisenaan.
 
Näin luulisi, mutta omat kokemukset sanoo toisin. Olen kysellyt lähinnä teknisissä juttuja ja umpisurkeita vastauksia saanut. Jopa lähes puhtaasti matemaattisissa kysymyksissä (esim pyörän nopeuden laskeminen kadenssin perusteella) olen saanut ihan vääriä vastauksia vaikka antanut kaikki tarvittavat tiedot niiden laskemiseen. Piti itse tehdä.
Tässä merkitsee paljon se että onko käyttäjä motivoitunut iteroimaan tekoälyn käyttöä, niin että oppii uuden työkalun mahdollisuudet.
Sekin merkitsee paljon että maksaako käyttäjä tarpeen mukaisen kustannuksen tarpeeksi hyvin toimivasta työkalusta.
 
Taas yksi todiste, että mitään AI:n tuottamaa ei pidä suoraan uskoa, vaan tarkistaa tiedot itse.

--

Ärsyttää ihmisten korvaaminen AI:lla, kun AI tekee samat duunit - huonosti. Ja sitä pitää aina korjailla. Se on kuin alipalkattu harjoittelija, joka keksii vastauksen hatusta, jos ei osaa/muista.
Riippuu siitä mihin tietoa haluaa käyttää. Jos omaksi ilokseen kysyy AI:lta, että mitä raamatussa kirjoitetaan jostain aiheesta, niin ei todellakaan ole tarvetta tarkistaa tietoa itse.
 
Reaktiojournalismia on ollut ennen AI:takin. Pitää nopeasti olla ekana tuuttaamassa varmistamatonta huttua, jotta saadaan klikkauksia ja voidaan olla eka.
On toki mutta ennen se on ollut lähinnä sellaista että jos lukija osaa englantia häntä luultavasti alkaa äsyttämään uutisen käännös. Koska sen näkee huonosta suomennoksesta että se on pahimmillaan sanasta sanaan käännetty englanninkielestä ja lätkäisty uutiseksi mahdollisimman nopeasti että se ehtii ilta/aamu uutisena ennen muita kilpailevia lehtiä.

Harvemmin kuitenkaan (vaikka sellaistakin tapahtui) uutisoitiin täysin keksittyjä juttuja tai tehtiin artikkeleita. Nykyisin jos AI tekee noita kyse ei ole enää "tökeröstä käännöksestä" minkä tekijä tehnyt kiireellä vaan vastaava juttu kuin jos tekijä olisi valehdellut / keksinyt päästään lisää infoa uutiseen (kuten tuo että dronet tulleet Venäjältä ja vahvistus Puolustusministeriöstä, mitä tietysti tavallinen kansalainen uskoisi totena koska kuka tuollaisesta uskaltaisi valehdella kun siitä jäisi lähes heti & varmasti kiinni)
 
Riippuu siitä mihin tietoa haluaa käyttää. Jos omaksi ilokseen kysyy AI:lta, että mitä raamatussa kirjoitetaan jostain aiheesta, niin ei todellakaan ole tarvetta tarkistaa tietoa itse.

Siis minä olen käyttänyt ihan teknistäkin AI:n tuottamaa tietoa, jopa töissäni. Mutta sitten kysyin: "paljon menee aikaa IST lentokentältä hotelliin?" ja se vastasi 35min, kun oikea aika oli luokkaa 1h20min ja aiheutti minun missaavan sovitun tapaamisen.

Lisäksi nykyinen Googlen tekoälytila ja Perplexity tarjoavat lähteet niiden tiedoille, niin niitä voi vaan klikata. Jos siellä on Vauva-lehti (jossain asiassa oikeasti oli), niin sitten ainakin pitää tarkistaa.

--

.. mutta tässä ei ole kysymys siitä, että on otettu vauva.fi lähteeksi ja keksitty Venäjän droonihyökkäys, vaan siitä, että automaattinen lajittelija tagasi valmiin tiedotteen VENÄJÄ ja kukaan ei korjannut sitä. Ei tämä nyt ole AI:n puolesta iso virhe, mutta lehden omavalvonta petti. JSN toivottavasti sanoo tästä jotain.
 
Ketjun kommentien persuteella ketjuun postailee useampikin AI botti, tai sitten ihminen ei pärjää Sanoma uutis AI botille
Viitaan siihen että ohitettu kokonaan se että julkaisu virhe johtu ihmisen prosessi virheestä, joka mainittu uutisessa että ketjussa toistettu.

Mutta hyvä uutisnosto, näiden kielimallien suuri haaste on se että ne tuottaa niin uskottavaa tekstiä että saa olla tarkkana tarkistaessa.
 
Iltapaskalehdillä on joka toinen päivä joku "asiantuntija" laukomassa paskapuhetta ja misinformaatiota mistä milloinkin. Ei sinänsä mikään jymyuutinen. AI hallusinaatiot ja niiden esittäminen faktana tosin saattaa lisätä virheellisiä uutisia.
 
Malliesimerkki siitä kuinka alas voidaan vajota kun hieman antaa löysää. Jos tämä olisi jonkun puskaradion moka, ei se nyt niin vakavaa olisi, mutta että HS. Nyt olisi paikka jollekin kilpailijalle alkaa syynäämään täikammalla muitakin uutisia viime ajoilta. Ylen voi ottaa samaan projektiin mukaan kun isolla torvella toitottavat ihmisen tarkistuksia ~joka uutiseen.

Ihan OK renki, täysin kelvoton isäntä. Ja nyt kun vähän savuttaa, ehkä sieltä löytyy se nuotiokin.
 
Niinkö? Oliko siellä pari dronea vai droonia, jälkimmäinen särähtää joka kerta korvaan ja erittäin pahasti.

Miten tämä oli oletettavaa Kouvolan kohdalla?

Muutamien dronejen tähden vai muutamien droonien tähden. Kyllä tuo nyt vain taipuu fiksummin suomennettuna. En ole kumpaakaan versiota vastaan, mutta nuo taivutukset vaan toimii paremmin.
 
Ketjun kommentien persuteella ketjuun postailee useampikin AI botti, tai sitten ihminen ei pärjää Sanoma uutis AI botille
Viitaan siihen että ohitettu kokonaan se että julkaisu virhe johtu ihmisen prosessi virheestä, joka mainittu uutisessa että ketjussa toistettu.

Mutta hyvä uutisnosto, näiden kielimallien suuri haaste on se että ne tuottaa niin uskottavaa tekstiä että saa olla tarkkana tarkistaessa.

Mikä hemmetin idea on tekoälyssä, jossa ihmisen täytyy faktat tupla ja triplatarkastaa? Tossa nyt menee saman verran aikaa ja laatu kärsii.
 
Viimeksi muokattu:
Kiinnostaisi tietää millaista tekoälytyökalua nuo käyttää, kun tuon tason virheitä tekee? Joku ilmainen ChatGPT ilman hakua? :kahvi:
 
Kiinnostaisi tietää millaista tekoälytyökalua nuo käyttää, kun tuon tason virheitä tekee? Joku ilmainen ChatGPT ilman hakua? :kahvi:
Hesari kertoo työkaluista täällä:

"Juttuapuri" lienee se tässä yhteydessä käytetty työkalu. Ilmeisesti kyseessä on jokin tuohon tarkoitukseen räätälöity ratkaisu. Sen käyttämistä tekoälymalleista ei ole kerrottu tarkemmin.
 
Klo 11.44 taidettiin hesarin juttu julkaista ja oikaista vasta n. pari tuntia myöhemmin. Vai päivitettiinkö uutista harhaanjohtavaksi julkaisun jälkeen?
 
Ikävää, että mediakin kaivaa tiedot tekoälyltä varmentamatta asiaa. Esimerkiksi Googlen tekoäly on antanut useamman kerran virheellisiä tuloksia. Vaimo oli ostamassa lentokonereppua, joka menee istuimen alle. Valmistaja takasi, että laukku mahtuu kaikkien yhtiöiden mittoihin. Vaimon sisko oli Googlettanut, että laukku ei täytä Ryanairin vaatimuksia. Viikkojen miettimisten jälkeen kävi ilmi, että Google oli antanut väärät mitat Ryanairin suhteen. Oikeat mitat ovat 40x30x20cm ja tekoäly antoi 40x25x20cm.

Näyttökuva 2026-03-31 072027.png
 
Kuinka saamaton vätys saa olla, jos ei edes otsikkoa jaksa itse kirjoittaa. Saisi tuo A.I paske loppua kokonaan, myös io-techin tuottamassa sisällössä.
 
Kuinka saamaton vätys saa olla, jos ei edes otsikkoa jaksa itse kirjoittaa. Saisi tuo A.I paske loppua kokonaan, myös io-techin tuottamassa sisällössä.
io-techin sisällössä tekoälyä käytetään erittäin harvoin uutiskuvissa, parissa videosta tehdyssä artikkelissa, joita ei muuten olisi tehty lainkaan tekstiformaatissa, sekä joidenkin YouTube-videoiden englanninkielisen ääniraidan tekemiseen.
Varsinaista sisältöä sillä ei siis tuoteta/tehdä.
 
Niin tai siis oikeammin ”Kouvolaan pudonneet droonit uutisoitiin venäläisiksi ihmisen virheen vuoksi”. Ihminen käytti työkalua ohjeistusten vastaisesti ja julkaisi virheellistä tietoa.
 
Ikävää, että mediakin kaivaa tiedot tekoälyltä varmentamatta asiaa. Esimerkiksi Googlen tekoäly on antanut useamman kerran virheellisiä tuloksia. Vaimo oli ostamassa lentokonereppua, joka menee istuimen alle. Valmistaja takasi, että laukku mahtuu kaikkien yhtiöiden mittoihin. Vaimon sisko oli Googlettanut, että laukku ei täytä Ryanairin vaatimuksia. Viikkojen miettimisten jälkeen kävi ilmi, että Google oli antanut väärät mitat Ryanairin suhteen. Oikeat mitat ovat 40x30x20cm ja tekoäly antoi 40x25x20cm.

Näyttökuva 2026-03-31 072027.png
Google-hakujen Gemini AI on testaamistani tekoälyistä omien kokemuksieni mukaan myös surkein. Se antaa jatkuvasti väärää tietoa eikä siihen ole luottamista.
 
Vaimon sisko oli Googlettanut, että laukku ei täytä Ryanairin vaatimuksia. Viikkojen miettimisten jälkeen kävi ilmi, että Google oli antanut väärät mitat Ryanairin suhteen. Oikeat mitat ovat 40x30x20cm ja tekoäly antoi 40x25x20cm.

Googlettanut.

Google oli antanut väärät mitat
Gemini oli antanut väärät mitat.

Tämähän se olisi, jännästi kielikin muuttuu nopeiden muotivirtausten takia melkein yön yli. Toisin sanoen siis meinasi googlettaa mutta ei jaksanut vaan tyytyi algoritmiseen yhteenvetoon. Tai ehkä uuteen normiin tottuneena mielsi googlaavansa(mikä aiemmin oli yleistyneen tuotemerkin mukainen verbi merkityksessä "tehdä webhakukysely ja käyttää vastauksena saatuja tietoja käsityksen muodostamiseen"). Ennen kun tuolla tarkoitettiin, että oikeasti haettiin jotain tietoa. Nykyään homma voi jäädä kesken kun ensimmäisenä tulee automaattinen puskistahuuto miten "ei kannata, tässä ois sulle".

Samaan kompastui myös uutisen tapauksessa toimitus ja paniikkijulkaisi äkkiväärän uutisankan täysin päättömästi. Sinänsä vanha ilmiö, mutta uudessa muodossa. Nyt siis vahinko tapahtui tekoälyavusteisesti tavalla, jota ei olisi käytännössä ilman tekoälyn "apua" sattunut. Vain hyvin varomaton kesähessu ja sopivasti kohdalle osunut härski disinfo johtaisi normaalisti noin pahaan mokaan. Nyt julkaisuvauhtikiimaa varten turattu pökäletyökalu - jonka toimintaa ilmeisesti toimittajat eivät ymmärtäneet pintapuolisestikaan - johti tyrimiseen^2.
 
Googlettanut.


Gemini oli antanut väärät mitat.

Tämähän se olisi, jännästi kielikin muuttuu nopeiden muotivirtausten takia melkein yön yli. Toisin sanoen siis meinasi googlettaa mutta ei jaksanut vaan tyytyi algoritmiseen yhteenvetoon. Tai ehkä uuteen normiin tottuneena mielsi googlaavansa(mikä aiemmin oli yleistyneen tuotemerkin mukainen verbi merkityksessä "tehdä webhakukysely ja käyttää vastauksena saatuja tietoja käsityksen muodostamiseen"). Ennen kun tuolla tarkoitettiin, että oikeasti haettiin jotain tietoa. Nykyään homma voi jäädä kesken kun ensimmäisenä tulee automaattinen puskistahuuto miten "ei kannata, tässä ois sulle".

Samaan kompastui myös uutisen tapauksessa toimitus ja paniikkijulkaisi äkkiväärän uutisankan täysin päättömästi. Sinänsä vanha ilmiö, mutta uudessa muodossa. Nyt siis vahinko tapahtui tekoälyavusteisesti tavalla, jota ei olisi käytännössä ilman tekoälyn "apua" sattunut. Vain hyvin varomaton kesähessu ja sopivasti kohdalle osunut härski disinfo johtaisi normaalisti noin pahaan mokaan. Nyt julkaisuvauhtikiimaa varten turattu pökäletyökalu - jonka toimintaa ilmeisesti toimittajat eivät ymmärtäneet pintapuolisestikaan - johti tyrimiseen^2.
Minulla on oma pään sisäinen barometri näihin ihmissuhteissa, että jos keski-ikäinen ei ymmärrä tällaisen tiedon vahvistuksen merkitystä, niin on vaikea puhua mistään muustakaan tällaisen henkilön kanssa, jos tuntuu toistuvasti joutuvan harhaan sen pohjalta, kun elämä tulee olla helppoa pikahauilla.

Sitten toisaalta jos tällainen henkilö on >70v<, niin lähes aina on että eivät enää adaptoidu hektiseen internet aikaan.
 

Statistiikka

Viestiketjuista
304 168
Viestejä
5 154 581
Jäsenet
82 456
Uusin jäsen
Daruo

Hinta.fi

Back
Ylös Bottom