Tekoäly

Monien ihmisten psyyke voi kärsiä vakavalla tavalla, jossei ole mitään mielekästä tekemistä.

Kuinka moni nykyduunari pitää omaa päivätyötään "mielekkäänä tekemisenä"?

Kai sitä nyt jotain mielekästä harrastustoimintaa luulisi keksivän, jos ei tarvitse oman elämisensä turvaamisesta huolehtia.

Vai oonksmä taas yliarvioinut ihmisten kyvyn keksiä itselleen mielekkäitä puhteita? :)
 
Kuinka moni nykyduunari pitää omaa päivätyötään "mielekkäänä tekemisenä"?

Kai sitä nyt jotain mielekästä harrastustoimintaa luulisi keksivän, jos ei tarvitse oman elämisensä turvaamisesta huolehtia.

Vai oonksmä taas yliarvioinut ihmisten kyvyn keksiä itselleen mielekkäitä puhteita? :)
Se varmaan riippuu ihan henkilöstä.

Mutta väittäisin, että monissa kulttuureissa ollaan ongelmissa, kun ihmiset vaan vetelehtii päivät pitkät eikä ole mitään oleellista puuhaa.
 
Uskoisin, että ihmiskunta kyllä voisi keksiä mielekästä harrastamista, jos ei tarvisi käydä töissä. Itsellä mietityttää tässä asetelemassa se, miten siihen sijoitetaan kapitalismi.

Uskon, että ihmiseen on built-in koodattu kateus. Paljon ikävää tuottava ominaisuus, mutta samalla ihmisen ponnistelujen moottori. Tämä surkea apinaelukka on niin kauan tyytyväinen kunhan itellä on enemmän kuin viereisen liaanin lajikaverilla. On ihan sama kuinka hyvin tai surkeasti itsellä menee kunhan muilla menee hieman surkeammin, tai on vähemmän jne. Ja tämä saa sitten elukan ponnistelemaan kohti parempaa, jonka seurauksena keksitään traktoreita, mikroaaltouuneja, syöpähoitoja, hermomyrkkyjä ja ydinpommeja.

Koska kateus on built-in geeneissä koodattu eikä kapitalismin opettama (näin uskon), se täytyy olla läsnä myös tilanteessa, jossa ihmisen ei tarvi enää tehdä työtä elääkseen mukavasti. Toisin sanoen: vaikka robotit hoitaa kaiken, toisilla täytyy silti edelleen olla mukavammin kuin toisilla. Miten tämä asia toteutuu, on aika kiinnostavaa, jos ihmiskunta ei enää käy töissä tehdäkseen mitään tuottavaa. Tähän liittyvä dystopia on sellainen, jossa erittäin pienellä osalla, eli niillä jotka omistaa algoritmit, on asiat todella mukavasti, ja kaikilla muilla sitten varsin surkeasti.
 
ELi tässäkin pätee vanha totuus, pitkän aikavälin kehitys aliarvioidaan ja lyhyen yliarvioidaan. Tuntuu siltä, että tässä tekoälypöhinässä useampikin käsienheiluttaja käärii hyvät rahat perus kysymysvastauskoneista. En väheksy chatgpt:tä ja olen sitä itsekin kokeillut, mutta jos rehellisesti todetaan, eihän tuo ole kuin puppulausegeneraattori. Suoltaa ulos ihan vakuuttavan kuuloista faktaa, mutta järjestelmä ei itse ymmärrä, ovatko kyseiset faktat oikein tai väärin.
 
Eikö se, että koneet tekee kaiken työn ole kuitenkin eräänlainen optimitilanne? Toki siinä murrosvaiheessa on paljon haasteinta yhteiskunnilla, mutta sen jälkeen. Ihmiset voivat duunata mitä haluavat.
Koneiden omistajalle kyllä. Muille onkin sitten vähän nihkeämpää.
Tässä ideaalissa on kysymys siitä, että vaarallista, raskasta, yksitoikkoista, tehotonta ja/tai epämielekästä ihmistyötä poistuu kun koneet tekevät sen. Ihmistyön kokonaan poistamisen dilemma ei riipu pelkästään työntekijöiden tai yrittäjien tai suurpääoman näkemyksistä vaan myös asiakkaista. Ihmisillä on kuitenkin motiiveja ostaa aitoja asioita, ja tämä luo jonkinlaista kysyntää ihmistyölle. Tänäkin päivänä 2020-luvulla harjoitetaan perinteisiä käsityöammatteja. Luulen, että jonkinlaisessa perustulon teknoutopiassa tämä lisääntyisi eikä vähenisi.
Miksi olisi? Ei yhtiskunta tuollaisessa tilanteessa enää olisi nykyisen kaltainen.
Niin, jonkinlaisesta Star Trek -utopiasta tässä yleensä on puhe, ja sitä on vaikea menneisyydestä käsin hahmottaa. Jo nykyinen yhteiskunta esimerkiksi Pohjoismaissa on aivan utopiaa vaikkapa varhaisen teollistuneen yhteiskunnan näkökulmasta.
Se varmaan riippuu ihan henkilöstä.

Mutta väittäisin, että monissa kulttuureissa ollaan ongelmissa, kun ihmiset vaan vetelehtii päivät pitkät eikä ole mitään oleellista puuhaa.
Voidaan myös ajatella, että ihmiset vailla työtä vetelehtivät, koska joko heillä ei ole motivaatiota siihen työhönkään tai ei ole varaa harrastaa tulotason ollessa ymmärrettävästi matalampi. En usko, että motivoituneet tai edes keskiverrot yksilöt yleisesti vetelehtivät tilanteessa, jossa heidän palkkatyönsä lakkaa olemasta ja samaan aikaan heillä on taloudellinen resurssi toteuttaa itseään.
 
Tuo on varmaan lähempänä kuin kauempana. Koodari, opettaja ja psykologi on esimerkkejä ammateista, joissa tarkoituksena on tiivistettynä hyödyntää aiempaa dataa ja sen perusteella vastata kysymyksiin. ChatGPT tekee juuri tuota. Tuo oli se perustelu videollakin.
Tekstuaalisen tiedon synteesissähän tuollainen GPT-arkkitehtuuri on kyllä erittäin hyvä ja vielä paremmaksi (kirjoitin ensin pahemmaksi...) varmasti kehittyy. Mutta kuten toisessa viestissä totesitkin: "se silti tulee olemaan vain kysymys-vastaus kone eikä yleiskäyttöinen älykkyys kuten ihmisen aivot", ja tuossa on nähdäkseni se este monien ammattien korvaamiselle.

Vaikka siinä seuraavan sukupolven ChatGPT:ssä olisi googolplex parametria, niin se on kuitenkin vain kielimalli. Aivan äärimmäisen hyvä tuottamaan ja yhdistelemään ja ymmärtämään tekstiä, mutta vain siinä, miten tietynlaiset merkkijonot esiintyvät suhteessa toisiin merkkijonoihin. Ihmisaivoissa jokainen sana tai lause assosioituu automaattisesti moniin erilaisiin tiedon muotoihin. ChatGPT:lle sana "koira" on vain joukko kirjaimia, jotka todennäköisesti esiintyvät yhdessä toisenlaisten kirjainyhdistelmien kanssa. Mutta kielimalli ei assosioi koira-sanaa siihen, miltä koira näyttää, mitä koira tekee, miksi koiraa on kiva rapsuttaa tai miltä tuntuu astua uusilla kengillä koiran jätöksiin. Joo, toki on olemassa malleja, jotka pystyvät jo nykyisin tuottamaan tekstimuotoisen kuvauksen visuaalisesta datasta, mutta ei sellainenkaan malli ymmärrä sitä, mitä siinä kuvassa oikeasti tapahtuu.

Tietysti voidaan väitellä siitä, mitä ymmärtäminen oikeasti on, mutta keskeisesti siihen kuuluu nähdäkseni ainakin kyky käsitellä erilaisia abstrakteja asioita ja niiden yhteyksiä. Jos puhutaan vaikka koodaamisesta, niin tulevista tekoälykilkkeistä tulee varmasti aivan ylivertaisia yksinkertaisissa konkreettisissa tehtävissä, joissa rakennetaan vaikka webbilomake. Mutta sellainen ei nähdäkseni olekaan koodaajan pääasiallinen tehtävä, vaan luoda ohjelmallisia sääntöjä, joilla jollakin tavalla kuvataan todellisen maailman käyttäytymistä. Niin kauan, kun tekoälymallilla ei ole kykyä käsitellä abstraktioita tai ainakin hyvin laajasti montaa erityyppistä dataa samaan aikaan, ei se kykene kyllä nähdäkseni myöskään korvaamaan ohjelmoijaa. Koodaajan työ varmasti jossain määrin muuttuu ja koodia aletaan ehkä tuottaa korkeammalla tasolla, mutta kyllä niiden ongelmien sekä ongelmien ratkaisuiden muotoiluun tarvitaan uskoakseni edelleen ihminen. Enkä näe, että mikään ChatGPT:n tai vastaavan päälle rakentava malli kykenisi muuttamaan tätä. (Toki asiaa pystytään varmaan tiettyyn pisteeseen asti emuloimaan lyömällä aivan järjettömiä määriä resursseja suorituskykyyn.)
 
Kun tekoäly nyt kiihtyvällä vauhdilla ottaa eri tehtäviä haltuun, niin oletettavasti myös sitä opitaan ottamaan käyttöön nopeammin jatkuvasti.

Juuri oli uutinen sijoittajatekoälystä, joka nopeasti sai 100% lisää tuottoa ihmisiin verrattuna. Kai tuota jo joku tekoälyn hyödyntäjä käyttää keräten pottia kiihtyvään tahtiin ja muut koittaa pysyä mukana ottamalla jotain samankaltaista käyttöön. Hups, kohta rahamarkkinat onkin aivan liian nopealiikkeisiä että ihmisillä on siellä paljoa tehtävää.

Tekoäly vaikka jossain Microsoftin tuotteessa voi äkkiä korvata paljon ihmistyötunteja, tiedän että ainakin omassa työpaikassa olisi paljon sellaista työtä mitkä voisi jättää koneelle, jolla olisi vain hieman lisää kehitystä taustalla kuin mitä nyt jo on. Jos otetaan homma haltuun muita ennen niin kyseinen firma kasvaa nopsaan johonkin IKEA kokoluokkaan. Tai itseasiassa pystyisin itse tietyt asiat hallitsevan tekoälyn kanssa ottamaan markkinat haltuun, pitäisi vaan tiettyjä osia toiminnasta tehdä alkuun omin käsin. Tosin pari viikkoa tuosta eteenpäin tuotteen markkinoita ei enää olisi olemassakaan kehityksen takia.

Vaikuttaa siltä että jos kohta Bing alkaa antaa järkeviä kokonaisia vastauksia kysymyksiin kuten "miten perustan XXXXX alan firman ja teen siitä erittäin kilpailukykyisen?", niin ollaan juurikin siinä jyrkästi nousevan kehityskäyrän kohdassa, jonka jälkeen vauhti alkaa huimata.

-Bing: haluatko että teen paperityöt valmiiksi ja käynnistän liiketoiminnan heti?
-Ok
-Bing: Liiketoiminta aloitettu, tililläsi on nyt tarpeeksi rahaa ostaa Google. ;)
 
Juuri oli uutinen sijoittajatekoälystä, joka nopeasti sai 100% lisää tuottoa ihmisiin verrattuna. Kai tuota jo joku tekoälyn hyödyntäjä käyttää keräten pottia kiihtyvään tahtiin ja muut koittaa pysyä mukana ottamalla jotain samankaltaista käyttöön. Hups, kohta rahamarkkinat onkin aivan liian nopealiikkeisiä että ihmisillä on siellä paljoa tehtävää.
Niinpä:
That 114-holding portfolio is up 10.4% so far in 2023, while the Vanguard Total Stock Market ETF is up 5% over the same stretch.
Eli 100% verrattuna sopivaan ETF:ään ja sopivasti valitulla lyhyellä ajanjaksolla. Näin niitä sensaatiouutisia tehdään.

Sitten hieman eri aiheesta:
San Francisco haluaa hidastaa autonomisten autojen testien laajentamista:
San Francisco is getting cold feet about self-driving car tests
San Francisco officials have called for a slower, more considered expansion of the use of autonomous vehicles, which have blocked traffic and hampered emergency services
 
Tekstuaalisen tiedon synteesissähän tuollainen GPT-arkkitehtuuri on kyllä erittäin hyvä ja vielä paremmaksi (kirjoitin ensin pahemmaksi...) varmasti kehittyy. Mutta kuten toisessa viestissä totesitkin: "se silti tulee olemaan vain kysymys-vastaus kone eikä yleiskäyttöinen älykkyys kuten ihmisen aivot", ja tuossa on nähdäkseni se este monien ammattien korvaamiselle.

Vaikka siinä seuraavan sukupolven ChatGPT:ssä olisi googolplex parametria, niin se on kuitenkin vain kielimalli. Aivan äärimmäisen hyvä tuottamaan ja yhdistelemään ja ymmärtämään tekstiä, mutta vain siinä, miten tietynlaiset merkkijonot esiintyvät suhteessa toisiin merkkijonoihin. Ihmisaivoissa jokainen sana tai lause assosioituu automaattisesti moniin erilaisiin tiedon muotoihin. ChatGPT:lle sana "koira" on vain joukko kirjaimia, jotka todennäköisesti esiintyvät yhdessä toisenlaisten kirjainyhdistelmien kanssa. Mutta kielimalli ei assosioi koira-sanaa siihen, miltä koira näyttää, mitä koira tekee, miksi koiraa on kiva rapsuttaa tai miltä tuntuu astua uusilla kengillä koiran jätöksiin. Joo, toki on olemassa malleja, jotka pystyvät jo nykyisin tuottamaan tekstimuotoisen kuvauksen visuaalisesta datasta, mutta ei sellainenkaan malli ymmärrä sitä, mitä siinä kuvassa oikeasti tapahtuu.

Tietysti voidaan väitellä siitä, mitä ymmärtäminen oikeasti on, mutta keskeisesti siihen kuuluu nähdäkseni ainakin kyky käsitellä erilaisia abstrakteja asioita ja niiden yhteyksiä. Jos puhutaan vaikka koodaamisesta, niin tulevista tekoälykilkkeistä tulee varmasti aivan ylivertaisia yksinkertaisissa konkreettisissa tehtävissä, joissa rakennetaan vaikka webbilomake. Mutta sellainen ei nähdäkseni olekaan koodaajan pääasiallinen tehtävä, vaan luoda ohjelmallisia sääntöjä, joilla jollakin tavalla kuvataan todellisen maailman käyttäytymistä. Niin kauan, kun tekoälymallilla ei ole kykyä käsitellä abstraktioita tai ainakin hyvin laajasti montaa erityyppistä dataa samaan aikaan, ei se kykene kyllä nähdäkseni myöskään korvaamaan ohjelmoijaa. Koodaajan työ varmasti jossain määrin muuttuu ja koodia aletaan ehkä tuottaa korkeammalla tasolla, mutta kyllä niiden ongelmien sekä ongelmien ratkaisuiden muotoiluun tarvitaan uskoakseni edelleen ihminen. Enkä näe, että mikään ChatGPT:n tai vastaavan päälle rakentava malli kykenisi muuttamaan tätä. (Toki asiaa pystytään varmaan tiettyyn pisteeseen asti emuloimaan lyömällä aivan järjettömiä määriä resursseja suorituskykyyn.)
Joo, kysymys-vastaus -malli ei sovellu kaikkiin ammatteihin, mutta tuo koodaus on yksi ammatti mihin se sopii mainioisti. Sitähän koodaus käytännössä on, asiakas esittää vaatimukset mitä halutaan tehdä (kysymys) ja koodaaja antaa koodin, joka tekee kyseisen asian (vastaus).

En oikein ymmärrä mitä tarkoitat tuolla ettei tekoäly voisi ymmärtää abstraktiota tai laajasti erityyppisiä datoja yhtäaikaa. Mikä olisi esimerkki tälläisestä koodaukseen liittyvästä abstraktiosta, jota tekoäly ei voisi ymmärtää? Tietysti se tekoälyn kyky on käytönnössä rajoittunut siihen materiaaliin, jolla se on opetettu, mutta miksei tuo materiaali voisi sisältää noita eri abstraktien asioiden välisiä assosisaatiotakin myös? Erilaiset datatyypit ja niiden väliset yhteydetkään ei vaikuta mitenkään mahdottomalta ajatukselta.

Se ehkäpä on yksi iso ongelma, että tekoälyltä pitäisi osata kysyä oikeita asioita. Vaikka lähdettäisiin siitä hypoteesistä, että tekoäly ymmärtää täysin mitä siltä kysytään, niin ongelma silti voi olla että kysyjä ei osaa kysyä sitä mitä oikeasti haluaa. Täähän on sellainen ongelma mikä tulee ihmiskoodareillakin usein eteen ja vaatimuksista pitää osata esittää tarkentavia kysymyksiä. Mutta en näe estettä miksei tekoälyä voisi laittaa tätäkin tekemään. Lopulta tietty lopputulos on aina vain niin hyvä kuin vaatimusten määrittely, mutta niinhän se on ihmiskoodareidenkin kanssa.

Ensin varmaan tekoäly koodauksessa tulee olemaan vain yksi auttava työkalu ja käyttäjän pitää ymmärtää mitä sieltä tuli tuloksena. Sillä tasolla voisi sanoa että ollaan nyt. Kun ChatGPT:ltä pyytää koodia, niin se on useimmiten lähes oikein. Joko se pitää itse tehdä loppuun tai sitten toinen vaihtoehto on kertoa, missä kohti on jotain vikaa tai tulee virhe, niin tekoäly koittaa parantaa kyseistä kohtaa ja silloin saattaa osua oikeaan. Muutenkin tuollaiset tarkennukset tuntuu tuon kanssa auttavan aika paljon saamaan siitä koodista toimivaa. Kovin suuria kokonaisuuksia ei ChatGPT:n kautta myöskään saa tuon keskusteluformaatin takia, mutta jos tuo olisi rakennettu erikseen koodin generointiin niin en tuossakaan näe mahdotonta estettä.
Tulevaisuudessa kuitenkin tuokin voi parantua eikä siihen välttämättä tarvitse uutta teknologiaa vaan riittää että tekoälyä opetetaan enemmän ja suuremmalla määrällä materiaalia. Jossain vaiheessa hyvinkin voidaan päästä siihen, että koneelle ei tarvitse kuin kertoa mitä halutaan ja se tuottaa suoraan toimivaa koodia.

Tämä siitä perspektiivistä että itse teen näitä koodaushommia ja määrittelyjä asiakkaan kanssa työkseni. Ja muuten varmaan käyttäisin jo nyt ChatGPT:tä apuna, mutta teknologia minkä parissa työskentelen on suljettua koodia eikä APIen speksejä ole julkisessa jaossa, niin ei tuo kone oikein pystynyt antamaan minkäänlaista koodia tuohon liittyen ulos. Mutta niiltä osin kun tarvitsee jotain ei-suljetun API:n asioita selvittää niin täytyy seuraavalla kerralla koittaa Googlen ja Stackoverflown sijaan käyttää ChatGPT:tä.
 
Joo, kysymys-vastaus -malli ei sovellu kaikkiin ammatteihin, mutta tuo koodaus on yksi ammatti mihin se sopii mainioisti. Sitähän koodaus käytännössä on, asiakas esittää vaatimukset mitä halutaan tehdä (kysymys) ja koodaaja antaa koodin, joka tekee kyseisen asian (vastaus).

En oikein ymmärrä mitä tarkoitat tuolla ettei tekoäly voisi ymmärtää abstraktiota tai laajasti erityyppisiä datoja yhtäaikaa.
Kyllä tekoäly niitä varmasti jossakin vaiheessa voi ymmärtää, mutta en usko, että se tapahtuu millään nykyisin tunnetuilla teknologioilla. No, erityyppisistä datoista voisi varmaan luoda jonkinlaisia synteesejä samaan tapaan kuin vaikka sanoista ja lauseista nykyisin luodaan vektoreita. Mutta jos jo pelkästään tekstidataa yhdistelevässä kohtuullisen suorituskykyisessä kielimallissa on ihan tolkuton määrä parametreja, niin tarvitaan varmaan jokin ihan uudenlainen ratkaisu, jotta kielimallin parametreihin saadaan yhdistettyä vaikkapa visuaalista, temporaalista, spatiaalista jne. dataa.

Kyvyttömyys ymmärtää abstraktioita on ainakin osittain seurausta juuri siitä, ettei sellaista esitysmuotoa ole olemassa. Jos ajatellaan jotain osittain abstraktia käsitettä, vaikkapa "autokolari", niin ihmisellä on siitä aivoissa heti monta rinnakkaista esitystapaa: miten autot liikkuvat kolarissa, minkälaisia erilaisia kolareita on, minkälaisia potentiaalisia seurauksia kahden ajoneuvon törmäyksellä on esim. muuhun liikenteeseen, ajoneuvoissa saattaa olla sisällä eri-ikäisiä ja eri tavoin suojattuja ja eri tavoin kolhuja kestäviä matkustajia... Nykyaikaiset koneoppimismallit eivät mitenkään kykene ymmärtämään tuollaista käsitettä kokonaisuutena. Joku ChatGPT pystyy kyllä varmasti tuottamaan hirvittävän määrän tekstiä kolarista, mutta se ei ymmärrä yhtään mitään merkityksistä niiden sanojen takana.

Itse ajattelen kysymys-vastaus-ongelman ja abstraktio-ongelman liittyvän vahvasti toisiinsa. Jos kysymys osataan esittää riittävän konkreettisella tasolla, niin sitten kone kykenee toki jo nyt antamaan siihen vastauksen kooditasolla. Mutta periaatteessahan ohjelmointikin on sitä. Uskon kyllä, että varmaan aika lyhyelläkin aikavälillä moni ohjelmoinnissa tapahtuva rutiinitoimenpide korvautuu nykyistä korkeamman tason kuvauksella. Jokin perustason CRUD-sovelluksen toteutus saattaa onnistua koneelta melko pian lähitulevaisuudessa. Mutta kun pitää miettiä uusia ratkaisuja ratkaisemattomiin ongelmiin, tarvitaan mielikuvitusta ja kykyä innovoida. Nähdäkseni se on suola ohjelmoijan työssäkin, eikä jonkin saman lomakkeen vääntäminen vähän eri tiedoin uudestaan ja uudestaan.

Edit: Pidän siis kyllä ihan mahdollisena tuota esittämääsi ajatusta, että jossain vaiheessa koneelle vain kerrotaan, mitä halutaan, ja kone tuottaa toimivaa koodia. Mutta en usko, että lähitulevaisuudessa ollaan sellaisessa tilanteessa, että koodaajista kokonaisena ryhmänä tulee tarpeettomia. Koodaajan tehtäviin lukeutuu tuolloin tulevaisuudessa esimerkiksi sen "kerrotaan, mitä halutaan"-ongelman paloittelu niin konkreettisiin paloihin, että kone kykenee niitä toteuttamaan.
 
Viimeksi muokattu:
En väheksy chatgpt:tä ja olen sitä itsekin kokeillut, mutta jos rehellisesti todetaan, eihän tuo ole kuin puppulausegeneraattori. Suoltaa ulos ihan vakuuttavan kuuloista faktaa, mutta järjestelmä ei itse ymmärrä, ovatko kyseiset faktat oikein tai väärin.
Käske sen kirjoittaa jollain tuntemallasi kielellä esimerkkikoodi vaikka tiedon hakemisesta databasesta ja kirjoittamista sinne. Itse ainakin testaillut esim. C tai Java esimerkkikoodeja ja kyllä se ihan toimivaa koodia suoltaa kommentteineen.
 
Käske sen kirjoittaa jollain tuntemallasi kielellä esimerkkikoodi vaikka tiedon hakemisesta databasesta ja kirjoittamista sinne. Itse ainakin testaillut esim. C tai Java esimerkkikoodeja ja kyllä se ihan toimivaa koodia suoltaa kommentteineen.
Mutta eihän tämä vastaa mitenkään siihen pätkään, jota lainasit. Kieli kuin kieli. On se kunnioitettava saavutus tuottaa lähdekoodia, mutta niin on myös tuottaa järkevää tekstiä kieliopillisesti ehjällä suomen kielellä. Kumpikaan ei implikoi ymmärrystä, vaikka kysymykseen saadaan vastaus ja usein vieläpä oikea.
 
ELi tässäkin pätee vanha totuus, pitkän aikavälin kehitys aliarvioidaan ja lyhyen yliarvioidaan. Tuntuu siltä, että tässä tekoälypöhinässä useampikin käsienheiluttaja käärii hyvät rahat perus kysymysvastauskoneista. En väheksy chatgpt:tä ja olen sitä itsekin kokeillut, mutta jos rehellisesti todetaan, eihän tuo ole kuin puppulausegeneraattori. Suoltaa ulos ihan vakuuttavan kuuloista faktaa, mutta järjestelmä ei itse ymmärrä, ovatko kyseiset faktat oikein tai väärin.

Niinno, toisaalta ihmiset on myös puppulausegeneraattoreita, joilla ei myöskään ole mitään mystistä sisäsyntyistä kykyä tietää onko joku fakta oikeasti totta. Ihmiset ovat myös hyvin laiskoja, eli eivät myöskään jaksa yleensä selvittää onko joku heille faktana kerrottu asia oikeasti totta, kunhan sen kertova taho on tarpeeksi "uskottava". Tähän päälle vielä se oikeasti mystinen inhimillinen omituisuus, että monet ihmiset sitovat hirveän paljon omaa persoonaansa ja henkistä pääomaa pitääkseen kiinni "faktoistaan" vielä siinäkin vaiheessa vaikka todistusaineistoa niiden paikkansapitämättömyydestä olisi jo reippaastikin.

ChatGPT on todella paljon enemmän kuin "kysymysvastauskone", mutta ymmärrän jos se sellaiselta vaikuttaa ensi alkuun ja jos sitä vain sellaisena käyttää, niin ei ihmekään jos ei täysin ymmärrä mikä siinä "on niin ihmeellistä". Onhan noita "tsättibotteja" pyörinyt irkissä ja muualla jo ennen sinun syntymääsi. Todellisuudessa nämä kielimalli-AI:t on kuitenkin oikeasti niin paljon enemmän ja isoimpana rajoitteena toimii lähinnä käyttäjän mielikuvitus.
 
Viimeksi muokattu:
ChatGPT on todella paljon enemmän kuin "kysymysvastauskone", mutta ymmärrän jos se sellaiselta vaikuttaa ensi alkuun ja jos sitä vain sellaisena käyttää, niin ei ihmekään jos ei täysin ymmärrä mikä siinä "on niin ihmeellistä".
En viittaa kenenkään täällä, mutta noin yleisesti ottaen on jännä, miten ihmiset (eivät kaikki) usein suhtautuvat kehitykseen, varsinkin teknologiseen sellaiseen. Monilla on sellainen "sähköä tulee pistorasiasta"-tyyppinen asennoitumistapa, jossa mikään kehitys ei ole ihmeellistä paitsi tanssisuoritukset TTK:ssa ja huutokauppakeisarin uusimmat kippokaupat. Tai toinen vaihtoehto on, että innostus menee yli ja perusteettomaksi hypetykseksi. Vaikka tietysti sen sillä tavalla ymmärtää, että varsinkin maallikon on kyllä vaikea hahmottaa, minkälaisesta edistysaskeleesta milloinkin on oikeasti kyse.

No, eipä sillä, en itsekään osaa arvioida näiden kielimallien merkitystä riittävän hyvin, vaikka ammatin puolesta varmaan pitäisi. Viimeksi tänään testasin ChatGPT:n näkemystä erääseen ongelmaan, ja olin kyllä yllättynyt siitä, miten hyvin se suoriutui. Vaikka en nyt sitä pidäkään minään täydellisenä työpaikkojen tuhoajana, niin onhan se omassa kontekstissaan todella vaikuttava esitys ja merkittävä loikka verrattuna siihen, mikä oli mahdollista muutamia vuosia sitten.
 
Kyvyttömyys ymmärtää abstraktioita on ainakin osittain seurausta juuri siitä, ettei sellaista esitysmuotoa ole olemassa. Jos ajatellaan jotain osittain abstraktia käsitettä, vaikkapa "autokolari", niin ihmisellä on siitä aivoissa heti monta rinnakkaista esitystapaa: miten autot liikkuvat kolarissa, minkälaisia erilaisia kolareita on, minkälaisia potentiaalisia seurauksia kahden ajoneuvon törmäyksellä on esim. muuhun liikenteeseen, ajoneuvoissa saattaa olla sisällä eri-ikäisiä ja eri tavoin suojattuja ja eri tavoin kolhuja kestäviä matkustajia... Nykyaikaiset koneoppimismallit eivät mitenkään kykene ymmärtämään tuollaista käsitettä kokonaisuutena. Joku ChatGPT pystyy kyllä varmasti tuottamaan hirvittävän määrän tekstiä kolarista, mutta se ei ymmärrä yhtään mitään merkityksistä niiden sanojen takana.
Mikä tuossa on se (abstrakti?) kokonaisuus, jonka koneen pitäisi ymmärtää? Jos kerrot ihmiselle, että autokolari on tapahtunut, niin mitä ihminen siitä ymmärtää mitä kone ei voisi?

Toki koneelle pitää antaa tarkat parametrit, jotta se voi antaa luotettavan vastauksen, mutta ei ihminenkään pysty ilman yksityiskohtia kertomaan tietoja kolarista. Ehkä ihmisellä saattaa joku mielikuva tulla päähän pienilläkin tiedoilla, mutta se voi olla väärä. Samoin tekoälykin vajailla tiedoilla voi yrittää antaa jotain vastausta.
Itse ajattelen kysymys-vastaus-ongelman ja abstraktio-ongelman liittyvän vahvasti toisiinsa. Jos kysymys osataan esittää riittävän konkreettisella tasolla, niin sitten kone kykenee toki jo nyt antamaan siihen vastauksen kooditasolla. Mutta periaatteessahan ohjelmointikin on sitä. Uskon kyllä, että varmaan aika lyhyelläkin aikavälillä moni ohjelmoinnissa tapahtuva rutiinitoimenpide korvautuu nykyistä korkeamman tason kuvauksella. Jokin perustason CRUD-sovelluksen toteutus saattaa onnistua koneelta melko pian lähitulevaisuudessa. Mutta kun pitää miettiä uusia ratkaisuja ratkaisemattomiin ongelmiin, tarvitaan mielikuvitusta ja kykyä innovoida. Nähdäkseni se on suola ohjelmoijan työssäkin, eikä jonkin saman lomakkeen vääntäminen vähän eri tiedoin uudestaan ja uudestaan.

Edit: Pidän siis kyllä ihan mahdollisena tuota esittämääsi ajatusta, että jossain vaiheessa koneelle vain kerrotaan, mitä halutaan, ja kone tuottaa toimivaa koodia. Mutta en usko, että lähitulevaisuudessa ollaan sellaisessa tilanteessa, että koodaajista kokonaisena ryhmänä tulee tarpeettomia. Koodaajan tehtäviin lukeutuu tuolloin tulevaisuudessa esimerkiksi sen "kerrotaan, mitä halutaan"-ongelman paloittelu niin konkreettisiin paloihin, että kone kykenee niitä toteuttamaan.
Joo, uusien asioiden koodaaminen on se hauskin juttu. Mutta miten usein ne asiat sitten ovat aidosti uusia? Vaikka koodarista asia tuntuu uudelta niin käytännössä se on vain vanhojen asioiden yhdistelemistä. Miksei konekin voisi luoda tälläisiä uudenlaisia yhteyksiä?

Enemmän uusien asioiden keksimisessä on ongelma minusta siinä, että keksitään mitä halutaan tehdä. Sitten kun keksitään mikä se ratkaistava asia on niin kone voi sen sitten ratkaista. Tähän ehkä niitä koodareita tarvitaan jatkossakin, olemaan asiaakkaan ja tekoälyn välissä tulkitsemaan mitä oikeasti halutaan tehdä.
 
ChatGPT on todella paljon enemmän kuin "kysymysvastauskone", mutta ymmärrän jos se sellaiselta vaikuttaa ensi alkuun ja jos sitä vain sellaisena käyttää, niin ei ihmekään jos ei täysin ymmärrä mikä siinä "on niin ihmeellistä". Onhan noita "tsättibotteja" pyörinyt irkissä ja muualla jo ennen sinun syntymääsi. Todellisuudessa nämä kielimalli-AI:t on kuitenkin oikeasti niin paljon enemmän ja isoimpana rajoitteena toimii lähinnä käyttäjän mielikuvitus.
Kyllä ja ei.

Kyllä siinä mielessä, että onhan se ihmeellistä, että tuollainen on onnistuttu tekemään ja mahdollisuudet on rajoittamattomat tälle teknologialle, ja tosiaan aika paljon kiinni on tuosta että osaako kysyä oikeita kysymyksiä.

Ei, siinä mielessä että mitään taikuuttahan taustalla ei ole eikä ChatGPT:ssä ole varsinaista älykkyyttä. Tiivistettynä ChatGPT on vain kone, joka ymmärtää kysymyksiä, sillä on paljon dataa käytettävissä ja se osaa kysymyksen perusteella luoda yhteyden vastauksen välille, ja sitten esittää vastauksen ihmismäisellä tavalla. Pellin alla tämä systeemi on kuitenkin paljon yksinkertaisempi kuin voisi luulla. Mistään AGI:stahan ei ole kyse, ei edes sinnepäin.
 
Kyllä ja ei.

Kyllä siinä mielessä, että onhan se ihmeellistä, että tuollainen on onnistuttu tekemään ja mahdollisuudet on rajoittamattomat tälle teknologialle, ja tosiaan aika paljon kiinni on tuosta että osaako kysyä oikeita kysymyksiä.

Ei, siinä mielessä että mitään taikuuttahan taustalla ei ole eikä ChatGPT:ssä ole varsinaista älykkyyttä. Tiivistettynä ChatGPT on vain kone, joka ymmärtää kysymyksiä, sillä on paljon dataa käytettävissä ja se osaa kysymyksen perusteella luoda yhteyden vastauksen välille, ja sitten esittää vastauksen ihmismäisellä tavalla. Pellin alla tämä systeemi on kuitenkin paljon yksinkertaisempi kuin voisi luulla. Mistään AGI:stahan ei ole kyse, ei edes sinnepäin.

Kyseessä ei toki ole AGI, eikä sellaista varmaan tulla vielä hetkeen näkemäänkään, mutta se ei minusta ole silti yhtään ChatGPT:ltä pois, koska se ei sellainen yritäkään olla. Olen kyllä jonkun verran perehtynyt siihenkin miten ChatGPT ja vastaavat toimivat konepellin alla ja tiedän miten se suunnilleen toimii. Se, että perusperiaate neuroverkkojen takana ei ole kovinkaan monimutkainen, ei tarkoita sitä, etteikö oikealla opetusmateriaalilla voitaisi saada suorastaan huikeita loppuloputuloksia ja suoranaista emergenssiä. Esim. joku lääketieteellinen diagnostiikka olisi jo nykyisillä työkaluilla automatisoitavissa käytännössä kokonaan sellaiselle tasolle, että lääkäreitä tarvittaisiin lähinnä syöttämään dataa, jos siihenkään. Lähinnä puuttuu tarpeeksi kattavat datasetit oireista, hoitotulemista ja siihen päälle vaikka jotain sopivaa kuvannusdataa.

Noin muutenkin, on esitetty ihan kohtuullisen hyviä filosofisia argumentteja senkin puolesta, että loppujen lopuksi ihmisetkään ei ole oikeasti yhtään sen tietoisempia kuin nämä AI:tkaan. ;-)
 
Mikä tuossa on se (abstrakti?) kokonaisuus, jonka koneen pitäisi ymmärtää? Jos kerrot ihmiselle, että autokolari on tapahtunut, niin mitä ihminen siitä ymmärtää mitä kone ei voisi?
Heh, kirjoittelin tähän ensin pitkät pätkät eri esitystapojen yhdistämisestä, transformereista, multimodaalisista malleista sun muusta, mutta ei se nyt ehkä maksa vaivaa kuitenkaan. En minä tiedä, että kone ei lähitulevaisuudessa vie ohjelmoijien tai opettajien työtä. Toisaalta en oman alaan perustuvan tuntemukseni pohjalta jaksa uskoa myöskään siihen, että tekoäly kykenee lähitulevaisuudessa nykyisen kaltaisilla teknologioilla korvaamaan ohjelmoijat. Työn luonne muuttuu kyllä.

Mutta tämä keskustelu on joka tapauksessa niin spekulatiivisella tasolla näkökannasta riippumatta, että ehkä pitää vain odotella muutamia vuosia tai vuosikymmeniä/-satoja/-tuhansia ja katsoa, mitä tapahtuu, ja kenen uskomukset osoittautuivat oikeiksi.
 
Eihän nämä AI:t kokonaan koodaajia korvaa, vaan todennäköisesti tulee vaan yksi abstraktiotaso lisää. Aivan kuten on tapahtunut jo useamman kerran aiemminkin.

Itse uskon, että tulevaisuuden ohjelmointityöstä käytännön tasolla yhä isompi osa tapahtuu selväkielisesti, eli kerrot vaan AI:lle minkälaista toiminallisuutta haluat sen tuottavan. Koodarien työ tulee olemaan ennen kaikkea logiikan, rakenteen ja kokonaisuuden hallintaa, koneen hoitaessa nippelihommat.

Toki ne alemmat abstraktiotasot on edelleen siellä alla ja niihin kajotaan tarvittaessa, ja sen tason koodareille lienee edelleen kysyntää ihan samalla tavalla kuin nykyäänkin.
 
Viimeksi muokattu:
Heh, kirjoittelin tähän ensin pitkät pätkät eri esitystapojen yhdistämisestä, transformereista, multimodaalisista malleista sun muusta, mutta ei se nyt ehkä maksa vaivaa kuitenkaan. En minä tiedä, että kone ei lähitulevaisuudessa vie ohjelmoijien tai opettajien työtä. Toisaalta en oman alaan perustuvan tuntemukseni pohjalta jaksa uskoa myöskään siihen, että tekoäly kykenee lähitulevaisuudessa nykyisen kaltaisilla teknologioilla korvaamaan ohjelmoijat. Työn luonne muuttuu kyllä.

Mutta tämä keskustelu on joka tapauksessa niin spekulatiivisella tasolla näkökannasta riippumatta, että ehkä pitää vain odotella muutamia vuosia tai vuosikymmeniä/-satoja/-tuhansia ja katsoa, mitä tapahtuu, ja kenen uskomukset osoittautuivat oikeiksi.
Tiivistettynä meinaat, että nuo asiat ovat niin monimutkaisia ja monitahoisia ettei kone pysty niiden kokonaisuutta hanskaamaan? Itse väittäisin, että koneelle monimutkaisuus ei ole ongelma. Koneen näkökulmasta tuollaiset monimutkaiset ja monitahoiset yhteydet voivat olla jopa helpompia kuin ihmiselle. Tuossa tulee helposti sellainen vinouma kun ajattelee asiaa ihmisen näkökulmasta ja asiat tuntuvat vaikeilta, niin oletus on että sama asia on myös koneelle vaikea. Todellisuudessa asia, mikä on ihmiselle vaikea, voi olla koneelle ihan triviaali asia. Sama toki myös toisinpäin, joissain toisissa asioissa.

Varmasti en osaa minäkään tietysti sanoa milloin kone vie ohjelmoijan työt. Mutta miten hyvin tuo nyt jo osaa (varsinkin kun ChatGPT ei ole edes spesifisti ohjelmointia varten tehty). Nyt ollaan vasta ihan alkutekijöissä tämän kanssa eli se kehityksen kiihtyvä tahti on vasta lähdössä käyntiin. Paljon kehitystä saadaan varmasti myös kun vaan isketään lisää rautaa tulille ja tekoäly ruksuttelemaan lisää materiaalia läpi eli tekoälystä saadaan exponentiaalisesti parempi ilman että tarvitsee edes keksiä uusia innovaatioita. Näillä perusteilla veikkaisin, että vallankumous on lähempänä kuin kauempana.

Toisaalta ne viimeiset tarvittavat yksityiskohdat on aina niitä vaikeimpia. Jos kone tuottaa vaikka 99% validia koodia, niin silti vaaditaan ne koodarit hoitamaan tuo 1% loppuosuus. Ja se harppaus 99% -> 100% voi olla se minkä kehittämisessä menee ne vuodet tai vuosikymmenet.
 
Tiivistettynä meinaat, että nuo asiat ovat niin monimutkaisia ja monitahoisia ettei kone pysty niiden kokonaisuutta hanskaamaan? Itse väittäisin, että koneelle monimutkaisuus ei ole ongelma.
Ehkä ensisijaisesti sitä, että ihminen ei tällä hetkellä osaa (ainakaan kovin hyvin) kertoa koneelle, miten sitä kokonaisuutta käsitellään. Eli haaste on nähdäkseni siinä, että meillä on tällä hetkellä hyvin erillisiä tapoja käsitellä erillisiä informaatiomuotoja ja hyvin spesifisiä malleja tiettyjen ongelmien ratkaisemiseksi. Jos ajatellaan vaikkapa jotain multimodaalista mallia, esim. DALL·E, joka luo kuvia tekstikehotteista. Ja jos meillä sitten olisi malli, joka tunnistaa vaikkapa ääninauhalta kaikki ympäristön äänet ja osaa arvioida vielä niiden kohteiden sijaintiakin. Mutta jos haluamme rakentaa mallin, joka tekee äänestä saman kuin DALL·E tekee tekstistä, se koko arkkitehtuuri on rakennettava erikseen. Niissä molemmissa on toki samoja komponentteja, mutta kone ei itse kykene ymmärtämään, miten sitä arkkitehtuuria on muutettava, kun vaihdetaan teksti ääneksi.

No, voidaan tietysti spekuloida, voisiko olla jokin ChatGPT:n tuleva versio X, joka tuntee monipuolisesti erilaisia komponentteja erilaisista neuroverkoista ja niiden käyttötavoista, ja sitten versio X:lle vain sanotaan että "tuolta tulee tällaista dataa ja sieltä tulee sellaista dataa, tee malli joka yhdistää ne ja luo niiden pohjalta esityksen joka täyttää ehdot a, b, ja c". No, jää nähtäväksi.
 
Ehkä ensisijaisesti sitä, että ihminen ei tällä hetkellä osaa (ainakaan kovin hyvin) kertoa koneelle, miten sitä kokonaisuutta käsitellään. Eli haaste on nähdäkseni siinä, että meillä on tällä hetkellä hyvin erillisiä tapoja käsitellä erillisiä informaatiomuotoja ja hyvin spesifisiä malleja tiettyjen ongelmien ratkaisemiseksi. Jos ajatellaan vaikkapa jotain multimodaalista mallia, esim. DALL·E, joka luo kuvia tekstikehotteista. Ja jos meillä sitten olisi malli, joka tunnistaa vaikkapa ääninauhalta kaikki ympäristön äänet ja osaa arvioida vielä niiden kohteiden sijaintiakin. Mutta jos haluamme rakentaa mallin, joka tekee äänestä saman kuin DALL·E tekee tekstistä, se koko arkkitehtuuri on rakennettava erikseen. Niissä molemmissa on toki samoja komponentteja, mutta kone ei itse kykene ymmärtämään, miten sitä arkkitehtuuria on muutettava, kun vaihdetaan teksti ääneksi.

No, voidaan tietysti spekuloida, voisiko olla jokin ChatGPT:n tuleva versio X, joka tuntee monipuolisesti erilaisia komponentteja erilaisista neuroverkoista ja niiden käyttötavoista, ja sitten versio X:lle vain sanotaan että "tuolta tulee tällaista dataa ja sieltä tulee sellaista dataa, tee malli joka yhdistää ne ja luo niiden pohjalta esityksen joka täyttää ehdot a, b, ja c". No, jää nähtäväksi.
Tuo on totta, että ihminen ei osaa kertoa koneelle mitä haluaa, mutta ei ihminen osaa kertoa tuota toiselle ihmisellekkään kovin hyvin.

Enkä näe miksi tuossa, että dall-e:n syöte muutettaisiin tekstistä ääneen, tarvitsisi rakentaa arkkitehtuuri uudestaan. Kai nuo on rakennettu modulaariseksi eli eihän tuossa tarvitsisi kuin vaihtaa teksti-input moduuli ääni-input moduuliin. Tai vaikka sallia molemmat yhtäaikaa. Nykyteknologialla koneet pystyvät tulkitsemaan ääniäkin jo todella hyvin. Sama voidaan tehdä myös output-moduulille.
 
Mun kokemus chatgpt:sta ihan konkreettista tulosta tuottavan koodin kannalta on, että se nykymuodossaankin nopeuttaa tekemistä huomattavasti. Pintapuolisella osaamisella saa luotua joko boilerplate koodin, algoritmin tai ainakin paremmat lähteet ja selostuksen kuin mitä googlehaut(wikipedia, stack overflow) tuottaisivat. Ei tuo kaukana ole, että googlen haku, stack overflow, wikipedia yms. on muinaismuistoja.

Konkreettisesti esimerkiksi chatgpt osaa kertoa erilaisista matemaattisista asioista hyvin + antaa johdetut kaavat + selittää miksi joku asia on kuten se on + laskea lopputuloksia annetuilla arvoilla.

Jos/Kun microsoft/apple/google lähtevät optimoimaan sdk:ta ja bottia omien järjestelmiensä koodintuottoon niin tapahtuu aika jännittäviä asioita. Ei tuo työpaikkoja vähennä, mutta työn luonne ja tuottavuus muuttuu ihan erilaiseksi. Sen mitä perinteiseltä puolelta katoaa työpaikkoja niin syntyy uusia prompt engineering työpaikkoja.
 
Enkä näe miksi tuossa, että dall-e:n syöte muutettaisiin tekstistä ääneen, tarvitsisi rakentaa arkkitehtuuri uudestaan. Kai nuo on rakennettu modulaariseksi eli eihän tuossa tarvitsisi kuin vaihtaa teksti-input moduuli ääni-input moduuliin.
Joo, kyllä noita verkkoja pystytään paloittelemaan osiin ja vaihtamaan osa verkon kerroksista toisiin. Eli tuo, mitä sanoit, on mahdollista jo nyt, ja siihenkin voi rakentaa abstraktioita vielä väliin. Tarkoitin siis aiemmin sitä, että jokaiselle ongelmalle on oma arkkitehtuurinsa (vaikka ne sisältäisivätkin jaettuja komponentteja), jota kone ei osaa soveltaa uusiin ongelmiin. Ja tämän taas näen liittyvän siihen aiempaan, kun kirjoitin ihmisen ja koneen erilaisista kyvyistä käsitellä kokonaisuuksia. Ihmisellä on luontainen kyky yhdistellä eri muotoista informaatiota joustavasti ja muodostaa niistä kokonaisuuksia ilman, että jokaisessa tapauksessa erikseen kerrotaan, mitä tietoa siihen liittyy ja miten erimuotoinen informaatio liittyy aiempaan. Koneelle tämä pitää kuitenkin erikseen määritellä jokaisessa ongelmassa. Kun pieni lapsi oppii, että jokin otus on koira, niin sitten se koira pitää tiettyä ääntä, tuoksuu ja tuntuu tietyltä, käyttäytyy tietyllä tavalla, ja lapsi intuitiivisesti yhdistää nämä kaikki asiat kokonaisuudeksi siitä, minkälainen asia on koira. Mutta yhdentyyppiselle koneoppimisen mallille erilainen data on vain kohinaa tai ei ehkä edes yhteensopivaa, ja ihmisen on ne yhteydet luotava, ja silloinkin sillä mallilla ratkaistaan vain tietynlaisia asioita.
 
Joo, kyllä noita verkkoja pystytään paloittelemaan osiin ja vaihtamaan osa verkon kerroksista toisiin. Eli tuo, mitä sanoit, on mahdollista jo nyt, ja siihenkin voi rakentaa abstraktioita vielä väliin. Tarkoitin siis aiemmin sitä, että jokaiselle ongelmalle on oma arkkitehtuurinsa (vaikka ne sisältäisivätkin jaettuja komponentteja), jota kone ei osaa soveltaa uusiin ongelmiin. Ja tämän taas näen liittyvän siihen aiempaan, kun kirjoitin ihmisen ja koneen erilaisista kyvyistä käsitellä kokonaisuuksia. Ihmisellä on luontainen kyky yhdistellä eri muotoista informaatiota joustavasti ja muodostaa niistä kokonaisuuksia ilman, että jokaisessa tapauksessa erikseen kerrotaan, mitä tietoa siihen liittyy ja miten erimuotoinen informaatio liittyy aiempaan. Koneelle tämä pitää kuitenkin erikseen määritellä jokaisessa ongelmassa. Kun pieni lapsi oppii, että jokin otus on koira, niin sitten se koira pitää tiettyä ääntä, tuoksuu ja tuntuu tietyltä, käyttäytyy tietyllä tavalla, ja lapsi intuitiivisesti yhdistää nämä kaikki asiat kokonaisuudeksi siitä, minkälainen asia on koira. Mutta yhdentyyppiselle koneoppimisen mallille erilainen data on vain kohinaa tai ei ehkä edes yhteensopivaa, ja ihmisen on ne yhteydet luotava, ja silloinkin sillä mallilla ratkaistaan vain tietynlaisia asioita.
Joo, tekoälylle pitää data opettaa ja sen tieto on rajattu siihen mitä sille on opetettu. Mutta miksei noita mainitsemiasi asioita voisi sille opettaa? Miksei se voisi ymmärtää noiden eri asioiden välisiä yhteyksiä? Miksei tekoälylle voisi opettaa mikä koira on, että se voisi ymmärttää mikä koira on kokonaisuutena? Eikö ihmisenkin tiedot ole rajattu siihen mitä kyseinen ihminen on oppinut?
 
Konkreettisesti esimerkiksi chatgpt osaa kertoa erilaisista matemaattisista asioista hyvin + antaa johdetut kaavat + selittää miksi joku asia on kuten se on + laskea lopputuloksia annetuilla arvoilla.
Niin ja lopputulokseen ei voi luottaa, koska perustelut voivat aivan yhtä hyvin olla täysin vääriä. Hyvänä esimerkkinä Googlen mokailu Bardin kanssa.
 
Joo, tekoälylle pitää data opettaa ja sen tieto on rajattu siihen mitä sille on opetettu. Mutta miksei noita mainitsemiasi asioita voisi sille opettaa? Miksei se voisi ymmärtää noiden eri asioiden välisiä yhteyksiä? Miksei tekoälylle voisi opettaa mikä koira on, että se voisi ymmärttää mikä koira on kokonaisuutena? Eikö ihmisenkin tiedot ole rajattu siihen mitä kyseinen ihminen on oppinut?
Uskon, että olet ihan oikeassa. Taitaa isoin kynnys tällä hetkellä olla, että konealgoritmit vaativat isoja määriä iteraatioita/dataa, että oppivat kun taas ihminen toisinaan oppii kerrastakin. Jos/kun joku ratkaisee haasteen miten algoritmi saadaan oppimaan nopeammin niin löytyy iso epäjatkuvuuskohta ja joku tekee ihan valtavasti rahaa(ja nvidia rommaa,...)
 
Uskon, että olet ihan oikeassa. Taitaa isoin kynnys tällä hetkellä olla, että konealgoritmit vaativat isoja määriä iteraatioita/dataa, että oppivat kun taas ihminen toisinaan oppii kerrastakin. Jos/kun joku ratkaisee haasteen miten algoritmi saadaan oppimaan nopeammin niin löytyy iso epäjatkuvuuskohta ja joku tekee ihan valtavasti rahaa(ja nvidia rommaa,...)
Joo, ihmisen ja koneen oppimisen ero on siinä, että ihminen voi oppia spesifimmin juuri niitä tarvitsemiaan asioita, kun taas koneen pitää laajemmin saada materiaalia aiheesta, jotta voi vasta spesifeihin kysymyksiin. Esimerkkinä tuo koira, ihmiselle riittää yksi koira, että oppii tietämään mikä koira on ja sitten voi extrapoloida tästä että muutkin koirat ovat samankaltaisia, ehkä hieman erilaisia. Kun taas koneen pitää saada massoittain materiaalia erilaisista koirista, jotta se voisi tehdä päätelmiä mikä on koira. Ehkä tämä on se mitä 2112 tuossa hakee.
 
Joo, tekoälylle pitää data opettaa ja sen tieto on rajattu siihen mitä sille on opetettu. Mutta miksei noita mainitsemiasi asioita voisi sille opettaa? Miksei se voisi ymmärtää noiden eri asioiden välisiä yhteyksiä? Miksei tekoälylle voisi opettaa mikä koira on, että se voisi ymmärttää mikä koira on kokonaisuutena?
No tästä päästään taas siihen kysymykseen, että milloin. Nyt, pian, vai joskus määrittelemättömässä tulevaisuudessa? Kyllähän se voi hyvinkin olla mahdollista joskus x vuoden kuluttua. En väitä, että tuollaisen teknologisen tason saavuttamisessa olisi jokin periaatteellinen este. Tai jos on, en siitä ole tietoinen.

Jos taas puhutaan nykyisestä tai nykyisen kaltaisesta teknologiasta, niin asia on paljon ongelmallisempi. Koneelle voidaan opettaa kyllä, miltä koira näyttää, miten se liikkuu, miten se ääntelee jne. mutta synteesin muodostaminen näistä irrallisista tiedoista on ihan eri asia. Eikä se koneen oppiminen ole joustavaa. Ja asia muuttuu vielä hankalammaksi, kun puhutaan abstraktimmista käsitteistä. Vaikkapa sopimus. Ei siis pelkästään allekirjoitettu dokumentti vaan käsite siitä, mitä on sopia jostakin asiasta. Miten kaikki tämä tieto esitetään sellaisessa muodossa, että kone pystyy sitä käsittelemään.
 
No tästä päästään taas siihen kysymykseen, että milloin. Nyt, pian, vai joskus määrittelemättömässä tulevaisuudessa? Kyllähän se voi hyvinkin olla mahdollista joskus x vuoden kuluttua. En väitä, että tuollaisen teknologisen tason saavuttamisessa olisi jokin periaatteellinen este. Tai jos on, en siitä ole tietoinen.
Sun arvaus on yhtä hyvä kuin kenen tahansa muun. Eipä tuota milloin tiedä varmasti vasta sitten kun se tapahtuu. Aikataulusta puhuminen ei ole kovin hedelmällistä vaan tuo on olennaisempi asia, että onko tälle jokin periaatteelinen este vai ei.
Jos taas puhutaan nykyisestä tai nykyisen kaltaisesta teknologiasta, niin asia on paljon ongelmallisempi. Koneelle voidaan opettaa kyllä, miltä koira näyttää, miten se liikkuu, miten se ääntelee jne. mutta synteesin muodostaminen näistä irrallisista tiedoista on ihan eri asia. Eikä se koneen oppiminen ole joustavaa. Ja asia muuttuu vielä hankalammaksi, kun puhutaan abstraktimmista käsitteistä. Vaikkapa sopimus. Ei siis pelkästään allekirjoitettu dokumentti vaan käsite siitä, mitä on sopia jostakin asiasta. Miten kaikki tämä tieto esitetään sellaisessa muodossa, että kone pystyy sitä käsittelemään.
Veikkaisin että ChatGPT osaa jo nyt aika hyvin kertoa mikä on koira tai sopimus (näyttää olevan tukossa tällä hetkellä niin ei voi kokeilla). Tässä on epäselvää, että mitä sinusta tekoälyn pitäisi ymmärtää koirista tai sopimuksista? Mitä nykyiset mallit eivät pysty koiriin tai sopimuksiin liittyen ymmärtämään tai tekemään?
 
Eekös se kone oppinut jo itekseen kävelemään? Päiväkö sillä meni aikaa ja ihmisellä kestää vuosia.
 
Eli tulevaisuudessa on suurin osa kansasta työttömiä ja kouluttamattomia, koska ei tarvitse tehdä tai osata mitään kun koneet tekee kaiken. Mutta sitten täytyy olla pieni osa kansasta todella fiksua porukkaa, eli ne jotka koodaa ja ylläpitää näitä tekoäly projekteja, tai ei tarvii jos koneilla on kaikki valta.
Ehkei kuitenkaan ainakaan ihan heti. Tekoälyn ja automaation pitää toimia paremmin yhteen että saadaan sellaisia robotteja jotka paistaa pihvejä mäkkärissä, leikkaa umpisuolia sairaalassa, vaihtaa lasten ja vanhusten vaipat.
Se on varmaan totta että monet duunit vähenee. Nyt on jo chatti-asiakaspalvelut automatisoitu. Seuraavaksi varmaan minunkaltaiset insinöörit vähenevät, jos jokin tekoäly softa suunnittelee jutut kun vain kauniisti pyytää ja kuvailee mitä haluaa.
Tulevaisuus tulee olemaan... mielenkiintoinen, mutta olen toki hieman pessimistinen, kun nyt jo nämä uudet some-sukupolvet tuntuu olevan liiankin usein aivokuollutta porukkaa.
 
Eekös se kone oppinut jo itekseen kävelemään? Päiväkö sillä meni aikaa ja ihmisellä kestää vuosia.
Ei se oppinut "itsekseen". Koulutettiin käyttäen vahvistusoppimista, ja oppiminen oli jaettu osiin josta palkittiin. Eli paljon manuaalista työtä.
 
Laki on hyvinkin otollinen konealgoritmille opittavaksi. Voi tehdä mallin joka on optimoitu lakien, säädösten, päätösten ja kaiken päätöksien+prosessien ympärilläolevien materiaalien mukaan. Hyvin opetettu malli tietäisi asiat varmasti paremmin kuin 99.99999% asianajajista. Joka kerta myös kun tulee uusi päätös niin algoritmia voidaan opettaa ja tuunata uusiksi. Toki hybridi jossa konealgoritmi antaa tuloksia ulos ja ihminen lisää sen päälle oman panoksensa voi olla parempi kuin algoritmi tai ihminen yksin.

Voi tietenkin sanoa, että ihmisellä on jonkinlainen intuitio, mutta ehkä tuollainen konealgoritmiasianajaja saa intuition ihan siitä massiivisesta datamäärästä joka on käytetty opettamiseen.

Isojen mallien opettaminen maksaa kymmeniä miljoonia. Tuskin suomen kokoisella markkinalla esimerkiksi kannattaa tehdä konealgoritmiasianajajaa. Toisaalta jossain amerikan mittakaavassa ja oikeuskulttuurissa joku saattaa jopa tuollaiseen lähteä,...
 
leikkaa umpisuolia sairaalassa
Kyllä minä esim. umpisuolileikkauksessa ainakin ennemmin luottaisin robottikirurgiaan kuin tärisevin käsin heiluvaan kirurgiin. Mutta ei tuollainenkaan laite tietenkään poista inhimillisten virheiden mahdollisuutta.


edit. Toinenkin uutinen jossa pistää silmään " Osa kirurgeista pitää hankintaa kyseenalaisena investointina". No ilmankos,kun robotit vie niiden kovapalkkaiset työt.

 
Viimeksi muokattu:
Kyllä minä esim. umpisuolileikkauksessa ainakin ennemmin luottaisin robottikirurgiaan kuin tärisevin käsin heiluvaan kirurgiin. Mutta ei tuollainenkaan laite tietenkään poista inhimillisten virheiden mahdollisuutta.


edit. Toinenkin uutinen jossa pistää silmään " Osa kirurgeista pitää hankintaa kyseenalaisena investointina". No ilmankos,kun robotit vie niiden kovapalkkaiset työt.


Robotti on tässä vain työkalu, ei korvaa ihmistä eikä leikkaa yksin yhtään mitään. Päinvastoin, lääkärit ja hoitajat tarvii lisää koulutusta ja teknistä henkilökuntaa pitäämään tuollainen instrumentti toiminnassa.
 
Päinvastoin, lääkärit ja hoitajat tarvii lisää koulutusta ja teknistä henkilökuntaa pitäämään tuollainen instrumentti toiminnassa.
Tässä kohtaa se tekoäly tulee mukaan ;) Tietystikään kukaan ei väitä, että lääkäreitä, hoitajia jne ei ollenkaan tarvittaisi. Lisänä tulee sitten vielä insinöörit ja vieläpä diplomi -sellaiset :hmm:
 
Aikataulusta puhuminen ei ole kovin hedelmällistä vaan tuo on olennaisempi asia, että onko tälle jokin periaatteelinen este vai ei.
No hain aikataululla ehkä takaa lähinnä sitä, että siitä puhumalla voidaan välttää monta väärinkäsitystä. Jos nyt otetaan vaikka esimerkiksi tämä ohjelmoijan korvaaminen tekoälyllä. Jos henkilö A sanoo että "tekoäly korvaa ohjelmoijan", niin tarkoittaako hän sitä, että meillä on nyt jo käsillä sellaista teknologiaa, jolla tämä on mahdollista, ja koodaajia pystytään suurissa määrin korvaamaan tekoälyllä jo ihan lähitulevaisuudessa? Vai tarkoittiko hän sitä, että teknologinen kehitys on huikeaa, ja nyt tuntuma on kyllä se, että kun samanlaisia kehitysaskeleita otetaan vielä lisää, niin silloin ollaan siinä tilanteessa, että tekoäly tekee ohjelmoijista tarpeettomia? Jos henkilö B vastaa, että "ei korvaa", niin tarkoittaako hän sitä, että nykyisellä teknologialla se ei onnistu, mutta ei ota kantaa siihen, mitä tapahtuu tulevaisuudessa? Vai tarkoittaako hän sitä, ettei tuollaiseen tilanteeseen päästä milloinkaan, eikä ole edes mahdollista kehittää tekoälykästä järjestelmää, joka pystyisi viemään koodaajan työt? Toki nämä nyt ovat aika alkeellisia esimerkkejä, mutta aika usein käy varmaan niin, että puolet siitä erimielisyydestä on pelkkää tulkintaongelmaa, eivätkä ne keskustelijat ole niin erimielisiä kuin ehkä alustavasti näyttää. Jos siis tehdään oma käsitys mm. siitä kehityksen aikataulusta selväksi, niin vähentäähän se turhia väärinkäsityksiä.

Veikkaisin että ChatGPT osaa jo nyt aika hyvin kertoa mikä on koira tai sopimus (näyttää olevan tukossa tällä hetkellä niin ei voi kokeilla). Tässä on epäselvää, että mitä sinusta tekoälyn pitäisi ymmärtää koirista tai sopimuksista? Mitä nykyiset mallit eivät pysty koiriin tai sopimuksiin liittyen ymmärtämään tai tekemään?
No, kuten tuossa Johan_V:n linkittämässä artikkelissa todettiinkin: "They are excellent at predicting the next word in a sentence, but they have no knowledge of what the sentence actually means."
Kun ihminen lukee sitä ChatGPT:n kuvausta koirasta, niin ihminen antaa niille sanoille ja lauseille merkityksiä, jotka eivät ChatGPT:lle merkitse mitään. Ja tuossa on mielestäni juuri se keskeinen ongelma. Kun kielimalli kertoo, että "koira haukkuu koko päivän ja naapureita vituttaa", niin se kielimalli ei ymmärrä mitään niistä käsitteistä ja kokonaisuuksista niiden merkkijonojen takana. Kun ihminen kertoo saman, niin ihminen ymmärtää, mikä se koira on, mitä se haukkuminen on, mikä on naapuri ja mitä on vitutus, muutenkin kuin pelkkinä merkkijonoina. Asiasta muodostuu mieleen kielen, kuvan ja äänen muodostama kokonaisuus, josta joustava ihmisäly kykenee vaikka sulavasti siirtymään siihen koiraan, joka siellä oven takana haukkuu omistajaansa takaisin. ChatGPT ei tuohon pysty. Sille "koira" on pelkkä merkkijono, joka sopii tietyn tilastollisen mallin mukaan hyvin yhteen toisten merkkijonojen kanssa.

Olisi varmaan mahdollista rakentaa sinne kielimallin taakse jonkinlainen kuvaus siitä, että sana "koira" vastaa tiettyä visuaalisen datan vektoriesitystä. Ja sana "haukkua" vastaa tiettyä vektorimuotoista esitystä audiaalisesta datasta. Mutta "naapurin" kuvaaminen onkin jo paljon hankalampi homma. Sen voi kuvata vaikka tekstillä "henkilö, joka asuu omassa asunnossaan jonkun toisen henkilön asunnon vieressä", mutta pelkkä teksti ei kuvaa sitä todellisuutta, jos se tekstin käyttäjä ei pysty antamaan niille sanoille merkityksiä sen tekstin ulkopuolelta. Jotta kone voisi ymmärtää "naapurin" samalla tasolla kuin ihminen, pitäisi samaan esitykseen saada jotenkin koodattua ei-sanallisesti tietoa sekä siitä oliosta että sen avaruudellisesta sijainnista sekä asemasta siinä yhteisössä. Ja jos puhutaan siitä, mitä "vitutus" on, niin sellaisen mallintaminen on vielä hankalampaa. Eikä meillä tällä hetkellä ole mitään teknistä toteutusta sille, että kone pystyisi joustavasti liikkumaan kielellisten, visuaalisten ja kaikkien muiden tietomuotojen välillä sillä tavalla kuin ihminen kykenee.

Tässä itse näen merkittävän syyn sille, miksen usko, että nykyisellä osaamisella on mahdollista rakentaa tekoälyä, joka kykenee korvaamaan ihmisen opettajana tai koodaajana. Kuten sanottua, ymmärrän ja uskon kyllä, että nykyinen tekniikka voi muuttaa työn luonnetta ehkä jopa merkittävästi, mutta ohjelmoijan ammatin ajautuminen marginaaliin vaatii jotain sellaista tekoälyä, jota meillä ei vielä ole, ja jota ei pelkällä lisäkouluttamisella saa aikaiseksi. Edeltävää paremmin en niitä syitä oikeastaan osaa selittää, eikä meidän tarvitse tästä kai samaa mieltä ollakaan. Jos sinä, tai joku muu, osaa selittää, minkä vuoksi olen ChatGPT:n suhteen väärässä, kuulen kyllä mielelläni ja korjaan sitten virheellisiä käsityksiäni. Mutta toistaiseksi se, mitä olen esimerkiksi artikkeleista lukenut, on ollut aika korkealentoista, enkä ole näihin edeltäviin epäilyksiini saanut mitään konkreettisia vastauksia.

Edit:
Tyypillisesti täsmällisimmät näkemäni väitteetkin ovat muotoa: "lisää koulutusdataa => ??? => profit". Mutta ajatellaan vaikka tyyppiä, joka elää koko elämänsä yhdessä lukitussa huoneessa. Hän ei ymmärrä sanaakaan ranskaa, mutta saa lukeakseen rajattoman määrän tekstimuotoista ranskankielistä lakimateriaalia: lainsäädäntöä, oikeuskirjallisuutta, oikeustapauksia jne. Tuleeko hänestä pätevä ranskalainen juristi? Ok. Lisätään vielä koulutusdataa siten, että jokaisen lukemansa sanan yhteydessä hän näkee kuvan, jos kyseiselle sanalle on olemassa jokin mielekäs kuvallinen esitystapa. Tuleeko hänestä siinä tapauksessa etevä ranskalainen juristi? ChatGPT tai mikään kielimalli ei muuten pysty edes tällaiseen tasoon. (Huom: edeltävällä esimerkillä en tarkoita sitä, etteikö kielimalli voisi olla erittäin hyödyllinen myös oikeustieteellisessä työskentelyssä. Varmasti voi, mutta se ei ole sama asia, kuin että kielimalli voi korvata juristin.)

Kuten sanoin, on kyllä mahdollista rakentaa jonkinlainen taustajärjestelmä, jossa jokainen sana kuvautuu jonkinlaiseen visuaaliseen esitykseen. Mutta se, mitä tuollainen järjestelmä ei osaa tehdä, on sitä, mitä ihminen tekee, eli luoda myös niiden visuaalisten esitysten välisiä yhteyksiä. Ok, on mahdollista rakentaa myös järjestelmä, joka tulkitsee visuaalista kontekstia vaikkapa siten, että tietynlaiset visuaaliset kohteet esiintyvät usein toisten tietynlaisten visuaalisten kohteiden kanssa. Ok, rakennetaan sitten järjestelmät teksti-kuva, kuva-ääni, ääni-teksti, avaruudellinen-teksti, avaruudellinen-kuva, avaruudellinen-ääni, jne. Tai rakennetaan järjestelmä, jossa nuo kaikki em. kuvaukset esitetään lopulta yhtenä abstraktiona, vaikkapa sitten järkyttävän pitkänä vektorina. Se ei kuitenkaan sitten ole enää ChatGPT vaan vielä moninkertaisesti kompleksisempi systeemi, eikä sellaisen toimintaa voi kuin spekuloida.
 
Viimeksi muokattu:
No hain aikataululla ehkä takaa lähinnä sitä, että siitä puhumalla voidaan välttää monta väärinkäsitystä. Jos nyt otetaan vaikka esimerkiksi tämä ohjelmoijan korvaaminen tekoälyllä. Jos henkilö A sanoo että "tekoäly korvaa ohjelmoijan", niin tarkoittaako hän sitä, että meillä on nyt jo käsillä sellaista teknologiaa, jolla tämä on mahdollista, ja koodaajia pystytään suurissa määrin korvaamaan tekoälyllä jo ihan lähitulevaisuudessa? Vai tarkoittiko hän sitä, että teknologinen kehitys on huikeaa, ja nyt tuntuma on kyllä se, että kun samanlaisia kehitysaskeleita otetaan vielä lisää, niin silloin ollaan siinä tilanteessa, että tekoäly tekee ohjelmoijista tarpeettomia? Jos henkilö B vastaa, että "ei korvaa", niin tarkoittaako hän sitä, että nykyisellä teknologialla se ei onnistu, mutta ei ota kantaa siihen, mitä tapahtuu tulevaisuudessa? Vai tarkoittaako hän sitä, ettei tuollaiseen tilanteeseen päästä milloinkaan, eikä ole edes mahdollista kehittää tekoälykästä järjestelmää, joka pystyisi viemään koodaajan työt? Toki nämä nyt ovat aika alkeellisia esimerkkejä, mutta aika usein käy varmaan niin, että puolet siitä erimielisyydestä on pelkkää tulkintaongelmaa, eivätkä ne keskustelijat ole niin erimielisiä kuin ehkä alustavasti näyttää. Jos siis tehdään oma käsitys mm. siitä kehityksen aikataulusta selväksi, niin vähentäähän se turhia väärinkäsityksiä.


No, kuten tuossa Johan_V:n linkittämässä artikkelissa todettiinkin: "They are excellent at predicting the next word in a sentence, but they have no knowledge of what the sentence actually means."
Kun ihminen lukee sitä ChatGPT:n kuvausta koirasta, niin ihminen antaa niille sanoille ja lauseille merkityksiä, jotka eivät ChatGPT:lle merkitse mitään. Ja tuossa on mielestäni juuri se keskeinen ongelma. Kun kielimalli kertoo, että "koira haukkuu koko päivän ja naapureita vituttaa", niin se kielimalli ei ymmärrä mitään niistä käsitteistä ja kokonaisuuksista niiden merkkijonojen takana. Kun ihminen kertoo saman, niin ihminen ymmärtää, mikä se koira on, mitä se haukkuminen on, mikä on naapuri ja mitä on vitutus, muutenkin kuin pelkkinä merkkijonoina. Asiasta muodostuu mieleen kielen, kuvan ja äänen muodostama kokonaisuus, josta joustava ihmisäly kykenee vaikka sulavasti siirtymään siihen koiraan, joka siellä oven takana haukkuu omistajaansa takaisin. ChatGPT ei tuohon pysty. Sille "koira" on pelkkä merkkijono, joka sopii tietyn tilastollisen mallin mukaan hyvin yhteen toisten merkkijonojen kanssa.

Olisi varmaan mahdollista rakentaa sinne kielimallin taakse jonkinlainen kuvaus siitä, että sana "koira" vastaa tiettyä visuaalisen datan vektoriesitystä. Ja sana "haukkua" vastaa tiettyä vektorimuotoista esitystä audiaalisesta datasta. Mutta "naapurin" kuvaaminen onkin jo paljon hankalampi homma. Sen voi kuvata vaikka tekstillä "henkilö, joka asuu omassa asunnossaan jonkun toisen henkilön asunnon vieressä", mutta pelkkä teksti ei kuvaa sitä todellisuutta, jos se tekstin käyttäjä ei pysty antamaan niille sanoille merkityksiä sen tekstin ulkopuolelta. Jotta kone voisi ymmärtää "naapurin" samalla tasolla kuin ihminen, pitäisi samaan esitykseen saada jotenkin koodattua ei-sanallisesti tietoa sekä siitä oliosta että sen avaruudellisesta sijainnista sekä asemasta siinä yhteisössä. Ja jos puhutaan siitä, mitä "vitutus" on, niin sellaisen mallintaminen on vielä hankalampaa. Eikä meillä tällä hetkellä ole mitään teknistä toteutusta sille, että kone pystyisi joustavasti liikkumaan kielellisten, visuaalisten ja kaikkien muiden tietomuotojen välillä sillä tavalla kuin ihminen kykenee.

Tässä itse näen merkittävän syyn sille, miksen usko, että nykyisellä osaamisella on mahdollista rakentaa tekoälyä, joka kykenee korvaamaan ihmisen opettajana tai koodaajana. Kuten sanottua, ymmärrän ja uskon kyllä, että nykyinen tekniikka voi muuttaa työn luonnetta ehkä jopa merkittävästi, mutta ohjelmoijan ammatin ajautuminen marginaaliin vaatii jotain sellaista tekoälyä, jota meillä ei vielä ole, ja jota ei pelkällä lisäkouluttamisella saa aikaiseksi. Edeltävää paremmin en niitä syitä oikeastaan osaa selittää, eikä meidän tarvitse tästä kai samaa mieltä ollakaan. Jos sinä, tai joku muu, osaa selittää, minkä vuoksi olen ChatGPT:n suhteen väärässä, kuulen kyllä mielelläni ja korjaan sitten virheellisiä käsityksiäni. Mutta toistaiseksi se, mitä olen esimerkiksi artikkeleista lukenut, on ollut aika korkealentoista, enkä ole näihin edeltäviin epäilyksiini saanut mitään konkreettisia vastauksia.

Edit:
Tyypillisesti täsmällisimmät näkemäni väitteetkin ovat muotoa: "lisää koulutusdataa => ??? => profit". Mutta ajatellaan vaikka tyyppiä, joka elää koko elämänsä yhdessä lukitussa huoneessa. Hän ei ymmärrä sanaakaan ranskaa, mutta saa lukeakseen rajattoman määrän tekstimuotoista ranskankielistä lakimateriaalia: lainsäädäntöä, oikeuskirjallisuutta, oikeustapauksia jne. Tuleeko hänestä pätevä ranskalainen juristi? Ok. Lisätään vielä koulutusdataa siten, että jokaisen lukemansa sanan yhteydessä hän näkee kuvan, jos kyseiselle sanalle on olemassa jokin mielekäs kuvallinen esitystapa. Tuleeko hänestä siinä tapauksessa etevä ranskalainen juristi? ChatGPT tai mikään kielimalli ei muuten pysty edes tällaiseen tasoon. (Huom: edeltävällä esimerkillä en tarkoita sitä, etteikö kielimalli voisi olla erittäin hyödyllinen myös oikeustieteellisessä työskentelyssä. Varmasti voi, mutta se ei ole sama asia, kuin että kielimalli voi korvata juristin.)

Kuten sanoin, on kyllä mahdollista rakentaa jonkinlainen taustajärjestelmä, jossa jokainen sana kuvautuu jonkinlaiseen visuaaliseen esitykseen. Mutta se, mitä tuollainen järjestelmä ei osaa tehdä, on sitä, mitä ihminen tekee, eli luoda myös niiden visuaalisten esitysten välisiä yhteyksiä. Ok, on mahdollista rakentaa myös järjestelmä, joka tulkitsee visuaalista kontekstia vaikkapa siten, että tietynlaiset visuaaliset kohteet esiintyvät usein toisten tietynlaisten visuaalisten kohteiden kanssa. Ok, rakennetaan sitten järjestelmät teksti-kuva, kuva-ääni, ääni-teksti, avaruudellinen-teksti, avaruudellinen-kuva, avaruudellinen-ääni, jne. Tai rakennetaan järjestelmä, jossa nuo kaikki em. kuvaukset esitetään lopulta yhtenä abstraktiona, vaikkapa sitten järkyttävän pitkänä vektorina. Se ei kuitenkaan sitten ole enää ChatGPT vaan vielä moninkertaisesti kompleksisempi systeemi, eikä sellaisen toimintaa voi kuin spekuloida.
Minusta ei ole mikään ongelma koneelle yhdistää erimuotoisia datoja toisiinsa. Teksti ja kuva on koneelle yhtälailla dataa ja siten kun ne vedetään saman moottorin läpi niin kone kyllä niidenkin väliltä löytää ne yhteydet. Tässäkin sulla ehkä hieman liian ihmislähtöinen ajattelutapa. Ihmisen näkökulmasta kuvallinen ja tekstuaalinen esitystapa voi vaikuttaa täysin toisistaan irrallisilta konsepteilta. Koneelle kuitenkin kumpikin on loppupeleissä vain bittejä, ykkösiä ja nollia, ja siten koneen väliset yhteydet eri bittijoukkojen välillä voidaan käsitellä samalla tapaa.

Vaikuttaa myös, että haet tässä sitä että koneen pitäisi ymmärtää filosofisessa mielessä asiat. Vastauksia kysymyksiin kuten että miltä tuntuu olla ihminen? Millainen koodi on innovaatista? Tai asioita joihin ei ole vastausta kuten, että mikä on hyvä juristi (ei siis välttämättä tilastollisesti hyvä, vaan sillein abstraktisti hyvä). Tuollaisiin kysymyksiin kone ei voi vastata, mutta tarvitseeko sen edes? Esim. koodaushommissa ei minusta koneen tarvitse ymmärtää mikä on koodi on ratkaisee asian mielenkiintoisella tavalla vaan olennaista on että se tuottaa koodia, joka tekee mitä pyydetään.
 
Vaikuttaa myös, että haet tässä sitä että koneen pitäisi ymmärtää filosofisessa mielessä asiat. Vastauksia kysymyksiin kuten että miltä tuntuu olla ihminen? Millainen koodi on innovaatista? Tai asioita joihin ei ole vastausta kuten, että mikä on hyvä juristi (ei siis välttämättä tilastollisesti hyvä, vaan sillein abstraktisti hyvä). Tuollaisiin kysymyksiin kone ei voi vastata, mutta tarvitseeko sen edes? Esim. koodaushommissa ei minusta koneen tarvitse ymmärtää mikä on koodi on ratkaisee asian mielenkiintoisella tavalla vaan olennaista on että se tuottaa koodia, joka tekee mitä pyydetään.
Kone voi vastata aika pitkälti myös näihin siinä missä kuka tahansa ihminen, joka on omaksunut tietonsa tutkimustiedosta/kirjallisuudesta ja erilaisista keskusteluista jne. Omien tunteiden kuvailemiseen se ei tietenkään kykene, kun ei se voi tuntea mitään, eikä nykyinen tekoäly tällä hetkellä myöskään ajattele asioita itsenäisesti, mutta se osaa kuitenkin yhdistellä tuntemaansa massiivista tietoaineistoa ja muodostaa niistä sellaisiakin kokonaisuuksia, jotka sisältävät jotain ihan uutta.

ChatGPT:n seuraavan suuren nelosversion on sanottu olevan ensimmäinen kokonaisuus, joka on monimutkaisempi ja jossa on enemmän yhteyksiä asioiden välillä kuin ihmisen aivoissa. Kuka tietää mihin se pystyy ja kun sen avulla kehitystä viedään edelleen, niin vielä vähemmän kukaan tietää mihin joku kymmenes kehitysversio pystyy jokusen vuoden päästä.

Väitän että mikään ei ole mullistanut maailmaa niin kuin tekoäly tulee tekemään, mutta se jää nähtäväksi tapahtuuko mullistusta pelkästään positiiviseen suuntaan. Siinä missä tekoälyä voidaan käyttää hyvään, niin aivan varmasti sitä tullaan käyttämään myös kaikenlaiseen pahaan. Ja sitten tosiaan vielä se, että mitä kaikkea tekoäly tulee aiheuttamaan työvoiman tarpeelle ja jakautumiselle.
 
Kone voi vastata aika pitkälti myös näihin siinä missä kuka tahansa ihminen, joka on omaksunut tietonsa tutkimustiedosta/kirjallisuudesta ja erilaisista keskusteluista jne. Omien tunteiden kuvailemiseen se ei tietenkään kykene, kun ei se voi tuntea mitään, eikä nykyinen tekoäly tällä hetkellä myöskään ajattele asioita itsenäisesti, mutta se osaa kuitenkin yhdistellä tuntemaansa massiivista tietoaineistoa ja muodostaa niistä sellaisiakin kokonaisuuksia, jotka sisältävät jotain ihan uutta.
Tuolla tavalla voi vastata, joo. Tuntuu vaan, että 2112 tuossa hakee jotain abstraktimpaa versiota noiden asioiden ymmärtämisestä.

EDIT: Ylipäätään tosiaan tuntuu että 2112 lähestyy tätä asiaa liian paljon ihmisen näkökulmasta. Vaikka jos noista koodaushommista puhutaan niin ihmiselle on toki tärkeää ymmärtää mitä halutaan ja miten se lopputulos toimii, ehkä myös kiva jos se koodin tekeminen olisi jollain tavalla kivaa ja motivoivaa. Mutta kone ei tarvitse mitään tuollaista. Ainoa mitä siltä koneelta pyydetään on että se tulkitsee ne sisään tulevat viestit ja ulos tupsahtaa koodi mikä tekee halutun asian. Sen koneen ei tarvitse ymmärtää sen kummemmin mikä sen inputin tai outputin tarkoitus on.
 
Viimeksi muokattu:
Minusta ei ole mikään ongelma koneelle yhdistää erimuotoisia datoja toisiinsa.
Pitää varmaan kuitenkin olla jokin määritelmä siitä, miten se data on tarkoitus yhdistää?

Tunnetko esimerkiksi transformer-verkkoja, joihin tuo ChatGPT perustuu? Mikäli et, niin hyvin karkeasti ilmaistuna niissä käytetään tietynlaista vektorimuotoista esitystä sanoille, ja siihen vektoriin koodataan tietoa sekä sanasta itsestään että sen sijainnista lauseessa. (Transformerit ovat paljon monimutkaisempia kokonaisuuksia kuin vain tämä, mutta edellinen on oleellista datojen yhdistämisen kannalta.)

Jos nyt sitten ajatellaan, että yhdistellään eri lähteistä (teksti, kuva, ääni...) saatua vektoridataa, niin millä tavalla ja missä vaiheessa nämä vektorit yhdistetään*. Tai jos/kun niitä ei yhdistetä, niin miten niistä koostetaan jonkinlainen synteesi? Jos pelkästään sanan ja sen sijaintiin liittyvän tiedon koodaminen on ei-triviaali tietojenkäsitelytieteellinen ongelma itsessään, niin miten paljon monimutkaisempi on sellainen ongelma, jossa täytyy yhdistää tekstuaalisen tiedon lisäksi montaa muutakin erimuotoista tietoa? (Kuten sanottua, vektoreita ei varmaankaan ole järkevää yhdistää, mutta jos niitä ei yhdistetä, niin mitä niille tehdään?)
Ja mikä on sellainen neuroverkkoarkkitehtuuri, dataputki tai muu tietojenkäsittelyllinen rakenne, joka käsittelee nämä alkuaan erimuotoiset datat niin, että lopputuloksena on jotain hyödyllistä? Toisin sanoen, mikä on se tekniikka joka tekee kaikkien eri informaatiomuotojen yhdistelmälle saman, mitä ChatGPT tekee tekstille?
(*Edit: tarkoitettakoon yhdistämisellä sitten vaikka peräkkäin liittämistä, summaamista tai mitä tahansa sopivaa operaatiota)

Kun siis sanot, ettei koneelle ole mikään ongelma yhdistää erimuotoisia datoja toisiinsa, niin osaatko määritellä tarkemmin, mitä tarkoitat datojen yhdistämisellä? Itse en ole tietoinen, että meillä tällä hetkellä olisi mitään sellaista tapaa, joten sen vuoksi suhtaudun asiaan skeptisesti.

Ja tästä päästäänkin siihen toiseen osaan kommentistasi, että edellyttäisin koneelta liian ihmislähtöistä tai filosofista ajattelutapaa. Varmaan syyllistyn osittain siihenkin, mutta se ei ole se viestini ydin. En siis väitä, että kone voi tehdä toimivia ohjelmia vain, jos se ajattelee riittävän samankaltaisesti kuin ihminen.

Vaan tarkoitan sitä, että ChatGPT käsittelee vain kieltä ja tekstiä, mutta todellinen maailma ei ole redusoitavissa pelkäksi tekstiksi. Ei ole pakko ajatella ihmislähtöisesti tai filosofisesti, mutta koska tietojärjestelmiä pääsääntöisesti suunnitellaan ihmisiä varten, on tiedettävä riittävän paljon siitä todellisuudesta, jossa ihmiset elävät. Ja niin kauan, kuin koneelle merkkijonot ovat pelkkiä merkkijonoja ilman mitään ulkopuolisia merkityksiä, se koneen käsitys todellisuudesta jää kovin yksipuoliseksi. Sen vuoksi en usko, että nykyisellä teknologialla voidaan korvata koodaajia, opettajia tai monia muitakaan ammattilaisia. (Ja satunnaiselle lukijalle huomautan, että kyllä, uskon kuitenkin, että kielimallitkin voivat ajan myötä huomattavasti muuttaa näidenkin ihmisten työtä.)

No, tästä voidaan tietysti jälleen kerran hypätä siihen, että koulutusdataa lisäämällä kone oppii entistä enemmän koodiesimerkkejä sekä niitä vastaavia tekstuaalisia kuvauksia, joten jossain vaiheessa se voi sitten luoda tekstikehotteista kokonaisia ohjelmia itsenäisesti, vaikka ei sitä tekstiä sen syvällisemmin ymmärräkään. No... on kai se mahdollista. Tai ainakaan en osaa perustella, että se varmuudella ei ole mahdollista.

Itse en siihen kuitenkaan tällä hetkellä usko. Koneoppimisessa tunnetaan sellainen käsite kuin mallin kompleksisuus. Esimerkiksi lineaarinen malli ei voi riittävän hyvin kuvata epälineaarista dataa. Saman epäilen tulevan myös kielimalleissa vastaan: pelkän tekstin varassa toimiva malli ei ole riittävän ilmaisuvoimainen todellisen maailman kuvaamiseen. (Edit: No, "todellisen maailman kuvaaminen" on vähän epämääräinen käsite, mutta tarkoitan sitä, että nykyiset yhtä datamuotoa käsittelevät mallit ovat liian suppeita korvatakseen ihmistoimijan kovin laajasti.)

No, saatan olla väärässä, ja ChatGPT 4/5/6/... onkin edelleen pelkkä kielimalli, mutta silti suoriutuu opettajan/koodaajan/juristin hommista suorastaan ilmiömäisen hienosti. Mutta jos on, niin sen tietävät tällä hetkellä korkeintaan vain OpenAI:n tutkijat. Sen vuoksi suhtaudun penseästi näihin monissa artikkeleissa ja videoissa esitettyihin "tekoäly vie meidän työt"-heittoihin. Se voi olla totta, ja ehkä väitteen esittäjällä on jotain oikeaa tietoa asiasta, mutta toistaiseksi en ole itse mihinkään konkreettiseen törmännyt.

Joo, tarkoitus oli kirjoittaa lyhyesti, mutta tulikin näköjään taas tekstiseinä. Ei tarvitse kommentoida kaikkea eikä olla samaa mieltä. Kuten aiemmin keskusteltiin, aika näyttää.
 
Viimeksi muokattu:
Mun kokemus chatgpt:sta ihan konkreettista tulosta tuottavan koodin kannalta on, että se nykymuodossaankin nopeuttaa tekemistä huomattavasti. Pintapuolisella osaamisella saa luotua joko boilerplate koodin, algoritmin tai ainakin paremmat lähteet ja selostuksen kuin mitä googlehaut(wikipedia, stack overflow) tuottaisivat. Ei tuo kaukana ole, että googlen haku, stack overflow, wikipedia yms. on muinaismuistoja.

Konkreettisesti esimerkiksi chatgpt osaa kertoa erilaisista matemaattisista asioista hyvin + antaa johdetut kaavat + selittää miksi joku asia on kuten se on + laskea lopputuloksia annetuilla arvoilla.

Tarkoitatko perusaritmetiikkaa pienillä luvuilla vai jotain haastavaa matemaattista ongelmanratkaisua? Edeltävää ei ole vaikea uskoa, mutta en luottaisi siihen tarpeeksi siinäkään vaihtaakseni oikeaa laskinta chatbottiin. Jälkimmäinen taas on sellainen miina, että kiertäisin kaukaa:

we find that ChatGPT is 64.33% accurate on average in 10 different reasoning categories under logical reasoning, non-textual reasoning, and commonsense reasoning, hence making it an unreliable reasoner. It is, for example, better at deductive than inductive reasoning. ChatGPT suffers from hallucination problems like other LLMs and it generates more extrinsic hallucinations from its parametric memory as it does not have access to an external knowledge base.


Tuo luotettavuus on keskeinen ongelma näissä puppulausegeneraattoreissa. Miten erotat hyvän vastauksen huonosta? Kielimallit ovat varmasti todella hyödyllisiä jo nyt esim. sen ketjussa usein mainitun rutiinikoodin tuottamisessa nopeasti. Sen oikeellisuus on helppo tarkistaa. Mutta missä tahansa tehtävässä, jossa generoitujen tuotosten virheillä on suuri riski livahtaa läpi tarkistuksesta, kielimalli tuottaa helposti enemmän haittaa kuin hyötyä. Vakuuttavan kuuloinen potaska on juuri sellaista korkean riskin sisältöä. Hyvä esimerkki siitä, miten kavalasti puppu pääsee läpi, on Googlen chatbotin markkinointiin livahtanut asiavirhe.
 
Tarkoitatko perusaritmetiikkaa pienillä luvuilla vai jotain haastavaa matemaattista ongelmanratkaisua? Edeltävää ei ole vaikea uskoa, mutta en luottaisi siihen tarpeeksi siinäkään vaihtaakseni oikeaa laskinta chatbottiin. Jälkimmäinen taas on sellainen miina, että kiertäisin kaukaa:

Lineaarista algebraa ja matriiseja joiden lopputuloksen voi helposti tarkistaa. chatgpt pyörittelee kaavoja oikein mukavasti. Kannattaa kokeilla.
 
Pitää varmaan kuitenkin olla jokin määritelmä siitä, miten se data on tarkoitus yhdistää?
Tätä oikeastaan haluaisin tietää sulta, että minkälaista yhdistämistä haet?

Eikö ne voisi samalla tavalla yhdistellä toisiina kuten teksti-teksti yhdistämisetkin tehdään? Mikä tekee erimuotoisten datojen yhdistämisestä mahdotonta kun erilaisia tekstejäkin voidaan yhdistellä toisiinsa? Minkä takia kuvalla ja tekstillä ei voisi olla yhdistäviä tekijöitä? Miten nuo kuvasta esineitä tunnistavat algoritmit osaavat tekstinä kertoa mikä se esine on, jos näiden välisiä yhteyksiä ei voi kone löytää?
Vaan tarkoitan sitä, että ChatGPT käsittelee vain kieltä ja tekstiä, mutta todellinen maailma ei ole redusoitavissa pelkäksi tekstiksi.
ChatGPT on tehty käsittelemään vain kieltä ja tekstiä, joten ei se tietenkään muuhun pysty. Se ei kuitenkaan tarkoita etteikö sitä voisi laajentaa käsittelemään myös muunlaista dataa.

Koko maailma ei ole redusoitavaksi pelkäksi tekstiksi, mutta eihän ChatGPT taida tekstiäkään redusoida tekstiksi vaan koneen ymmärtämäksi dataksi. Jos pääsisit katsomaan ChatGPT:n pellin alle niin ei siellä olisi varmaan yhtään pätkää selkokielistä tekstiä (paitsi tietenkin sattumalta sanoilta näyttäviä pätkiä).
 
Tuo luotettavuus on keskeinen ongelma näissä puppulausegeneraattoreissa. Miten erotat hyvän vastauksen huonosta? Kielimallit ovat varmasti todella hyödyllisiä jo nyt esim. sen ketjussa usein mainitun rutiinikoodin tuottamisessa nopeasti. Sen oikeellisuus on helppo tarkistaa. Mutta missä tahansa tehtävässä, jossa generoitujen tuotosten virheillä on suuri riski livahtaa läpi tarkistuksesta, kielimalli tuottaa helposti enemmän haittaa kuin hyötyä. Vakuuttavan kuuloinen potaska on juuri sellaista korkean riskin sisältöä. Hyvä esimerkki siitä, miten kavalasti puppu pääsee läpi, on Googlen chatbotin markkinointiin livahtanut asiavirhe.
Tää on kyllä näiden yksi iso ongelma. Tuo ongelma vielä oikeastaan kasvaa kun nää systeemit tulee paremmiksi. Näin aluksi ei vaadi kovin kummoista että saa koneen antamaan ihan väärän vastauksen ja muutenkin tulee tarkistettua, että olihan se vastaus oikein.

Mutta sitten kun näiden luotettavuus ja uskottavauus paranee niin sitten yhä vaikeampi tunnistaa oikeat ja väärät vastaukset. Ehkä 99,999% ajasta vastaus on oikea, mutta mistä tunnistaa sen 0,001% tapauksen jossa vastaus olikin väärä. Milloin voidaan luottaa tekoälyyn täysin, sitäkään ei oikein pysty aukottomasti koskaan päättelemään. Eikä päättelyä voi edes tehdä motivaation tai muun sellaisen kautta kuten ihmisten kesken, koska koneella ei tuollaisia ole edes.
 
Liittyen tuohon datan esitystapaan ChatGPT:n sisällä selvittelin aiemmin hieman, miten se "näkee" tekstin. Kiinnostaa varmaan muitakin.

GPT-3 (johon ChatGPT perustuu) ei näe tekstiä yleensä yksittäisinä kirjaimina vaan pidempinä palasina (tokens). Se ei siis suoraan näe sille syötetystä tekstistä, mitä yksittäisiä kirjaimia siinä on. Täällä voi testata omia tekstejään: OpenAI API

Esimerkiksi sana "understandable" muuntuu tunnisteiksi 4625, 1481 ja 540, jotka viittaavat merkkijonoihin "under", "stand" ja "able" (tässä tapauksessa sattuvat olemaan kokonaisia sanoja). Suomenkielisiä sanoja se pilkkoo eri tavalla, esim:

k|ale|val|a
[74, 1000, 2100, 64]
 

Statistiikka

Viestiketjuista
258 653
Viestejä
4 495 028
Jäsenet
74 266
Uusin jäsen
ufozz112

Hinta.fi

Back
Ylös Bottom