Haluaisitteko te, että vaikka hengityskoneen koodit on vibe-koodattu? Miten paljon tuollaisen koodin tapauksessa olisitte valmiita jättämään AI:n harteille? Pitäisikö ihmisten ihan oikeasti ymmärtää se koodi? Uskaltaisitteko luottaa, että AI tekee vedenpitävät speksit kun kyse on ihmishengistä?
Suoraan sanottuna tuollaisessa käyttökohteessa haluaisin olevan mahdollisimman vähän yhtään mitään koodia, oli se sitten ihmisen, AI:n tai apinan kirjoittamaa.
--
Jos mennään vähän arkisempiin sovelluksiin, niin oma kokemus on hyvin pitkälti se, että AI on jo nyt todella hyvä renki, joka osaa varsin itsenäisesti analysoida ja yhdistellä varsin monimutkaistakin dataa ja tehdä siitä ihan järkeviä päätelmiä tieteellisen kirjallisuuden perusteella. Olen monta kertaa päässyt yllättymään kuinka hyvä ja oivaltava se voi oikeasti olla ihan vaan täysin suljettua dataakin katsomalla. Kaikenlaisen tutkivamman koodailun, iteroinnin ja pikkutarkan analysoinnin tekemisessä tekoäly on aivan älyttömän hyvä jo nyt ja väitän, että itsellä on kokonaisoutput omissa töissä AI:n ansiosta ihan oikeasti jossain 2-4x tasolla aiemmasta. Osittain varmaan liittyy ihmistyyppiinkin, kun tällaiselle AC/DC-miehelle jatkuva kontekstinvaihto, moneen suuntaan kerrallaan eteneminen ja asioiden välillä pomppiminen AI-avusteisesti pitää homman mielenkiintoisena, että tulee puolivahingossa itsekin tehtyä oikeasti enemmän töitä.
Toisaalta surkea isäntä se AI on edelleen ja renkinäkin sellainen, että perään saa olla katsomassa koko ajan. Mitä itsevarmempia julistuksia se tekee, sitä suuremmalla syyllä pitää kyseenalaistaa ja pyytää sitä tarkistamaan kuinka päätyi tähän lopputulokseen. Sanoisin, että noin yksi kerta kolmesta lopputulos on, että AI toteaa "hups, totesinkin vähän liian jyrkästi, oikeasti onkin x y z". Eli oma kokemus on, että ei se yleensä ole väärässä, mutta on hösöttäessään hukannut juuri sopivasti kontekstia ja nyanssia, että väittämät eivät kestä kriittisempää tarkastelua.
Muutenkin olen edelleen sitä mieltä, että joo kannattaa speksata hyvin, tehdä suunnitteludokkarit sun muut, mutta siitä eteenpäin homma kannattaa tehdä pienemmissä paloissa, vähän väliä kontekstia tyhjennellen ja muutenkin perään katsoen. Alkuun tuli annettua isompia kokonaisuuksia, mutta hyvin pian totesin, että tunnin ruksuttelun lopputuloksessa ei välttämättä ole päätä eikä häntää, koska jossain kriittisessä kohdassa AI on ymmärtänyt väärin tai oikaissut ja koko homma on lähtenyt pois raiteiltaan.
En tiedä onko kyseessä vain Clauden nykyinen laiskottelutaipumus, vai päteekö sama muihinkin frontier - malleihin, mutta tänään oli loistava esimerkki siitä, että tarkkana saa olla: tutkin yhden luonnonilmiön mallintamista tai sen mallin parantamista ja tähän tarkoitusperään olin laittanut Clauden tutkimaan kolmea eri potentiaalista reittiä, joilla hommaa voisi alkaa lähestymään. Tulosta tuli ja yksi menetelmistä vaikutti selvästi vahvemmalta kuin muut. Claude oli käynyt läpi ison nipun tutkimuskirjallisuutta ja tehnyt kaikista muistiinpanot tiedostoihin ja pystyttänyt erinäisiä protosovelluksia kustakin lähestymistavasta. Tässä alkuvaiheessa kun kokonaisuutta vasta hahmotellaan, en ollut hirveän tarkasti käynyt läpi kaikkea mitä Claude taustalla oli puuhaillut, mutta sitten kun alkoi olla aika tehdä päätöksiä siitä mitä polkua lähden itse seuraamaan tarkemmin, rupesin käymään läpi Clauden muistiinpanoja luetusta kirjallisuudesta. Siinä vaiheessa kävi ilmi, että Claude ei ollutkaan oikeasti lukenut kokonaisuudessaan yhtä artikkelia, johon yksi menetelmistä nojasi lähes kokonaisuudessaan, vaan pelkän tiivistelmän. Muistiinpanoissa oli kyllä tästä merkintä, mutta Claude ei ollut mitenkään maininnut tästä. Noh, tällä kertaa lopputulos oli siinä mielessä onnellinen, että Claude oli saanut keskeisimmät luvut ja havainnot ongittua pelkistä tiivistelmistä, mutta koko artikkelin lukemalla kävi ilmi, että yksi laskennan vähäpätöisempi alikomponentti olisi mennyt aika pahasti pieleen.