AI-koodausavustimet, keskustelua AI-avustetusta koodaamisesta/skriptaamisesta/dokumentoinnista/...

Joo samoja fiiliksiä täällä. Mitähän ai sanoo jos kirjoitat 2 sääntöä joiden sisältö ovat ristiriidassa toistensa kanssa.
Saman kuin juniori ihminenkin, "wtf" ja tapahtuu mystisiä asioita. Oli sitten AI tai juniori niin saa parempaa ulos hyvillä ohjeilla versus jos ei anna ohjeita tai antaa ristiriitaisia ohjeita.

Itselläni sellainen kokemus, että Cursorissa ainakin unohtaa vähän väliä vaikka olisikin sääntöjä laatinut. Tarkkana saa olla.
Riippuu paljon käytetystä kielimallista miten hyvin noudattaa ohjeita. Uusin claude sonnet max versiona imho parhain. Eihän nuo täydellisiä ole, mutta heittävät vähemmän noppaa jos jaksaa kirjoitella paremmat ohjeet(agents.md) ja dokumentaation koodin sekaan.
 
Lieköhän Windsurf kuolee hiljalleen pois? cursor ja claude code lienevät suositumpia. Itse en ole hetkeen käyttänyt Windsurfia kun CC on niin paljon parempi. Uusin versio Claude Codesta toimii myös natiivisti Windowsissa!
 
Saman kuin juniori ihminenkin, "wtf" ja tapahtuu mystisiä asioita. Oli sitten AI tai juniori niin saa parempaa ulos hyvillä ohjeilla versus jos ei anna ohjeita tai antaa ristiriitaisia ohjeita.


Riippuu paljon käytetystä kielimallista miten hyvin noudattaa ohjeita. Uusin claude sonnet max versiona imho parhain. Eihän nuo täydellisiä ole, mutta heittävät vähemmän noppaa jos jaksaa kirjoitella paremmat ohjeet(agents.md) ja dokumentaation koodin sekaan.
Maxia taisin 3.7 sonnetin kanssa kokeilla vielä kun kuului kk tilaukseen. Silloin en vielä ollut noita sääntöjä niin paljon käyttänyt.

Joku taisi tässä ketjussa mainita, että kannattaa käyttää parasta mallia ja siinä kyllä olen tullut samaan lopputulokseen. Suoraan parhaalla mikä itsellä käytössä niin säästää aikaa ja hermoja.
 
Lieköhän Windsurf kuolee hiljalleen pois? cursor ja claude code lienevät suositumpia. Itse en ole hetkeen käyttänyt Windsurfia kun CC on niin paljon parempi. Uusin versio Claude Codesta toimii myös natiivisti Windowsissa!
Kyllähän tuosta systeemistä jäi sellainen kuva, että johto rahasti itsensä ulos acquisition hire+lisensoinnin kautta ja windsurf jäi "support" moodin. Ajan kanssa google tehnee itse paremman ai-koodaustyökalun. Windsurf näivettyy marginaaliin jos poislähteneet tyypit oli kriittisiä toiminnan kannalta.

En kyllä usko, että cursor ai:kaan pidemmän päälle jää eloon erillisenä yrityksenä ellei sitten amazon/anthropic osta osuutta/kokonaan cursor ai:sya. Varmaan foundation model firmojen omat avustimet se mikä voittaa. Vaikea 3rdparty firmana kilpailla kun pitää maksaa google/anthropic/openai jengille per token ja sitä kautta voitollisen palvelun hinta väistämättä oltava kovempi kuin google/anthropic/openai oma avustin.

Koodausavustimia on enemmän kuin sieniä sateella niin jossain kohtaa on tultava jonkinlainen pudotus ja konsolidaatiokierros.
 
Kyllä, veikkaan itsekin vahvasti sitä, että mallien omistajat ovat ne, jotka hommaa loppupelissä määräävät.
 
Enemmän matemaattinen kuin koodausongelma mutta jos joku haluaa koittaa vaikka Grok v4:sta
"can you calculate Approximate inverse function for Pt100 RTD (IEC 751) from resistance to temperature. 5th order polynomial equation for -200 to 0cel range with 0.001cel precision"

Grok v3 hallusinoi jotkut kertoimet joiden väittää olevan oikein, virhettä kuitenkin helvetisti, tarkistuslaskentaa pyydettäessä huomaa virheen, yrittää laskea uudet kertoimet jotka eivät ole sen paremmat.
Deepseekin kanssa sama homma paitsi että se feikkaa tai ei osaa edes pluslaskua tarkistuslaskussa, deepthought moodissa yrittää monikertaan ja huomaa aina laskevansa jotain väärin. lopulta antaa jotkut netistä löytyneet kertoimet jotka sinällään ok.
Chatgpt laskee toimivat kertoimet ja osaa tarkistaa/validoida ne pyydettäessä.
 
Taitaa olla kielimalleille tyypillistä se hassu juttu, että osaavat paremmin kertoa miten joku laskenta tehdään, vaikka koodina, kuin varsinaisesti suorittaa monimutkaisia laskuja varsinaisilla numeroilla.
 
Taitaa olla kielimalleille tyypillistä se hassu juttu, että osaavat paremmin kertoa miten joku laskenta tehdään, vaikka koodina, kuin varsinaisesti suorittaa monimutkaisia laskuja varsinaisilla numeroilla.
Piti paikkansa viime viikkoon asti, International math olympiadissa googlen keinoälylle virallinen kultamitali ja openai:lle epävirallinen kultamitali. Molemmat llm pohjaisia, ei työkalujenkäyttöä, ei internettiä, ei helpotuksia ja samat säännöt kuin ihmisille. Kisat järjestetty 1959 vuodesta alkaen, osallistujia yli sadasta maasta ja alle 10% osallistujista saa kultamitaliin oikeuttavat pisteet.

Google aikoo integroida tuon matematiikkajutun ultra-tason llm-palveluunsa. Varmaan 6kk-12kk sisään hyppää kielimallien laatu ylöspäin kun matematiikkapuolen järkeilyasiat generalisoidaan ja tuodaan tarjolle openai ja google palveluissa.
researchers behind OpenAI and Google’s IMO efforts claimed that these gold-medal performances represent breakthroughs around AI reasoning models in non-verifiable domains.

1753241243277.png
 
Viimeksi muokattu:
Nuo matematiikkaolympialaisten tehtävät ei pääsääntöisesti olekaan laskemista numeroilla vaan erilaisia todistus ja päättelytehtäviä, joihin vastaaminen ei edellytä mitään numerolaskuja. Tai näin ainakin noihin harjoittelevien tehtävät Suomessa ja taitaa ne tehtävät olla usein noista eri kisoista otettu.
 
Nuo matematiikkaolympialaisten tehtävät ei pääsääntöisesti olekaan laskemista numeroilla vaan erilaisia todistus ja päättelytehtäviä, joihin vastaaminen ei edellytä mitään numerolaskuja. Tai näin ainakin noihin harjoittelevien tehtävät Suomessa ja taitaa ne tehtävät olla usein noista eri kisoista otettu.
Matematiikkaolympialaisten tehtäviä pidetty erittäin vaikeina llm:lle kun pitäisi ymmärtää sanallinen tehtävänanto ja todistaa tuloksen oikeellisuus. Vastaus ei ole numero tms. jonka keinoälylle voisi helposti opettaa esm. reinforcement learninging avulla. Terence Tao(yksi tän ajan kovimmista matemaatikoista) ennusti kesäkuussa huonoa menestystä llm:lle IMO:ssa(IMO=kisa missä openai ja googlen ai otti kultamitalipisteet).
In June, Tao predicted on Lex Fridman's podcast that AI would not score high on the IMO. He suggested researchers shoot a bit lower. "There are smaller competitions. There are competitions where the answer is a number rather than a long-form proof," he said.

IMO tulokset puhtailla llm:lla. Saadaan nuo uudet llm:t käyttöön lähitulevaisuudessa + työkalut niihin päälle niin puhutaan todella kovanluokan matematiikan osaamisesta konemallissa. Työkalujen käyttämisessä ei ole mitään pahaa, käyttäähän ihminenkin kynää, paperia, laskukonetta, matlab:ia,...

Yksi merkittävä kulma IMO kisassa pärjänneissä llm:ssa, että llm pystyy hallusinoimatta ajattelemaan pitkään. Toivottavasti samankaltaista hallusinoimatonta pitkää ajattelua saadaan sovellettua koodausagentteihin tulevaisuudessa. Ainakin openai:n blogipostaus + twitter viestit antavat olettaa, että periaate IMO:ssa pärjänneessä kielimallissa on siirrettävissä muihinkin kuin matemaattisiin taskeihin.
"IMO problems demand a new level of sustained creative thinking compared to past benchmarks," he said. "This model thinks for a long time."
 
Viimeksi muokattu:
Onko jotain claude coden tyyppistä toolsettiä joka toimisi lokaalien mallien kanssa?

Asian hakeminen hakukoneilla todistaa aika hyvin miten AI slop on tuhonnut internetin. Helvetti miten paljon paskaa löytyy...
 
Onko jotain claude coden tyyppistä toolsettiä joka toimisi lokaalien mallien kanssa?

Asian hakeminen hakukoneilla todistaa aika hyvin miten AI slop on tuhonnut internetin. Helvetti miten paljon paskaa löytyy...
On, mutta lokaalit mallit ainakin mun kokemuksen pohjalta suoltaa silkkaa paskaa ellei kysymys ole joku leetcode pulma tai vaikka quicksort algoritmi joka on ollut opetussetissä mukana. Mä olen testannut aider:ia ja jotain vscode plugareita. Nvidialla blogipostaus asiasta
How to Run Coding Assistants for Free on RTX AI PCs and Workstations
 
Eiköhän se googgeli oo rahan himoissaan tuhonnut netin haut. Ainakin omalta osaltaan. Ei sieltä oo pitkään mitään järkevää löytänyt.
 
Eiköhän se googgeli oo rahan himoissaan tuhonnut netin haut. Ainakin omalta osaltaan. Ei sieltä oo pitkään mitään järkevää löytänyt.
Ei ole, vaan AI generoitu roska joka päätyy hakukoneiden indeksointeihin ja nyt uusimpana asioista mitään ymmärtävien kirjoittelut redditissä kun yrittävät tehdä asioita AI työkaluilla.
On, mutta lokaalit mallit ainakin mun kokemuksen pohjalta suoltaa silkkaa paskaa ellei kysymys ole joku leetcode pulma tai vaikka quicksort algoritmi joka on ollut opetussetissä mukana. Mä olen testannut aider:ia ja jotain vscode plugareita. Nvidialla blogipostaus asiasta

Tarkoitus onkin kokeilla toimivatko pienten ja spesifien ongelmien kanssa
 
Saman ilmiön huomaa usein niinkin, että tekoäly tekee ihan oikean koodin johonkin hommaan mutta kun pyytää laskemaan esimerkkitapauksen (esim testin tekoa varten) niin se tulos saattaa olla ihan päin mäntyä.
 
Saman ilmiön huomaa usein niinkin, että tekoäly tekee ihan oikean koodin johonkin hommaan mutta kun pyytää laskemaan esimerkkitapauksen (esim testin tekoa varten) niin se tulos saattaa olla ihan päin mäntyä.
Paljon riippuu jo nyt siitä mitä mallia käyttää. Rahalla saa, kalleimmat anthropicin mallit on ihan eri kaliiberia koodaileen kuin muut kielimallit.

IMO:ssa pärjänneet mallit kun integroidaan kuluttajien saataville niin koodiavustin/??? voi kehitellä oikeat kaavat ja varmistaa niiden oikeellisuuden formaalisti. Kaava ja arvot mcp-protokollan yli työkalulle joka laskee vastaukset.

MCP ja työalut muuttaneet parin viime kuukauden aikana paljon sitä mitä koodiavustin voi tehdä. Kielimallin ei ole pakko osata kaikkea itse, pääasia että osaa delegoida oikealle työkalulle.
 
Context7 kiva mcp-serveri dokumentaation ja esimerkkien tuomiseksi promptiin. Tukee pakasta vedettynä isoa kasaa projekteja, aika lopettaa googlettaminen ja copy/paste.
Context7 MCP pulls up-to-date, version-specific documentation and code examples straight from the source — and places them directly into your prompt.

tarkemmin täällä: Context7 - Up-to-date documentation for LLMs and AI code editors
 
Viimeksi muokattu:
Tässä usean viikon vibe-koodaus meininkin jälkeen tullut huomannut, että lopulta näiden käyttö on uuvuttavaa:
  • Melkein loputon optimisointi suo, tee sääntöjä, prompteja, testaa malleja, sekä mcp-servereitä.
  • Tee lisää sääntöjä&prompteja jotka tuottavat prompteja.
  • Sillä aikaa kun agentti 1 tekee projektin A asioita, laitat agentti 2 tekemään projektin B asioita. Eli sen sijaan että aikaisemmin keskityt tekemään yhtä asiaan, nyt niitä on useita.
Toki kaiken tuo vaivan jälkeen outputti on hyvää ja sitä tulee paljon lyhyessä ajassa. Mutta pohtinut tässä, että AI malleissa tulisi olla joku learning mode tjsp joka oppisi itse prompteista, outputeista miten haluan asiat tehtävän, ilman että niitä pitäisi käydä itse kirjoittelemassa ylös.
 
Mahtavaa hommaa on enkä edes guruile pahemmin agenttien kanssa vaan pidän selkeämpänä kirjotella speksit ja pistää ihan selaimessa arviointiin speksin laadusta ja sitten korjausten jälkeen iteroidaan itse koodia kuntoon. Näin pysyy punainen lanka itsellä ja tarpeeksi pienet palat tulee hyvin tekoälyltä.

Viime aikoina tehnyt kuvankäsittelyyn koodia Raspberry Pi minikoneelle ja siinä tuli niin sanotusti tehokkuusseinä vastaan ja pahasti. Enpä olisi kuukausi sitten uskonut pystyväni tekemään menestyksellä ARM64 assemblerilla noita tehokkuuskriittisiä juttuja käyttäen uusimpien ARM-prossujen NEON SIMD vektorikäskyjä, joilla pystyy siis käsittelemään yksillä konekielen käskyillä vektorirekisteissä suurempia datamääriä. Ja tulee muuten aika tehokasta koodia noin. Tuollaista kamaa ei hirveästi ole tekoälyjen oppimateriaalissa ja ainakin tässä tapauksessa Github Copilotin sisältämistä tekoälyistä näyttäisi ainoastaan Claude Opus pystyvän tekemään tuota lähes virheittä. Muilla tulee aika kuraa joka ei mene kääntäjästäkään läpi. Viimeksi koodannut assemblerilla vuonna 1992 Amigalla Motorola 68000 prossalla :-)

Tuo ARM64 vektoriassembly ei todellakaan ole mitään ihmisen hommaa. Käskyjä ja niiden variaatioita on "aika paljon". Otetaan vaikka esimerkki yhdestä käskystä:
ld2 {v4.8h, v5.8h}, [x13]
Yksi käsky lataa muistista x13 sisältämästä osoitteesta kahteen 128bitin vektorirekisteriin molempiin 8 kappaletta 16-bittisiä lukuja ja tekee sen vielä samalla vuorotellen ristikkäin poimien niin että toiseen rekisteriin tulee joka toinen luku järjestyksessä ja toiseen rekisteriin joka toinen (tässä tapauksessa sensorilta tulevan RAW kuvadatan vuorottelevat väripikselit tulee siis purettua omiin rekistereihin samalla kun ne haetaan muistista). Saa olla melko guru jos tollasenkin käskyn tajuaa itse ottaa käyttöön. Siitä voi laskea montako perinteistä konekielen käskyä tuohon menisi...Nyt kestää 2300x1300 pikselin RAW kuvan alkukäsittely alle 1ms ja onnistuu samassa säikeessä yhdellä ytimellä joka lukee bufferia. Kuvia tulee 20ms välein, mutta vielä on monta monimutkaisempaa steppiä tekemättä jotka pitäisi mahduttaa tuohon aikaan.

(Tiedän että grafiikkakorteilla saisi vielä tehoa lisää, mutta niiden käyttömahdollisuudet linux Raspberryssä on vielä vähän huonot ja niissä on myös ongelma, että datan liikuttelu prossun ja grafiikkakortin välillä on hidasta enkä kuitenkaan kaikkea voi tehdä grafiikkakortissa.)
 
Viimeksi muokattu:

Uusimmat viestit

Statistiikka

Viestiketjuista
283 461
Viestejä
4 870 690
Jäsenet
78 662
Uusin jäsen
Qwerty2112

Hinta.fi

Back
Ylös Bottom