AI-koodausavustimet, keskustelua AI-avustetusta koodaamisesta/skriptaamisesta/dokumentoinnista/...

1000043806.jpg

Taitaa GPT 5.5 olla sopiva paikka iskeä tälläisen julkaisun jälkeen.
 
Vaikuttaa siltä että Anthropic on ajanut itsensä kuseen ja siellä on hommat pahasti sekaisin. Tulee taas mieleen että siellä kun jos tekoäly koodaa tekoälyä, niin se on alkanut degeneroitumaan. Ensin hitaasti ja hyvin vähän, mutta nyt ollaan jo lumivyöryvaiheessa.

Tuo malware ongelma olisi paljastunut ihan pienellä testauksella.
 
Otin Claude Coden (Pro) uudestaan testiin, kun viimeiset 3-4kk käyttänyt käytännössä pelkkää Codexia.

Samassa projektissa Codexilla (GPT5.4, Medium) saa työskenneltyä n. 2h ennen kuin 5h limit tulee täyteen, Claudella (4.6 Sonnet, Medium) max 20min, parhaimmillaan yhdessä promptissa mennyt koko 5h usage. Samat skillit ja AGENTS.md/CLAUDE.md käytössä. Prompteja saa Codexiin 50+ ja Claudeen max 10. :confused: Puhumattakaan jostain Opuksesta, se on pari minuuttia ja usage on täynnä.

Teenkö(hän) jotain väärin? Molempien laatu aika samaa, eli hyvää kunhan promptaa kunnolla. Sen kyllä huomasin, että Claude työskentelee pidempään kun taas Codex pysähtyy kyselemään enemmän. Tällä hetkellä kaksi ChatGPT Plus-tilausta vaikuttaa paremmalta diililtä kun nämä kaksi erikseen.
 
Samassa projektissa Codexilla (GPT5.4, Medium) saa työskenneltyä n. 2h ennen kuin 5h limit tulee täyteen, Claudella (4.6 Sonnet, Medium) max 20min, parhaimmillaan yhdessä promptissa mennyt koko 5h usage.
Tässäpä se juuri on että "älykkäin malli" ei ole enää paras vaihtoehto, jos ns 5% "tyhmemmän" mallin saa useita kertoja halvemalla (ns token hinta)

Kun katsotaan mallin hinta/nopeus/älykkyys/hallusinaatio raja..jne niin tämän päivän lisäoptioilla (mcp:t, subagentit..jne) minusta opuksen hinnoittelu on todella surkea vrt muihin.
 
Mistä saa jo GPT-5.4-codexin käyttöön vai käytätkö siis tavallista GPT-5.4?
Tavallinen GPT-5.4 siis. Codexin sovelluksen kautta käytän, siksi mainitsin tuon.

Jaahas, Codexistakin tuli päivitys.
Näyttää aika isolta päivitykseltä. Windows-versiota odotellessa.

Tässäpä se juuri on että "älykkäin malli" ei ole enää paras vaihtoehto, jos ns 5% "tyhmemmän" mallin saa useita kertoja halvemalla (ns token hinta)
Tuntuu kyllä siltä, että mallin tuotosten laadussa ei hirveästi ole edes eroa. Enemmän tuntuu vaikuttavan promptaus, konteksti ja skillit. Voisi vaikka huvikseen seuraavan resetin jälkeen testailla miten Haiku 4.5 toimii, paljonko saa käyttää ja miten tulokset eroaa vaikka Sonnetista.
 
gpt 5.4 codexissa

qwen 3.6 35b paikallisesti clinessä

Ihan mielenkiinnosta hostasin paikallisesti ton uuden 3.6 qwenin ja tein ton redditistä bongatun SVG testin gpt:llä ja paikallisella qwenillä, yllättävää kyl mihin toi pikkumalli pystyy, täytyykin alkaa kokeilemaan mitä se onnistuu tekemään omissa codebaseissani on meinaan ihan sika nopea 200 tok/sec ja osaa clinessä automaattisesti hakea inffoa netistä.
 
Kyllähän tuon kehityksen kuvittelisi niin menevän, että kun mallien kyvykkyys kasvaa niin pikkujutuissa/pienissä projekteissa ei enää tarvi parasta mallia. Jossain kohtaa lokaalikin alkaa olemaan riittävän kyvykäs moneen asiaan. Toisella puolella isot ja kompleksiset projektit joissa AI ei välttämättä ole edes riittävän hyvä ja parempaa kaipaisi.

Sitä päivää odottaessa kun voi promptata vaikka "ota Android Open Source project sisään ja muuta kaikki C-koodi mukaanlukien linux kerneli RUST:lle. Tee kattavat testit sekä rust että C. Varmista toteutusten identtisyys". Saa vettä vielä virrata joessa tovin,...

Näissä mun kotiprojekteissa voi todeta, että openai ja anthropic molemmat toimivat niin hyvin, että aika vähän löytyy reunatapauksia missä tarvii itse enää koodata. Mutta pieniähän nämä projektit ovat ja monella tavalla täysin triviaaleja.
 
gpt 5.4 codexissa

qwen 3.6 35b paikallisesti clinessä

Ihan mielenkiinnosta hostasin paikallisesti ton uuden 3.6 qwenin ja tein ton redditistä bongatun SVG testin gpt:llä ja paikallisella qwenillä, yllättävää kyl mihin toi pikkumalli pystyy, täytyykin alkaa kokeilemaan mitä se onnistuu tekemään omissa codebaseissani on meinaan ihan sika nopea 200 tok/sec ja osaa clinessä automaattisesti hakea inffoa netistä.
Kannattaa myös Gemma 4:lle antaa mahdollisuus. Se on itsellä ollut viime aikoina käytössä ja tuottanut hyvin vakuuttavaa jälkeä. Sekä 31B että 26B A4B.

Itse en vielä ole ehtinyt Qwen 3.6 testaamaan, mutta pitää ottaa kokeiluun lähipäivinä. Benchmarkit näyttää vähän liian hyvälle ollakseen totta A3B-mallille, kun esim. vasta julkaistu "iso" 31B Gemma 4 jää muka lähes kaikessa jalkoihin.
 
Redditissä kyllä revitään huumoria anthropicin kustannuksella... Ei valittamista openai:sta. Koodasi uart-härpättimen pc-amiga väliin mitä claude code ei saanut aikaiseksi.
Ollut mielenkiintoista seurata miten sössivät asiansa, firman fanitus oli aikaisemmin ihan överiä ja nyt näkee jatkuvasti enemmän Codexiin vaihtaneita ja juuri tuommoisia kokemuksia, että tämähän on ihan hyvä, ellei jopa parempi ja saa käyttääkin paljon enemmän. Jos kilpailijat ei sössi vastaavasti niin moniko vaihtaneista on enää palaamassa?
 
Ollut mielenkiintoista seurata miten sössivät asiansa, firman fanitus oli aikaisemmin ihan överiä ja nyt näkee jatkuvasti enemmän Codexiin vaihtaneita ja juuri tuommoisia kokemuksia, että tämähän on ihan hyvä, ellei jopa parempi ja saa käyttääkin paljon enemmän. Jos kilpailijat ei sössi vastaavasti niin moniko vaihtaneista on enää palaamassa?
imho. claude oli ennen tyhmennystä parempi ainakin minun käyttöön kuin tämä nykyinen openai 5.4xhigh moodissa. Minä en ole palaamassa anthropic:iin kun openai:nkin palvelu toimii riittävän hyvin. Jos openai alkaa sössimään niin sitten tulee google testiin seuraavaksi.

Upeasti kyllä anthropic kussut omiin muroihinsa. Harvoin näkee ja pääsee kokemaan tällaista hajoamista(onneksi).
 
Opus 4.7 tuli kokeiltua tänään töissä ja hyvin se pärjäsi ainakin verrattuna siihen miten huono 4.6 on ollut viime aikoina. En ole silti vielä vakuuttunut että se on yhtään parempi kuin 4.6 oli alunperin.

API-hinnoittelu on kyllä melko kallista, kun muutamassa tunnissa tuli melkein 100 dollaria laskua, mutta sain yhden projektin etenemään mukavasti. Hintansa arvoinen siis ainakin tänään, mutta saa nähdä miten nopeasti tämä malli alkaa huonontumaan.
 
Näköjään porukka on keksinyt uuden merihevosen. Kun AI:lta (esim. Claude) kysyy "Is 2027 the next year?" niin se vastaa:

No, 2027 is not the next year. The current date is Friday, April 17, 2026, so the next year would be 2027, but we're still in 2026 right now. The next year (2027) will begin on January 1, 2027, which is about 8.5 months away.

ChatGPT sekoili ihan samalla tavalla:

No — 2027 is not the next year.
The current year is 2026, so the next year is 2027, but only after 2026 ends.

So:
  • Current year: 2026
  • Next year: 2027 ✅
If you’re asking in real-time terms, then yes — 2027 is the upcoming next year, but it hasn’t happened yet.
 
Reasoning of your initial answer?

Honestly? I don’t have a saved trace of my internal reasoning to show you — I can only reconstruct what likely went wrong after the fact.
My best reconstruction: I probably parsed “next year” as “the year that comes after the current one” and felt an urge to anchor the answer in today’s date (April 17, 2026). So instead of just confirming “yes, 2027 follows 2026,” I pivoted to explaining that 2026 is the current year and 2027 is upcoming — which technically agreed with you but buried the “yes” and made it sound like I was correcting you with that opening “No.”
The “No” was the real error. Your question had a yes answer, and I led with the opposite word because I was answering a slightly different question in my head (something like “is it 2027 already?”). Classic case of answering the question I imagined instead of the one you asked.

Eli, liibalaaba :rofl2: Opus 4.7 on parempi koodaamaan ku selaamaan almanakkaa
 
Näköjään porukka on keksinyt uuden merihevosen. Kun AI:lta (esim. Claude) kysyy "Is 2027 the next year?" niin se vastaa:

No, 2027 is not the next year. The current date is Friday, April 17, 2026, so the next year would be 2027, but we're still in 2026 right now. The next year (2027) will begin on January 1, 2027, which is about 8.5 months away.

ChatGPT sekoili ihan samalla tavalla:

No — 2027 is not the next year.
The current year is 2026, so the next year is 2027, but only after 2026 ends.

So:
  • Current year: 2026
  • Next year: 2027 ✅
If you’re asking in real-time terms, then yes — 2027 is the upcoming next year, but it hasn’t happened yet.
En saanut Claudella toistettua:
Yes, 2027 is the next year — today is April 18, 2026, so 2027 starts in about 8½ months.
 
Nää aikajanat on kielimallille luonnollisesti vaikeita. Tällaista puski Opus tammikuun lopussa eli jo ennen tyhmentymistään:

Screenshot 2026-01-26 131724.png
 
Näköjään porukka on keksinyt uuden merihevosen. Kun AI:lta (esim. Claude) kysyy "Is 2027 the next year?" niin se vastaa:

No, 2027 is not the next year. The current date is Friday, April 17, 2026, so the next year would be 2027, but we're still in 2026 right now. The next year (2027) will begin on January 1, 2027, which is about 8.5 months away.

ChatGPT sekoili ihan samalla tavalla:

No — 2027 is not the next year.
The current year is 2026, so the next year is 2027, but only after 2026 ends.

So:
  • Current year: 2026
  • Next year: 2027 ✅
If you’re asking in real-time terms, then yes — 2027 is the upcoming next year, but it hasn’t happened yet.
Gemma 4 luulee että nyt on 2024 ja ilmoittaa että 2025 on ensi vuosi.
 
OpenAI systeemin persoonallisuus on todella ärsyttävä, nenäkäs, besserwisseri. Tilanteita missä itse kirjoittaa X, OpenAI lässyttäää jotain uusilla sanoilla kuin käyttäjä olisi ollut väärässä kertoen että Y on se parempi tapa. Sille sanoo, että eikö se X ollut just noin niin tulee että "joo oli" ja kilometri lisää lässytystä. Ngghh... kielimallin toivoisi olevan egoton faktakone joka suorittaa ja kertoo asiat neutraalisti. Claude Code ennen tyhmentymistä äärettömästi parempi persoonallisuus mun makuun.
 
Viimeksi muokattu:
Gemini on kans niin ärsyttävän myötäilevä, että olen käynyt sille kirjoittelemassa persoonallisuusohjeita, taisin joskus muuten ChatGPT:lle tehdä samoin.

Edit: tuo aiemmin linkkaamani Caveman se vasta tuleekin Opus 4.7:kan kanssa hyötykäyttöön kun siltä tuntuu tulevan aika pitkiä tarinoita Opencdessa.
 
Jep. Juhlat alkavat olla ohi. Tämä vuosi on viimeinen kun tekoälyllä koodaa edullisesti. Ensi vuonna siitä pitää maksaa oikea markkinahinta.
 
Jep. Juhlat alkavat olla ohi. Tämä vuosi on viimeinen kun tekoälyllä koodaa edullisesti. Ensi vuonna siitä pitää maksaa oikea markkinahinta.

Mikäs näkemys on tästä markkinahinnasta nyt vs. ensi vuonna? Itse siis aloitin juuri Cursor Pro version käytön n. 22e/kk hinnalla ja tässä 5 päivässä olen kuluttanut 15-22% kuukauden kapasiteetista. Joidenkin mukaan tämä voi ilmeisesti mennä reippaasti yli 100% käytön ennen kuin oikeasti loppuu, mutta en tiedä siitä vielä. Onko tämä vielä edullista koodaamista, perustuu pyyntöjen tokeneihin, vai onko tämäkin kallistumassa mielestäsi merkittävästi? Vielä vaikuttaa edulliselta saavutettuun hyötyyn nähden, vaikka ihan vapaa-ajan tutustumisena menee.
 
Mikäs näkemys on tästä markkinahinnasta nyt vs. ensi vuonna? Itse siis aloitin juuri Cursor Pro version käytön n. 22e/kk hinnalla ja tässä 5 päivässä olen kuluttanut 15-22% kuukauden kapasiteetista. Joidenkin mukaan tämä voi ilmeisesti mennä reippaasti yli 100% käytön ennen kuin oikeasti loppuu, mutta en tiedä siitä vielä. Onko tämä vielä edullista koodaamista, perustuu pyyntöjen tokeneihin, vai onko tämäkin kallistumassa mielestäsi merkittävästi? Vielä vaikuttaa edulliselta saavutettuun hyötyyn nähden, vaikka ihan vapaa-ajan tutustumisena menee.
Vuoden lopussa 100 EUR/kk jos haluaa töitä tehdä.
 
Veikkaan, että hinnat nousevat sille tasolle mikä on mallien hyödyllisyys. ts. Jos mallit paranevat niin paremmista malleista voi pyytää enemmän rahaa, vrt. maksat normaalista työntekijästä tai superseniorista enemmän kuin traineesta.

OpenAI on todella hidas myös 5.4x xhigh + fast moodissa. Jos ja kun mallit pystyvät tulevaisuudessa tekemään entistä isompia taskeja niin yksi tapa hinnoitella on aika. Saat halvalla jos odotat viikon, kalliimpi jos tulee päivässä ja sika kallis jos tunnissa. Kaikissa sama lopputulos. Harrastelija voi ottaa tilauksen missä kone raksuttaa viikon täytellen kuplat konesalissa. Isossa firmassa release päivänä maksetaan että tapahtuu tunnissa :) Viikon taski tietenkin vielä vaatii että mallit paranisivat, nyt tuntuu tunti olevan semmonen minkä kone raksuttelee itsekseen aika usein.

Tokenien hinta tulee todnak. edelleen 10x alas per vuosi edelleen jos pidetään taskin taso ja lopputulos samana. ts. ihan oletettavaa, että nyt subventoitu 100e/kk tilaus tarjoaa 100e/kk hintaan vuoden päästä saman ilman subventiota. Osa tästä 10x pudotuksesta vuosittain paranevaa rautaa konesalissa, osa paremmista malleista ja paremmasta inferenssin optimoinnista(infra/framework optimoinnit) konesalissa.
 
Viimeksi muokattu:
ei tuo gemini myöskään kovin halapa jos haluaa ettei käytä tyhmiä malleja. saa maksaa sen reilu 200e kk , et pystyy käsittelee 10k rivistä koodia
 
ei tuo gemini myöskään kovin halapa jos haluaa ettei käytä tyhmiä malleja. saa maksaa sen reilu 200e kk , et pystyy käsittelee 10k rivistä koodia
Näissä pitää miettiä että AI-työkalu on resurssi siinä missä ihminenkin. Jos junnu maksaa firmalle 3ke/kk(sisältäen sivukulut+työkalut) tai piilaaksossa 10ke/kk niin suhteuttaa AI:n hinta työntekijän ja lopputuloksen hintaan. Jos/kun nuo parhaat AI-mallit pääsevät junioritason osaamisesta perus devaajan osaamiseen + pidemmät taskit niin hintaa voi ihan hyvin pompsauttaa mallin antaman lopputuloksen tasolle.

Kilpailu ja lokaalit mallit tietenkin laittavat sitä vastaan ettei yksi taho voi vain maksimoida hintaa. Paljon ollut puhetta siitä, että meneekö tokenien hinta nollaan vai ei. Raa-asti koodausavustimia ajatellessa hinta voi kuitenkin olla lähelle sen mitä saman työn teettäminen ihmisellä maksaisi. Uskon kyllä, että aika-aspekti on myös vahvasti mukana hinnoittelussa, sama lopputulos mutta haluatko sen viikossa, päivässä vai tunnissa(niillä paremmilla malleilla, vuoden päästä, ei tänään)
 
Veikkaan, että hinnat nousevat sille tasolle mikä on mallien hyödyllisyys. ts. Jos mallit paranevat niin paremmista malleista voi pyytää enemmän rahaa, vrt. maksat normaalista työntekijästä tai superseniorista enemmän kuin traineesta.
Kysyntä ylittää tarjonnan ja mikä "pahinta", paremmat mallit lisäävät kysyntää.
 
Kysyntä ylittää tarjonnan ja mikä "pahinta", paremmat mallit lisäävät kysyntää.
Ei kannata ajatella asiaa niin yksiulotteisesti että vain paras, isoin ja kallein malli kelpaa. Tokenien hinta on suurinpiirtein joka vuosi pudonnut 1/10 osaan kun pidetään taski ja lopputulos samana. En mä näe mahdottomana, että ensi vuonna saa edelleen 100e/kk tilauksella saman tason kuin mitä tänään see 100e/kk tilauksella. Sinne päälle vaan tulee mahdollisesti erittäin kallistakin ratkaisua niille joille nykyinen laatu ei riitä. Aika on myös hyvä tapa hinnoitella kun aika eri asia jos voit odottaa viikon, päivän tai tunnin. Esim. mun kotiprojekteissa voisin ihan hyvin antaa taskit sisään ja katsoa viikon päästä JOS kone ei siinä välissä pysähdy kyseleen. Oikeissa töissä voi olla, että on vara laittaa sprintin alussa taskit sisään ja puolivälissä tarkistaa, releasen alla aikataulupaine voi laittaa maksamaan express palvelusta, että asiat tapahtuu tunnissa.

Nvidian loppuvuodesta tuleva blackwell+groq lpu nimenomaan keskittyy siihen, että tokeneita tulisi nopeammin. Kallis ratkaisu, mutta nopea. Nille jotka haluavat nopeutta ja hinta ei ole este.

Jos/Kun meta, google, xai pääsee myös ai-koodausavustimissa tasolle "riittävän hyvä" voi auttaa konesalikapasiteetin ja kilpailun kanssa. Tällä hetkellä tuntuu että peliä käydään lähinnä anthropic vs. openai ja heidän konesaleissa.

Pelkkä nvidian seuraava vera-rubin rauta mitä aletaan asentamaan konesaleihin parin kuukauden sisään niin laskee tokenien hinnan 1/10:aan. amd:n mi450:en minkä pitäisi tulla loppuvuodesta tarjonnee vielä halvemmat tokent kun amd myy alehinnalla rautaa.
 
Minkälaisia käytäntöjä väellä on tällä hetkellä näiden välineiden tietoturvan hallintaan? En siis tarkoita sitä, että agentti tekee turvatonta koodia, vaan sitä, että se tekee vain mitä siltä luvallisesti pyydetään. Eli salaisuuksien piilottaminen, kehoteinjektioilta (tai niiden vaikutuksilta) suojautuminen, verkkoliikenteen rajaaminen, jne. varsinkin, kun puhutaan liiketoiminnasta eikä vain harrasteprojekteista.
 
Tuli otettua kimi code (ja uus kimi k2.6) plugari vscodeen ja 16e tilaus kokeiluun kun just codexin tilaus loppui, jos ottaa vuoden kerrallaan niin se on 13e/kk.

Katotaan nyt miten tää toimii, ainakin tuntuu vähän hitaalta mutta kaikki mitä olen tänään pyytänyt on hienosti onnistunut kertalaakista kuten kuuluukin, kyllähän tuo testeissä näyttää olevan tosi kova, tiedä sitten.
 
Tuntuu että toi openai:nkin härpätin vaan tyhmenee päivä päivältä. Tänään ollut täysin aivokuollut moodissa 5.4xhigh, fast mode. Koodaa vaan bugia bugin perään ja vetelee ihan järjettömiä paskakorjauksia bugien peittelyksi.

edit. Oliskohan siellä vedetty openai:n konesalissa kapasiteetti nollaan ja tarjoilee paskamallia samalla kun päivitetään uutta tilalle. Ehkä tulis uusi malli tarjolle parin tunnin päästä?
1776790284552.png


edit. Joutu luovuttaan tältä päivältä. Viimeinen niitti kun ei edes c-applikaation komentoriviparametrien parserointi enää onnistu. jessus miten tuo 5.4xhigh muuttui tyhmäksi.
 
Viimeksi muokattu:
Ei kannata ajatella asiaa niin yksiulotteisesti että vain paras, isoin ja kallein malli kelpaa. Tokenien hinta on suurinpiirtein joka vuosi pudonnut 1/10 osaan kun pidetään taski ja lopputulos samana. En mä näe mahdottomana, että ensi vuonna saa edelleen 100e/kk tilauksella saman tason kuin mitä tänään see 100e/kk tilauksella. Sinne päälle vaan tulee mahdollisesti erittäin kallistakin ratkaisua niille joille nykyinen laatu ei riitä. Aika on myös hyvä tapa hinnoitella kun aika eri asia jos voit odottaa viikon, päivän tai tunnin. Esim. mun kotiprojekteissa voisin ihan hyvin antaa taskit sisään ja katsoa viikon päästä JOS kone ei siinä välissä pysähdy kyseleen. Oikeissa töissä voi olla, että on vara laittaa sprintin alussa taskit sisään ja puolivälissä tarkistaa, releasen alla aikataulupaine voi laittaa maksamaan express palvelusta, että asiat tapahtuu tunnissa.
Jevonsin paradoksin mukaisesti mallien tehostuminen johtaa siihen että niitä käytetään enemmän.

Ja samaan aikaan yrityksissä (ainakin Euroopassa) ollaan vasta siirtymässä koodausavustimiin. Kunhan firmat saavat päänsä pensaasta niin uusia käyttäjiä virtaa ovista ja ikkunoista.

Nvidian loppuvuodesta tuleva blackwell+groq lpu nimenomaan keskittyy siihen, että tokeneita tulisi nopeammin. Kallis ratkaisu, mutta nopea. Nille jotka haluavat nopeutta ja hinta ei ole este.

Jos/Kun meta, google, xai pääsee myös ai-koodausavustimissa tasolle "riittävän hyvä" voi auttaa konesalikapasiteetin ja kilpailun kanssa. Tällä hetkellä tuntuu että peliä käydään lähinnä anthropic vs. openai ja heidän konesaleissa.
Jevonsin paradoksi pätee tännekin. Kun metan tai googlen koodausavustimista tulee parempia niitä käytetään enemmän.
 
Jevonsin paradoksin mukaisesti mallien tehostuminen johtaa siihen että niitä käytetään enemmän.
Meta, xAI ei käyttäne koodaukseen kukaan tervejärkinen. Googlekin vähän siinä ja siinä. Mun käsitys että meta ja xAI firmojen sisälläkin käytetään openai/anthropic eikä omaa koiranruokaa. Ehkä grok5 muuttaa tilannetta ja sama juttu metalla kun saavat seuraavan frontier mallinsa valmiiksi.

Hyvä puoli tässä on, että puhutaan niin konkreettisesta asiasta että voidaan 6kk, 12kk päästä katsoa mitä saa 100e/kk tilauksella versus nykytilanne. Se kuitenkin aika varmaa että kyky tuottaa tokeneita per dollari kasvaa dramaattisesti vuosittain. Myös se meta, xai, google jos saavat ai-avustimet kehiin niin konesalikapasiteetti mikä koodaustarkoituksiin on tarjolla kasvaa merkittävästi. Edelleen alleviivaan sitä, että verrataan 6kk, 12kk päästä sitä mallia ja sen hintaa jolla saa saman suorituskyvyn kuin 2026 huhtikuun malleilla(gpt5.4, sonnet4.6), ei se malli joka on absoluuttisesti paras 6kk, 12kk päästä.

Lokaali myös laukkaa niin jossain kohtaa lokaalilla saa saman suorituskyvyn kuin nykyisellä pilvellä. Ehkä 1v-2v sisään voi ajaa jollain 10ke hintaisella pc:lla gpt5.4:sta vastaavaa mallia. Toki tässä kohtaa pilvi on taas pykäliä edellä, mutta joskus riittävän hyvä on ok. eikä tarvi parasta. Työkalu tarpeen mukaan.
 
Viimeksi muokattu:

Statistiikka

Viestiketjuista
305 677
Viestejä
5 178 271
Jäsenet
82 719
Uusin jäsen
jahuman

Hinta.fi

Back
Ylös Bottom