Follow along with the video below to see how to install our site as a web app on your home screen.
Huomio: This feature may not be available in some browsers.
Redditissä kyllä revitään huumoria anthropicin kustannuksella... Ei valittamista openai:sta. Koodasi uart-härpättimen pc-amiga väliin mitä claude code ei saanut aikaiseksi.![]()
Taitaa GPT 5.5 olla sopiva paikka iskeä tälläisen julkaisun jälkeen.
Puhumattakaan jostain Opuksesta, se on pari minuuttia ja usage on täynnä.Tässäpä se juuri on että "älykkäin malli" ei ole enää paras vaihtoehto, jos ns 5% "tyhmemmän" mallin saa useita kertoja halvemalla (ns token hinta)Samassa projektissa Codexilla (GPT5.4, Medium) saa työskenneltyä n. 2h ennen kuin 5h limit tulee täyteen, Claudella (4.6 Sonnet, Medium) max 20min, parhaimmillaan yhdessä promptissa mennyt koko 5h usage.
Mistä saa jo GPT-5.4-codexin käyttöön vai käytätkö siis tavallista GPT-5.4?Samassa projektissa Codexilla (GPT5.4, Medium)
Tavallinen GPT-5.4 siis. Codexin sovelluksen kautta käytän, siksi mainitsin tuon.Mistä saa jo GPT-5.4-codexin käyttöön vai käytätkö siis tavallista GPT-5.4?
Näyttää aika isolta päivitykseltä. Windows-versiota odotellessa.Jaahas, Codexistakin tuli päivitys.
Tuntuu kyllä siltä, että mallin tuotosten laadussa ei hirveästi ole edes eroa. Enemmän tuntuu vaikuttavan promptaus, konteksti ja skillit. Voisi vaikka huvikseen seuraavan resetin jälkeen testailla miten Haiku 4.5 toimii, paljonko saa käyttää ja miten tulokset eroaa vaikka Sonnetista.Tässäpä se juuri on että "älykkäin malli" ei ole enää paras vaihtoehto, jos ns 5% "tyhmemmän" mallin saa useita kertoja halvemalla (ns token hinta)
Kannattaa myös Gemma 4:lle antaa mahdollisuus. Se on itsellä ollut viime aikoina käytössä ja tuottanut hyvin vakuuttavaa jälkeä. Sekä 31B että 26B A4B.gpt 5.4 codexissa
qwen 3.6 35b paikallisesti clinessä
Ihan mielenkiinnosta hostasin paikallisesti ton uuden 3.6 qwenin ja tein ton redditistä bongatun SVG testin gpt:llä ja paikallisella qwenillä, yllättävää kyl mihin toi pikkumalli pystyy, täytyykin alkaa kokeilemaan mitä se onnistuu tekemään omissa codebaseissani on meinaan ihan sika nopea 200 tok/sec ja osaa clinessä automaattisesti hakea inffoa netistä.
Ollut mielenkiintoista seurata miten sössivät asiansa, firman fanitus oli aikaisemmin ihan överiä ja nyt näkee jatkuvasti enemmän Codexiin vaihtaneita ja juuri tuommoisia kokemuksia, että tämähän on ihan hyvä, ellei jopa parempi ja saa käyttääkin paljon enemmän. Jos kilpailijat ei sössi vastaavasti niin moniko vaihtaneista on enää palaamassa?Redditissä kyllä revitään huumoria anthropicin kustannuksella... Ei valittamista openai:sta. Koodasi uart-härpättimen pc-amiga väliin mitä claude code ei saanut aikaiseksi.
imho. claude oli ennen tyhmennystä parempi ainakin minun käyttöön kuin tämä nykyinen openai 5.4xhigh moodissa. Minä en ole palaamassa anthropic:iin kun openai:nkin palvelu toimii riittävän hyvin. Jos openai alkaa sössimään niin sitten tulee google testiin seuraavaksi.Ollut mielenkiintoista seurata miten sössivät asiansa, firman fanitus oli aikaisemmin ihan överiä ja nyt näkee jatkuvasti enemmän Codexiin vaihtaneita ja juuri tuommoisia kokemuksia, että tämähän on ihan hyvä, ellei jopa parempi ja saa käyttääkin paljon enemmän. Jos kilpailijat ei sössi vastaavasti niin moniko vaihtaneista on enää palaamassa?
Käytämme välttämättömiä evästeitä, jotta tämä sivusto toimisi, ja valinnaisia evästeitä käyttökokemuksesi parantamiseksi.