Follow along with the video below to see how to install our site as a web app on your home screen.
Huomio: This feature may not be available in some browsers.
Muistivaatimukset malleille, isompi malli vaatii 80GB ja pienempi 16GB,. Taitaa olla valmiiksi jo kvantisoitu niin, että ei ole ilmaisia lounaita jos yrittäisi tuota isompaa mallia mahduttaa esim. 5090:en muistiin.Taitaapi olla OpenAI:n avoimen mallin julkaisu lähellä. Llama.cpp githubissa iso pull request sille.
![]()
llama : add gpt-oss by ggerganov · Pull Request #15091 · ggml-org/llama.cpp
gpt-oss model support in native MXFP4 format: Compute graph implementation in llama.cpp Attention sinks support in ggml New MXFP4 data type in ggml New ggml_add_id operator in ggml Usage: (soon) ...github.com
edit: sieltähän se pullahti. Itse malli ja blogi:
![]()
openai/gpt-oss-120b · Hugging Face
We’re on a journey to advance and democratize artificial intelligence through open source and open science.huggingface.co
Vaikuttaa fiitsöreiden puolesta hyvälleOpenAI utilizes quantization to reduce the memory footprint of the gpt-oss models. The models are post-trained with quantization of the mixture-of-experts (MoE) weights to MXFP4 format, where the weights are quantized to 4.25 bits per parameter. The MoE weights are responsible for 90+% of the total parameter count, and quantizing these to MXFP4 enables the smaller model to run on systems with as little as 16GB memory, and the larger model to fit on a single 80GB GPU.
Tarvii tuota isompaa mallia testata kunhan lataus valmistuu.
- Agentic capabilities: Use the models’ native capabilities for function calling, web browsing (Ollama is introducing built-in web search that can be optionally enabled), python tool calls, and structured outputs.
- Full chain-of-thought: Gain complete access to the model’s reasoning process, facilitating easier debugging and increased trust in outputs.
- Configurable reasoning effort: Easily adjust the reasoning effort (low, medium, high) based on your specific use case and latency needs.
- Fine-tunable: Fully customize models to your specific use case through parameter fine-tuning.
- Permissive Apache 2.0 license: Build freely without copyleft restrictions or patent risk—ideal for experimentation, customization, and commercial deployment.
Taitaa aika paljon riippua promptista toimiiko keskusmuistin kanssa pelaaminen vai ei. Jos tekee oikeasti eri experttejä vaativia prompteja niin nopeus tankkeroi. Tyyliin "tunnista tehtävänanto kuvasta ja ... ... "OpenAI:n 20B malli sylkee ~160 tokenia sekunnissa 4090:llä (koko roska mahtuu VRAMiin) ja 120B mallikin 20 tok/s, kun eksperttejä keskusmuistiin offloadattuna, eli todella hyvin toimii noin teknisesti ottaen.
Mutta jotenkin huvittavan nurinkurista että juuri yhdysvaltalainen malli on niin saatanan sensuroitu ettei se suostu edes kirjoittamaan kolumnia, jossa esitetään AI turvallisuuden vastainen näkökulma. Kiinalaisten mallien sensuuri ihan lasten leikkiä tämän rinnalla ja enimmäkseen ohitettavissa yksinkertaisilla promptaustekniikoilla.
total duration: 54.385587125s
load duration: 56.703541ms
prompt eval count: 74 token(s)
prompt eval duration: 2.75607425s
prompt eval rate: 26.85 tokens/s
eval count: 1899 token(s)
eval duration: 51.572172958s
eval rate: 36.82 tokens/s
GPT-5 will have “enhanced agentic capabilities” and can handle “complex coding tasks with minimal prompting.”
GPT-5 will have four model variants, according to GitHub:
- gpt-5: Designed for logic and multi-step tasks.
- gpt-5-mini: A lightweight version for cost-sensitive applications.
- gpt-5-nano: Optimized for speed and ideal for applications requiring low latency.
- gpt-5-chat: Designed for advanced, natural, multimodal, and context-aware conversations for enterprise applications.
Paljonko tuo tekoäly vie sähköä? Gemini ei suostunut kertomaan tarkkoja lukuja. Kun miljardit ihmiset kysyvät tekoälyltä ja pyytävät sitä tekemään jopa videoita tai kuvia, ei se taida ihan halpaa olla. Tehoja vaaditaan, palvelimia ja sähköä kuluu. Jos tekoälyä ei olisi olemassa, näkyisi se varmasti maailman kokonaiskulutuksessa sähkössä. Nyt myös läksyjäkin tehdään tekoälyllä, että mahtaako kenelläkään olla kohta puolin sitä älyä kuin itse tekoälyllä? Olen kyllä pitänyt tekoälyä ihan hyödyllisenä, mutta sen sähkönkulutus on noussut jatkuvasti esiin. Onko jollakin tähän mitään vastausta?
Samat fiilikset. Hinta per token taitaa olla about 1/8 osa anthropicin vastaavasta. Onko sitten parempi vai ei, mutta jos on edes opuksen tasoinen ja 1/8 osa hinnasta niin kovaa tavaraa.Fiilikset GPT-5 julkkarin jälkeen:
![]()
Mutta niin, katotaanpa sitten mikä todellisuus on.
Mulla näkyy puhelimen appsissa(ios) gpt5 mutta ei näy mac os desktop appsissa eikä webbikäyttöliittymässä. Cursor ai:ssa(koodaustyökalu) pitäisi olla julkaisuviikon ajan ilmainen gpt5 mutta mulla ei näy cursor ai:ssa (vielä?) gpt5.Nii onko se vitonen jo saatavilla maksullisena? Ei ainakaan ilmaisessa vielä ollut.