Follow along with the video below to see how to install our site as a web app on your home screen.
Huomio: This feature may not be available in some browsers.
Hyvää joulua!
Osallistu io-techin piparikakkutalokilpailuun 2025 Linkki osallistumisketjuun >>>
SER-huutokaupat hyväntekeväisyyteen käynnissä! Linkki huutokauppaan >>>
Gigabyten 3080Ti waterforcen blokissa ainakin oli alumiinia kontaktissa jäähdytysnesteeseen. Useasti näissä on ylläreitä, Mutta ei aina.Hemmetti. Jotain tällästä muistelinkin et jossakin valmiiks blokitetussa on ollu ongelmia jäähtymisen kanssa ja muutakin sanottavaa. Oliks joku vielä sellanen et ei jäähyttäny kunnolla muisteja tai virransyöttöä tjsp?
Yleensä muutamaa päivää ennen, ainakin parhaimmat kortit eli 5090/5080Koskas revikat tulee? Vasta myyntiin tulopäivänä?
Ohan se nyt ihan huippujuttu jos saat vaikka 20€ hyvää kuvaa suoraan LG telkkariin eikä tarvii miettiä yhtään mitään sopiiko tämä ylihintainen kortti tähän laitteistoon kuten nykyään.
Itteä noin "peruspelailijana" kiinnostaa lähinnä 5060 että paljonko se on 3060 nopeampi. Kun on vieläkin ollut maltillinen 1440p näytön ja asetusten kanssa, niin Elden Ringit jne. on pyörineet ihan ok 3060 näyttiksellä. 5060 upgradella ei sitten tarttis murehtia siitä riittääkö virtalähde sun muut.
Leffat ja ja musiikki on täysin eriasia, kuin pelit: Viivellä ei ole niissä mitään väliä. ja voidaan käyttää paljon tehokkaampia pakkausalgoritmejäkin (hitaampi yhteys välttää).Tässä on vähän kuin leffojen ja musiikin kanssa. Harrastajat harrastaa fyysisten kiekkojen/pelien/raudan kanssa ja loput pelaavat/katsovat/kuuntelevat pilvestä tuotetta kuukausimaksua/kertakorvausta vastaan. Niin kauan kuin markkinaa on fyysiselle raudalla niin sitä joku tulee kyllä valmistamaan.
Pitääkö muistuttaa tähän kohtaa mikrostutterista, skaalautumattomuudesta ja muista ihanista asioista?!SLI takas ja 2 x 5090 koneeseen!![]()

Absoluuttiset numerot ei kerro mitään vaan suhteellinen ero. 1fps -> 8-10fps on aika jytky.Videoiden perusteella näyttää että ilman DLSS:ää teho erot cyperbunkissa 7-9 fps luokkaa 4090 vs 5090. :S Aika tuhnu.
Videoiden perusteella näyttää että ilman DLSS:ää teho erot cyperbunkissa 7-9 fps luokkaa 4090 vs 5090. :S Aika tuhnu.
Lonkalta ku muistelee niin 4090 pyörittää cyberpunkkia noin 13fps nuilla asetuksilla. Eli jos 5090 menee 21-23 fps niin sehän tarkoittaa noin 50% tehonlisäystä.Absoluuttiset numerot ei kerro mitään vaan suhteellinen ero. 1fps -> 8-10fps on aika jytky.
DLSS4 uusi skaalausmalli voi kasvattaa RTX5000 ja vanhempien korttien välistä tehoeroa. NVIDIAn slidejen perusteella tuo uusi malli vaatii 4x enemmän laskentatehoa, kuin vanha skaalausmalli. Tuosta voisi päätellä, että jos aikaisemmin ruudun skaalaukseen on mennyt vaikka 0,5 ms aikaa RTX4000 sarjan kortilla, niin nyt siihen menisi 2 ms DLSS4 skaalainta käytettäessä. Jos RTX5000 sarjan vastaava kortti pystyy tekemään sen skaalauksen edelleen tuohon 0,5 ms aikaan, niin muodostuuhan tuosta sitten lopullisessa fps-lukemassa aika iso ero jo 60 fps (16,6 ms per frame) tienoolla.

Muistan kyllä, siksi moinen hymiö perässäPitääkö muistuttaa tähän kohtaa mikrostutterista, skaalautumattomuudesta ja muista ihanista asioista?!![]()
Tosin toi ero koskee vain sitä tekoälyinferenssin osuutta koko skaalausprosessista. Osa kokonaisuudesta on kuvan/syvyysdatan ym. prosessointia.DLSS4 uusi skaalausmalli voi kasvattaa RTX5000 ja vanhempien korttien välistä tehoeroa. NVIDIAn slidejen perusteella tuo uusi malli vaatii 4x enemmän laskentatehoa, kuin vanha skaalausmalli. Tuosta voisi päätellä, että jos aikaisemmin ruudun skaalaukseen on mennyt vaikka 0,5 ms aikaa RTX4000 sarjan kortilla, niin nyt siihen menisi 2 ms DLSS4 skaalainta käytettäessä. Jos RTX5000 sarjan vastaava kortti pystyy tekemään sen skaalauksen edelleen tuohon 0,5 ms aikaan, niin muodostuuhan tuosta sitten lopullisessa fps-lukemassa aika iso ero jo 60 fps (16,6 ms per frame) tienoolla.
Se DLSS prosessointi tulee ihan normaalisti sinne framen loppuun, eli toi vain suoraan lisää frametimeä.Vaikuttaisiko tuo ylipäätään muuhun kuin että jokainen ruutu olisi sen 2ms myöhässä? Ymmärtääkseni AI-laskenta tehdään eri ytimillä kuin rasterointi ja säteenseuranta, minkä takia ne ei kilpaile tehosta keskenään.![]()
Se DLSS prosessointi tulee ihan normaalisti sinne framen loppuun, eli toi vain suoraan lisää frametimeä.
Pitäisi onnistua niin että kun DLSS operaatioita tehdään niin seuraavan framen renderöinti aloitetaan tai on jo aloitettu.Mutta tarkoitan että voisiko seuraavan framen rasterointi alkaa jo silloin, kun edellisen DLSS-prosessointi on vielä kesken? Jos tämä laskenta tapahtuu erillisillä AI-ytimillä, siihen ei periaatteessa pitäisi olla estettä.
En nyt äkkiseltään keksi miksi ei teoriassa voisi alkaa, mutta mun käsitykseni mukaan tällaista ei kuitenkaan tehdä vaan se DLSS prosessointiaika tulee täysimääräisenä frametimeen (ja frametimejen keskiarvoon, eivät lomitu). Ja tosiaan DLSS skaalauksesta vain osa tehdään tensoreilla, koko homma vaatii muitakin GPU:n laskentaresursseja sekä muistikaistaa.Mutta tarkoitan että voisiko seuraavan framen rasterointi alkaa jo silloin, kun edellisen DLSS-prosessointi on vielä kesken? Jos tämä laskenta tapahtuu erillisillä AI-ytimillä, siihen ei periaatteessa pitäisi olla estettä.
En nyt äkkiseltään keksi miksi ei teoriassa voisi alkaa, mutta mun käsitykseni mukaan tällaista ei kuitenkaan tehdä vaan se DLSS prosessointiaika tulee täysimääräisenä frametimeen (ja frametimejen keskiarvoon, eivät lomitu). Ja tosiaan DLSS skaalauksesta vain osa tehdään tensoreilla, koko homma vaatii muitakin GPU:n laskentaresursseja sekä muistikaistaa.
Enkä kyllä tiedä onko oikein ajatella tensoriytimien olevan jotenkin erillisiä. Jos mä ajan tekoälysoftaa joka hyödyntää tensoriytimiä niin kyllä se voi syödä tehobudjetista sen 100% ja GPU usaget 100%.
Mietin ite lähinnä niin, että jos kumpikin prosessi voisi hyödyntää 100%:iin asti GPU:n tehobudjettia niin onko siitä sitten kuinka paljon iloa ajaa niitä 50% ja 50% tehoilla samanaikaisesti.Sinänsä noi on suunniteltu vähän kehnosti, jos tosiaan olisi niin että kortin virransyöttö ei pysyisi perässä siinä, että tensoriytimiä ja cuda-coreja ajettaisiin samaan aikaan.
Mietin ite lähinnä niin, että jos kumpikin prosessi voisi hyödyntää 100%:iin asti GPU:n tehobudjettia niin onko siitä sitten kuinka paljon iloa ajaa niitä 50% ja 50% tehoilla samanaikaisesti.
Mutta toki nämä on sen verran monimutkaisia juttuja ettei kaltaisellani tuulipuvulla ymmärrys riitä ja varmaan voi hyvin olla että jotain etua saadaan samanaikaisesta laskennasta.

En tiedä onko minulla jo näkö huonontunut, mutta tuossa kun pelaillut God of Waria ja vaihdellut natiivin 4k ja DLSS-perffin välillä niin tuntuu että en näe mitään eroa missään. Peli vain pyörii paremmin ja pienemmällä tehonkulutuksella DLSS kanssa. Ehkä tuo on vain suosiollinen peli DLSS:lle ettei eroa ole mutta tuo transformer based model kyllä varmaan mahdollistaa useassakin pelissä juurikin qualityn tiputtamisen perf moodiin eikä eroa välttämättä huomaa.Oli miten oli, tuo uusi transformer pohjainen DLSS vaikuttaa kyllä lupaavalta. Vaikka prosessointi olisikin hieman raskaampaa sitä kompensoisi se, että performance mode ei luultavasti enää ole yhtä karun näköinen kuin nykyään ja voisi laskea sitten Q -> P tms.
Tuossa vaikuttaa näytön/telkkarin koko ja etäisyys.En tiedä onko minulla jo näkö huonontunut, mutta tuossa kun pelaillut God of Waria ja vaihdellut natiivin 4k ja DLSS-perffin välillä niin tuntuu että en näe mitään eroa missään. Peli vain pyörii paremmin ja pienemmällä tehonkulutuksella DLSS kanssa. Ehkä tuo on vain suosiollinen peli DLSS:lle ettei eroa ole mutta tuo transformer based model kyllä varmaan mahdollistaa useassakin pelissä juurikin qualityn tiputtamisen perf moodiin eikä eroa välttämättä huomaa.
Itse päivitellyt kun on saanut noin tuplat oikeita freimejä lisää GTX 1070, RTX 3080 ja nyt kiinnostaisi RTX 5080 jos se on oikeasti keskimäärin 30% enemmän potkua 4080 verrattuna mikä vastaisi suurinpiirtein 4090.Saapa nähdä testien ja arvostelujen jälkeen jatkaako sitä vielä 3080 Ti:llä jonkin aikaa eteenpäin. Tonnin luokkaa voisi laittaa rahaa korttiin ja 5070 Ti nyt siihen aikalailla menee, mutta onko sitten tarpeeksi tehoeroa.
5080 muutaman satasen kalliimpi ja ei taida olla wörtti varsinkin kun saman verran muistiakin sisässä.
Astral näyttäisi olevan mitoiltaan muutoin sama kuin tuo esim. 4090 Strixin jäähy, mutta paksuutta tullut hieman lisää, eli 3.5slot -> 3.8slot.
Aikamoista väittää xx70iä "alimmaksi keskiluokaksi", eiköhän se ole kuitenkin sitä ylintä keskiluokkaaEn kirveelläkään maksa alimman keskiluokan kortista yli 500 euroa, varsinkaan kun vielä Herran Vuonna 2025 siitä löytyy vain 12 gigatavua muistia, voi morjens.
Aikamoista väittää xx70iä "alimmaksi keskiluokaksi", eiköhän se ole kuitenkin sitä ylintä keskiluokkaa
Itse päivitellyt kun on saanut noin tuplat oikeita freimejä lisää GTX 1070, RTX 3080 ja nyt kiinnostaisi RTX 5080 jos se on oikeasti keskimäärin 30% enemmän potkua 4080 verrattuna mikä vastaisi suurinpiirtein 4090.
Muistikaista voi tulla pahasti vastaan siinä mitkä asiat toimii rinnakkain. Tensoriytimien teoreettinen nopeus oli 20x0-40x0 korteissa aikalailla sen mitä muistikaista mahdollisti. 50x0 voi käyttäytyä eri tavalla, ei vielä tiedetä. Nvidiahan vihjasi kyllä siihen suuntaan, että ai-laskenta jollain tapaa rinnakkaistuisi muiden asioiden kanssa paremmin 50x0 sarjassa mutta ei ole kunnon materiaalia näkynyt siitä mitä tuo tarkoittaa.Mutta tarkoitan että voisiko seuraavan framen rasterointi alkaa jo silloin, kun edellisen DLSS-prosessointi on vielä kesken? Jos tämä laskenta tapahtuu erillisillä AI-ytimillä, siihen ei periaatteessa pitäisi olla estettä.
Aikamoista väittää xx70iä "alimmaksi keskiluokaksi", eiköhän se ole kuitenkin sitä ylintä keskiluokkaa
Muistikaista voi tulla pahasti vastaan siinä mitkä asiat toimii rinnakkain. Tensoriytimien teoreettinen nopeus oli 20x0-40x0 korteissa aikalailla sen mitä muistikaista mahdollisti. 50x0 voi käyttäytyä eri tavalla, ei vielä tiedetä. Nvidiahan vihjasi kyllä siihen suuntaan, että ai-laskenta jollain tapaa rinnakkaistuisi muiden asioiden kanssa paremmin 50x0 sarjassa mutta ei ole kunnon materiaalia näkynyt siitä mitä tuo tarkoittaa.

Yleensä nää on niin hyvin tehdasylikellotettuja (boost), että en usko että sitä kannattaa miettiä muuten kun jos haluaa harrastaa. 4000-sarjassa muistelisin että nvidia otti parhaita piirejä itselleen FE malleihin, joka tarkoittaa että alivoltitettu FE voi olla parempi kuin 500e kalliimpi huippu strix käytännössä.5090 tulee koneeseen 3070fe tilalle. Mikä malli ja valmistaja auki. Toivottavasti arvostelut tulis sen verran ennen myyntiintuloa, että kerkeäisi edes vähän miettiä asiaa datan pohjalta. Ulospäin FE versio näyttää parhaalta/kompakti, mutta onko se esim. huonommin kellottuva tai äänekkäämpi kuin järeämmännäköiset AIB-mallit?
Voi olla, että saa aika pitkään mennä 5090:lla, 4v,6v? ellei joku chiplet tms. vallankumous tapahdu ja saadaan nykyinen aika pieniä parannuksia tuova trendi rikottua. En pidättele hengitystä chiplettien suhteen. Monimutkaisemmat chipletit/paketoinnit voi mennä vielä vuosikausia konesalipiireihin ja kuluttajapiirit paitsiossa.
Yksi hyvä asia mitä ei isommin ole mainuttu niin tensoriytimien fp4 tuki. Jos davinci resolve/topaz/... jne. softien neuroverkot voivat käyttää fp4:sta niin neuroverkkoefektien nopeus tuplaantuisi versus fp8/int8. Riittääkö fp4 ja tuleeko se käyttöön, en tiedä.
Toinen kiva juttu, että 3 video enkooderia 5090:ssa. Vaikuttanee suoraan videoiden renderöintiaikaa laskevasti tai jos striimailee tms. niin pelivaraa kuvalähteiden suhteen.
Käytämme välttämättömiä evästeitä, jotta tämä sivusto toimisi, ja valinnaisia evästeitä käyttökokemuksesi parantamiseksi.