Follow along with the video below to see how to install our site as a web app on your home screen.
Huomio: This feature may not be available in some browsers.
Hyvää joulua!
Osallistu io-techin piparikakkutalokilpailuun 2025 Linkki osallistumisketjuun >>>
SER-huutokaupat hyväntekeväisyyteen käynnissä! Linkki huutokauppaan >>>
Ei tästä julkasusta kyllä saa tippaakaan sellasta "shut up and take my money" efektiä. Aika laimeeta settiä ja noi hinnat lisättynä kiuas/lämpöpatterivitseillä.... Itse ostan sen 3070 joka tulee 200% olemaan mitä tarviin, näille hienouksille ei mulla ole mitään käyttöä ja käyttämätön ominaisuus on taas ominaisuus josta maksat turhaan.
Ei tästä julkasusta kyllä saa tippaakaan sellasta "shut up and take my money" efektiä.
Kaikista korteista joista sai tietoja (enemmän tai vähemmän) tuffi oli taas kyllä kiinnostavin ilmavehje. Ylivoimaisesti jopa.Asuksen live striimissä äsken oli kunnolla esillä 4090 Strix ja TUF.
Molemmat 36cm mittaisia.
4090 Strixissä uusi kammio tekniikka jossa putket ovat pyöreitä eikä litistettyjä kuten normaalisti.
Vaikuttaa 3-5C lämpöjä alentavasti vrt. perinteiset litistetyt lämmönsiirto putket.
4090 TUF tai 4080 Strix ja alemmissa korteissa vanhemman tyyppiset litistetyt putket.
Onkohan tässä nyt mitää järkee nvidia ???Eli uusi 4080 12 Gt on uusi 3070, mutta maksaa helvetisti enemmän?
Tuo välifreimien generointi on kyllä sen verran fuskua että oksat pois. Televisioissahan on jo pitkään ollut näitä AI -ominaisuuksia, joilla 60Hz kuva muutetaan 120Hz kuvaksi (AI generoi väliframet).
Mikseivät samantien piirrä ensin parillisia juovia (interlace)-> +1 fps ja sitten parittomat juovat -> +1 fps.
Löytyy ne Nvidian sivuilta, 4090 oli muistaakseni 450w niiden versiossa, ja 3080 3xx jotainTehonkulutuksesta ei ollut pahemmin puhetta, joten tuskin siitä löytyy paljon kehumisen aihetta. Omaksi kortiksi valikoituisi 4080 16 gt jos hinta olisi max 1200 e.

Tuossa on vain - luultavasti - se perustavanlaatuinen ongelma, että input lagia nuo interpoloidut framet eivät vähennä. Menettelee ehkä hidastempoisessa lentosimussa, mutta monessa muussa ei.Jos joka toisen framen jättää "rendaamatta" ja interpoloi sen AI:lla niin säästyy CPU syklejä. Ei tarvitse näille väliframeille laskea kuin kuva. Esim. fysiikat, animaatiot jne. voi jättää kokonaan pois. Siksi kai Flight Simulator hyötyy tuosta niin paljon, kun se on helposti CPU rajoitteinen. Iha hyvä ideahan tuo on jos haluaa 120fps:llä pelata, sen alle tuolla ei varmaan hirveästi mitään tee. Mielenkiintoista nähdä miten toimii käytännössä. Digital Foundrylta tuli jo teaseri, että heillä on 4090 kortti käsissään ja testejä on luvassa piakkoin (NVidian sallimissa rajoissa toki).
Niin, eli toimii tilanteissa joissa siitä on vähiten hyötyä..Tuossa on vain - luultavasti - se perustavanlaatuinen ongelma, että input lagia nuo interpoloidut framet eivät vähennä. Menettelee ehkä hidastempoisessa lentosimussa, mutta monessa muussa ei.
4090 hinta on jotenkin perusteltavissa, 4080 ei. Toisaalta voi sanoa että nämä on hinnoiteltu niin että 3080 ja 3090 kortit saadaan pois hyllystä ilman hirveää persnettoa ja sitten voidaan leikata 4080 hintoja joskus puolen vuoden päästä.
4080 ei ole mitenkään alle tonnin ainakaan Suomessa. Ei mitenkään.
Yksi merkittävä tekijä tulee (jos tulee) olemaan ne pelit jotka oikeasti vaativat 40-sarjan potkua. Tälläkin hetkellä todella monessa paikassa ihmiset valittaa kun ne oikeasti loistavat AAA-luokan pelit loistavat poissaoloaan. Ne tähänkin asti ilmestyneet pyörivät 3080-3090 sarjalaisilla jo sen verran hyvin, että on hankalaa kuvitella jonkun olevan valmis pistämään lähes 1000€ lisää näyttikseen jos pelien tarjonta on tätä luokkaa. Cyberpunk on yhä kysymysmerkki, ehditäänkö koko peliä pelastamaan ennen kuin se vajoaa alle 1000 yhtäaikaisen pelaajan suosiolle, jolloin koko pelin olemassaolo on aika yhdentekevää uusimpien näyttisten osalta. Tuleva Assasin's Creed: Mirage voisi olla yksi sellainen FPS-tappaja, mutta mene ja tiedä kuinka iso osa sen pelaajakunnasta ostelee 1000-2000€:n näytönohjaimia.Nvidiahan sai tässä just sen hakemansa reaktion ihmisissä, eli osa on valmis maksamaan mitä vaan saadakseen huippu suorituskykyä, mutta iso osa ihmisistä ostaa vanhat 30xx kortit pois varastoista lojumasta. Bisnesmielessä tuossa ei ois ollu järkeä myydä noita halvemmalla. Mitä alemmat hinnat näille, niin sitä alemmat hinnat on laitettava vanhalle sarjalle. On siellä näitä ammattilaiset miettinyt kahvikupin ääressä illan jos toisenkin. Tosin me taidetaan kärsiä nyt tuon päälle myös monta sataa euroa kalliimmasta hinnasta euron perkeleen vuoksi. Niikun myös iPhoneissa kävi. Valitettavasti myöskään AMD:stä ei ole apua vielä tähän tilanteeseen kun julkistus vasta marraskuussa. Harmi.
Tosin tuo 4070 myynti 4080 nimellä on kyllä silkkaa kusetusta koko homma. Olin itse valmis ostamaan nyt ensimmäistä kertaa uutta high endiä vieläkin rullaavan 1060 tilalle johonkin 1000 euron hintaan. Joka sekin on helvetisti liikaa jostain näytönohjaimesta. Tuo 1500e sen sijaan on semmonen mitä en ikinä harkitsisi.
Eli kuulun ryhmään: kärkyn 3080/3090 poistomyyntejä polkuhinnoilla ja odotan samalla AMD:stä pelastajaa.
2000-2500€ olisi oma veikkaus.
4080:set on tulossa vasta marraskuussa. Et ehdi ostamaan muutakuin 4090:sen ennen AMD julkistuksia.Valitettavasti myöskään AMD:stä ei ole apua vielä tähän tilanteeseen kun julkistus vasta marraskuussa. Harmi.
Tuntuu että tätä omaa 3080 korttia voi sitten halailla ainakin seuraavat kolme vuotta ennen kun tarvitsee taas päivittää. Kertakaikkiaan surkea esitys Nvidialta.Vahvasti sama fiilis. 3080:n ostamisen päätin jo riimua seuratessa mutta kyllä nämä jää hyllyyn. Enemmän jopa odotan että mitä punainen leiri tuo pöytään.
We've been hands-on with the RTX 4090 for the last few days and we're hard at work on content focusing on the firm's latest AI-based frame generation technology - DLSS 3.
First impressions on the RTX 4090 itself though? It's easily one of the biggest gen-on-gen increases in performance we've seen, even based on limited testing. 4K gaming for higher refresh rate monitors and TVs is not a problem on most modern titles - and by extension, 8K at 60fps is now viable if you're one of the crazy few (like me) that actually has an 8K TV. Combine that increase in performance with the new DLSS 3 - with its AI-based frame generation - and suddenly the most intense workloads in PC gaming play out with unerring fluidity.
Näyttää kovin heppoiselta.. Toisista huhuista olen katsonut, että 400-500W kulutustakin on veikkailtu ja ei tuommoinen rimpula riitä. Tai sitten siellä on uusi Vapor Champer ja siitä puskee läpi teollisuustason turbiinituuletin (siis äänen ja RPM:n puolesta).
--
Tulin vaan tänne spekuloimaan, kun tuleminen on selvästi lähellä.
Itse ennustan, että sieltä tulee 2-3 mallia, sinne tonnin tai kalliimpien hintaluokkaan. Ne vanhentavat samalla kaikki 3080 Ti:stä ylöspäin, ainakin MSRP:llään. 3080 alkaa myydä MSRP:llä ja jos se on luokkaa $699/750€, niin se on vieläkin ihan fiksu ostos. (Tai sitten saatavuus on täysin olematon ohjehinnalla, mutta miksi sitten julkaista??)
Lisäksi Nvidia on huomannut, että ihmiset ostaa kaikkea, niin sieltä tulee se 400-500W TDP kortti ja se on kiuas. Mutta niinkuin i9-12900KS:n kanssa -> jätetään tämä vaan kuluttajan ongelmaksi ja tehdään kortti, joka on hyvin suunnitellussa ympäristössä absoluuttisen paras. Onko se iso piiri vai jopa kahden GPU:n yhdistelmä - en osaa veikata, mutta sen kellot on ainakin tapissa ja mitään kevyttä peruskäyttöä ei haeta , vaan parhautta testeissä. Kaikki mallit on OC Premium -malleja.
Sitten ne muutkin mallit tulevat kunnon jäähyillä ja tällä perustellaan sitä, että hintaluokka on $999+. Voi olla, että Asus Dualeja ja MSI Ventuksia ei nähdä tuossa hintaluokassa enää tulevaisuudessa. Ne on siihen midrangeen, joka julkaistaan myöhemmin. Ja se on aikaisintaan 11/2022 kaupoissa.
Ihan puhtaasti omia ennustuksia, jotka nyt on kirjallisena tässä. Insight on siinä, että en usko, että jos nyt ostaa RTX 3000-sarjaa ohjehintaan, niin tekee mitenkään huonot kaupat ja niiden arvo laskee. Todennäköisesti niiden arvo pysyy täysin ennallaan vuodenvaihteeseen saakka. Lisäksi ennustan, että Nvidia kyllä osaa rahastaa ja kallein Lovelace-malli on kallein kuluttaja-Geforce ikinä.
Voin tietenkin olla väärässä, mutta nyt olen viime vuosina osunut yhä paremmin maaliin ennustuksillani. Ja minua kiinnostaa keskustelu hintatasosta ennen ja jälkeen julkaisun.. Itsehän veikkaan, että se on alle tonnin hintaluokassa sama kuin nykyään..
Ei ole kyllä nvidian omissa kalvoissa mikään lähelläkään worst casea.Niinpä olikin. No ei noissa missään current gen peleissä ole kyllä dlss3:a käytössä. Toi 50% on kyllä aika varmasti lähellä worst casea.
DLSS3 sit päälle niissä harvoissa peleissä missä se tulee toimimaan ja saa tuosta vielä tuplattua fps:n. VR:aan kelpais. Vois rendailla vaikka 72Hz natiivina ja sit dlss3:lla 144Hz:iin. Vois saada reson kohdalleen niin tulis terävää kuvaa vr:aan,... VR:ssa enivei on se pään asennon muutoksen kompensointi jo loppuvaiheessa niin se pelaa kivasti dlss3:en kanssa yhteen.
Tuo on kyllä todella kaukana totuudesta... Mistä ihmeestä päättelit että HUB on jollain tavalla AMD bias? Yleensä jokaisessa vertailussa suosittelevat Nvidian korttia vaikka se on huomattavasti kalliimpi kuin AMD vastaava...Tsekkasin humorilla niin hardware unboxed:lla ei ole mitään 4090 matskua vielä tuubissa. pcworld, io-tech jne. kuitenkin kerkesivät jotain tekemään. Ehkä se amd bias siellä näkyy HUB:in päässä. Ei HUB ole jaksanut twiittiäkään nvidiasta laittaa. Oletin löytäväni naljailua dlss3:sta, mutta ehkä rytisee myöhemmin kunhan amd kerkeää päivitellä hub:lle talking pointit.
Tai sitten 4070 tulee jokin kattaus erilaisia, pikkuvikaisia piirejä joista leikattu keskimäärin samankaltaista suorituskykyä. Ehkä ne odottaa vielä että epäkelvot 4080,90 piirivarasto täyttyy?Ihan hyvältä päivitykseltä vaikuttaa tehojen osalta mutta hinnat kyllä sellaiset varsinkin euroalueella, että eipä tarvitse 3080:sta päivitellä ennen 5xxx sarjaa. Vähän kyseenalainen myös tuo oletetun 4070 mallin nimeäminen 4080 12GB:ksi. Kun pistetään 2 hinnaltaan täysin halo tuotetta (4080 16GB ja 4090) järjettömiin hintoihin niin päälle 1000€ kuulostaa jo kohtuulliselta, mutta silloin helposti unohtuu että tuo 4080 12Gb on todellisuudessa siis kaksinkertainen hinnalttaa verrattuna 3070 julkaisuun. Noh joo onhan tässä käytykkin syitä läpi miksi hinta näin ja noin, mutta eipä ainakaan ole itselle vaikea miettiä laitanko ennakkotilaukseen vai en.
Postaan saman tähän ketjuun kuin mitä laitoin uutisketjuun. Olisi hyvä, jos keskustelu päätyisi yhteen ketjuun kahden tilalta. Ehkä joku uusi 4090,4080 ketju olisi paikallaan?
Hauska miten täysin samasta speksista ja esityksestä voi vetää niin monenlaista erilaista johtopäätöstä. Digital foundryn kommentteja alla. Tsekkasin huumorilla niin hardware unboxed:lla ei ole mitään 4090 matskua vielä tuubissa. pcworld, io-tech jne. kuitenkin kerkesivät jotain tekemään. Ehkä se amd bias siellä näkyy HUB:in päässä. Ei HUB ole jaksanut twiittiäkään nvidiasta laittaa. Oletin löytäväni naljailua dlss3:sta, mutta ehkä rytisee myöhemmin kunhan amd kerkeää päivitellä hub:lle talking pointit.
Perffi lienee kunnossa jo ennen kuin dlss laitetaan päälle,...
![]()
Digital Foundry is now hands-on with RTX 4090 and DLSS 3
Trailer now, major content coming soonwww.eurogamer.net
Kai tuo 4090 antaa suurinpiirtein tuplatehon versus 3090ti rtx on peleissä samalla virrankulutuksella(450W). DLSS3 sit päälle niissä harvoissa peleissä missä se tulee toimimaan ja saa tuosta vielä tuplattua fps:n. VR:aan kelpais. Vois rendailla vaikka 72Hz natiivina ja sit dlss3:lla 144Hz:iin. Vois saada reson kohdalleen niin tulis terävää kuvaa vr:aan,... VR:ssa enivei on se pään asennon muutoksen kompensointi jo loppuvaiheessa niin se pelaa kivasti dlss3:en kanssa yhteen.
Mitä nää monenlaiset erilaiset johtopäätökset ovat olleet? Et maininnut muita kuin tuon Digital Foundry lyhyet tiiseritekstit, joissa nyt ei juuri kommentoida kuin suorituskykyä.Hauska miten täysin samasta speksista ja esityksestä voi vetää niin monenlaista erilaista johtopäätöstä.
Tuo on kyllä todella kaukana totuudesta... Mistä ihmeestä päättelit että HUB on jollain tavalla AMD bias? Yleensä jokaisessa vertailussa suosittelevat Nvidian korttia vaikka se on huomattavasti kalliimpi kuin AMD vastaava...
Käytämme välttämättömiä evästeitä, jotta tämä sivusto toimisi, ja valinnaisia evästeitä käyttökokemuksesi parantamiseksi.