Follow along with the video below to see how to install our site as a web app on your home screen.
Huomio: This feature may not be available in some browsers.
Varmaan 3080 10gb uudella paketilla jossa lukee 4070.Jos alunperin 4070:lle tarkoitettu piiri meni 12Gt 4080:een, mitäköhän 4070 sit tulee olemaan?
Hintalapussa 900e.Varmaan 3080 10gb uudella paketilla jossa lukee 4070.
Ei ehkä tulekaan 4070:aa. Tulee varmaan 4080 SE, 4080 Mini tai 4080 EE (Enthusiast Edition)...Jos alunperin 4070:lle tarkoitettu piiri meni 12Gt 4080:een, mitäköhän 4070 sit tulee olemaan?
Eli vältetään normaali telkkari-motion-interpolaation tuomat järkyttävät latenssit koska uusin kuva on ennustus tilanteesta hieman ennen seuraavaa kuvaa, mutta ei silti muuta sitä ongelmaa että jos inputtia pollataan ja pelisimulaatiota päivitetään vain natiivinopeudella, ellei tuo nopeus ole tarpeeksi korkea, peli tuntuu lagiselta vaikka mittarissa olisi iso numero.
Eli kärjistäen: Jos peli pyörii natiivina 20fps, siitä normaali DLSS upscalella saadaan nostettua "oikea" päivitysnopeus 40fpsään niin sen jälkeen kun lisätään toiset 40fps ennustettuja frameja ja saadaan OMG 80fps!!! niin pelituntuma on silti edelleen sama kuin 40fps tilanteessa, vaikka sivustakatsoja voikin ihastella pehmeämpää ruudunpäivitystä ja isompaa numeroa mittarissa. Saa nähdä miten toimii käytännössä, mutta oma epäilys on että jos natiivi-päivitysnopeus ei ole riittävän korkea, DLSS3 ei tarjoa hyvää kokemusta.
Ja toisesta päästä tulee sitten se ongelma että tämän ennustetun kuvan generointi vie jonkin verran aikaa ja se todennäköisesti on kiinteä aika (resoluutiosta riippuvana) joka asettaa eräänlaisen capin siihen kuinka nopeasti peli voi pyöriä. Esimerkin perusteella ainakin jostain 40-50fps vauhdista (se cyperpunkki-esimerkki) saadaan tuplattua, mutta jos peli onkin nopeatempoista räiskintää ja mittarissa on natiivina vaikkapa 144fps, siitä tuskin saadaan 300fps sille hirmuiselle 360hz TN panelille ja vaikka saataisiin, edelleen inputteihin peli reagoi 144fps mukaan.
4070 PE (Poor Edition).Ei ehkä tulekaan 4070:aa. Tulee varmaan 4080 SE, 4080 Mini tai 4080 EE (Enthusiast Edition)...
Jos ihmiset ei ostaisi näitä sika hintaisia näytönohjaimia, niin saataisiin hinnat tippumaan.
Maksoin 2080ti:stä >tonnin maksoin 3070:sta ~tonnin ja nyt silmäilen 4090 blokin kanssa, rahoja siihen on varattu jo pitkään koska GTX1080 oston jälkeen hintakehityksen suunta on ollut (ainakin mulle) aika selkeä, ja tämä on sen hinta että saa nopeinta (sen mitä haluaa).
Ei se kivaa ole, mut näin se menee.
Miksi muuten ylipäätään vaihdoit 2080 ti:stä 3070:een, kun ne kai on aika samantehoisia?
On kyllä huikeaa jos menee. Euroopan ulkopuolella ehkä, mutta eurooppalaisten ostovoima tippuu tällä hetkellä lähes ennen näkemätöntä vauhtia samaan aikaan kun markkinoille tuodaan ennen näkemättömän kallista näytönohjainta.Taas on hyvä hetki äänestää lompakollaan. Totuus on kuitenkin luultavasti se, että jokainen kortti menee mitä kerkeävät tuottaa noilla hinnoilla.
Tuskin, tilanne oli ihan eri 3000 sarjan julkaisussa pelaajien ja mainareiden osalta.jokainen kortti menee mitä kerkeävät tuottaa noilla hinnoilla.
Samaa mieltä, että kaikki kortit menevät kaupaksi kyllä noihin hintoihin. Ja jos taustalla on edelleen sitä komponenttipulaa, niin miksi Nvidia tekisi liian edullisen kortin jos saavat paremmallakin katteella myötyä. Voi myydä isoja määriä pienemmällä katteella tai pienempiä määriä isommalla katteella, sama liikevoittoon voidaan päästä kummalla tavalla tahansa. Lisäksi pitämällä 40-sarjan alkaen hinnat korkealla saadaan myös vanhat 30-sarjan kortit vielä myytyä, koska niille jää oma ostajakunta, jolla ei ole varaa 40-sarjan kortteihin.Taas on hyvä hetki äänestää lompakollaan. Totuus on kuitenkin luultavasti se, että jokainen kortti menee mitä kerkeävät tuottaa noilla hinnoilla.
Eikai näitä pelinäyttiksiä mitenkään pääsääntöisesti kukaan työkäyttöön osta, kun firmoille on Quadrot paremmalla feature setillä tarjolla?
Kyllä ostetaan. Näissä on tehoa Quadroihin nähden aika reilusti enemmän paremmalle hinta-laatusuhteella. Aika harvassa hommassa tarvitaan Quadrojen ominaisuuksia.
Joku jossain muualla sanoi että tää julkaisu ois enemmänkin suunnattu tonne ammattilaispuolelle kuin pelaajille (ja ei, en tarkoita e-sport "ammattilaisia"...)
Mitä ammattijuttuja sitten tuollaisilla hirmuilla tehdään, laskentaa? 3D mallinnusta?
Saa vastata jos yhtään tietoa, opin mielelläni uutta.
Eikai näitä pelinäyttiksiä mitenkään pääsääntöisesti kukaan työkäyttöön osta, kun firmoille on Quadrot paremmalla feature setillä tarjolla?
Jos ihmiset ei ostaisi näitä sika hintaisia näytönohjaimia, niin saataisiin hinnat tippumaan.
Tarkoitushan on juuri ettei näitä paljoa osteta näin alkuun. Ostajat ohjataan kohti isoa kasaa Ampere-kortteja joista pitäisi päästä eroon muttei kiinnosta dumpata puoli-ilmaiseksi. 3080, 3070 ja 3060 ei tule hetkeen korvautumaan, joskus keväällä vasta koska kysyntää noille ei ole erityisen paljon. Nvidia on varautunut että tilanne kestää kaksi neljännestä eli maalis-huhtikuulle asti. Siksi ne olivat 40-sarjan malliston alla eilisen julkaisun slideissa. Jos 40-sarja ei myy paljoa niin se ei nvidiaa hetkauta, piirejä voi myydä pari vuotta tästä eespäin. Hintaleikkuriin mennään vain jos myös ampere-korttien myynti ei vedä.Moni unohtaa sen että kysyntä määrittää hinnan. Toki nyt laitettu extraa lisää, mutta kun 3000-sarjalaiset revittiin käsistä varsinkin kun kysyntä ylitti saatavuuden oli soppa valmis.
Jos näitä ei osteta nykyhinnoilla niin tavaran ei voi jäädä hyllyyn lepäämään jolloin hinnat alkaa laskemaan.
Odotellaan rauhassa ei ne pelit mihinkään katoa.
BOM ei muuttuisi halvemmaksi, mutta nVidian profit margin tippuisi jonkin verran ja liikevaihto nousisi. Tekemättä se ei jäisi - 4090 ei käytä edes täyttä 102-piiriä, mutta sellainen menee ammattimallistoon.Ei 4090:en BOM muutu siitä yhtään halvemmaksi osti niitä porukka tai ei. Jäis vain ad102 kokonaan tekemättä ja olis vain joku ad104 kaupassa.
Artikkelissa taitaa olla virhe. 144 SM yksikköä on täydessä AD102 -sirussa (18432 CUDA ydintä, 576 Tensor ydintä).AD102 sisältää fyysisesti 18,176 CUDA corea, joista 4090:ssa on käytössä 16384.
Tensor -coreja on 568 (4090: 512) ja RT-coreja 142 (4090: 128).
On siis jätetty kasvunvaraa RTX 4090 Ti:lle
Joko täällä oli mainittu että eikös siinä keynotessa näytetty että ilman DLSS Cyberpunkissa 4090:lla tulee ~22fps RT päällä?
Eli aika kaukana ollaan vieläkin siitä että RT olisi riittävän nopeaa...
Joko täällä oli mainittu että eikös siinä keynotessa näytetty että ilman DLSS Cyberpunkissa 4090:lla tulee ~22fps RT päällä?
Eli aika kaukana ollaan vieläkin siitä että RT olisi riittävän nopeaa...
Tuossahan on klassinen hinnoittelu-kikka kyseessä, jota esim. starbucks käyttää kahvikokojen kanssa. Laitetaan 1 kallis jättikahvi, 1 vähän halvempi keskikokoinen, ja vähän halvempi selvästi pienin, jolloin suurin osa ihmisistä ostaa keskikokoisen. Nyt se pienin eli 4070* tulee olemaan niin paljon hitaampi mutta vain vähän halvempi kuin 4080, että moni valitsee tietenkin 4080. Paitsi että kahvivertaus ontuu tässä kohtaa, koska 4090 tulee olemaan reilusti 4080 tehokkaampi, eli moni päivittää 4090 asti, kun se ei ole enää paljoa kalliimpi. Bisnes-mielessä nerokasta Nvidia, pakko myöntää.
*4070 tarkoitan tästä eteenpäin 4080 12gb -versiota. Kieltäydyn käyttämästä tuosta 4080 12gb -nimitystä siihen asti kunnes 4070 launchaa. Ihan oikeasti Nvidia...
Ujosti haaveilin päivittäväni 4080, mutta ei perkule noissa hinnoissa ole enää mitään järkeä. 3070ti päivittämisestä tuli jo morkkis. Nyt on pakko skipata Nvidian porfolio. Lisää FPS kyllä 4k kaipaisi. Enter AMD. Oon jo luovuttanut kaiken munuaisista korviin, joten aika rajua perf / dollaria saa AMD tarjota, jotta päivitän.
Ei tää nyt oikein hyvältä näytä kuluttajan kannalta. Hinnoittelu on sitä luokkaa, että AMD:lla on kerrankin oikeasti hyvä sauma iskeä ja yrittää ottaa reilumpi siivu markkinoista.
NVIDIA saattaa tässä ampua itseänsä jalkaan pitkässä juoksussa, kun kehittäjillä on aika vähän syitä ottaa uusia ominaisuuksia käyttöön, jos käyttäjillä ei ole niitä tukevaa rautaa.
NVIDIA Reflex removes significant latency from the game rendering pipeline by removing the render queue and more tightly synchronizing the CPU and GPU. The combination of NVIDIA Reflex and DLSS3 provides much faster FPS at about the same system latency.
Kyllä mä mieluummin kattelen esim. 80fps kuvaa kuin 50fps kuva olkoonkin että input lag on identtinen. Mutta ei tosiaan jossain kilpailullisissa fps peleissä tms tuosta oikein iloa ole. Flight simulator hyvä esimerkki pelistä jossa toi on varmaan ihan kiva, kun ei input lagilla niin väliä. Olettaen toki ettei kuvanlaatu ole ihan skeidaa.Eli tuosta voisi päätellä DLSS3 lisäävän viivettä. Vaikka FPS olisi korkea, niin tämä ei välttämättä välity pelikokemukseen. Tätä voi auttaa ottamalla käyttöön Nvidia Reflexin, jota myös vanhemmat kortit tukee. Onkohan tämä teknologia vähän kuin joku huiputus, millä saadaan fps testi näyttämään korkealta
Eiköhän kohta tule G-SYNC 2 piirit, joissa tekoäly korjaa viivettäkin.NVIDIA Vice President of Applied Deep Learning Research Bryan Catanzaro:
Eli tuosta voisi päätellä DLSS3 lisäävän viivettä. Vaikka FPS olisi korkea, niin tämä ei välttämättä välity pelikokemukseen. Tätä voi auttaa ottamalla käyttöön Nvidia Reflexin, jota myös vanhemmat kortit tukee. Onkohan tämä teknologia vähän kuin joku huiputus, millä saadaan fps testi näyttämään korkealta
Ei tää nyt oikein hyvältä näytä kuluttajan kannalta. Hinnoittelu on sitä luokkaa, että AMD:lla on kerrankin oikeasti hyvä sauma iskeä ja yrittää ottaa reilumpi siivu markkinoista.
NVIDIA saattaa tässä ampua itseänsä jalkaan pitkässä juoksussa, kun kehittäjillä on aika vähän syitä ottaa uusia ominaisuuksia käyttöön, jos käyttäjillä ei ole niitä tukevaa rautaa.
Ja ne jotka näitä uusia näytönohjaimia tarvitsee niin kaks vaihtoehtoa.... Maksa ittes kipeäks julkasussa tai odota että hinnat järkevöityy.
Eiköhän siellä ole tiedossa, että AMD:llä ei ole mitään lyödä nokittamaan 4090:aa. Epäilisin ettei välttämättä edes 4080 16 mallia.
DLSS3 games
...
- A Plague Tale: Requiem
- Warhammer 40,000: Darktide
Hauska miten täysin samasta speksista ja esityksestä voi vetää niin monenlaista erilaista johtopäätöstä. Digital foundryn kommentteja alla. Tsekkasin huumorilla niin hardware unboxed:lla ei ole mitään 4090 matskua vielä tuubissa. pcworld, io-tech jne. kuitenkin kerkesivät jotain tekemään. Ehkä se amd bias siellä näkyy HUB:in päässä. Ei HUB ole jaksanut twiittiäkään nvidiasta laittaa. Oletin löytäväni naljailua dlss3:sta, mutta ehkä rytisee myöhemmin kunhan amd kerkeää päivitellä hub:lle talking pointit.
Tuo on kyllä todella kaukana totuudesta... Mistä ihmeestä päättelit että HUB on jollain tavalla AMD bias? Yleensä jokaisessa vertailussa suosittelevat Nvidian korttia vaikka se on huomattavasti kalliimpi kuin AMD vastaava...
4090 ei välttämättä AMD lyö, mutta kyllä nyt 4080. Ei kai se vaadi AMD:lta mitään poppaskonsteja, kun ei 4080 ota hirveää hyppäystä vrt. RTX 3090ti, ~20-30% Valhalla ja The Division Nvidian slaideissa, ja nuokin voi olla hieman cherry-pickattu. En ole RDNA-arkkitehtuurin asiantuntija, mutta 50% perf/watt -parannus last.geniin kuulostaa siltä että 4080 lyödään kevyesti, ja jollain laboratorio-kellotaajuuksilla voidaan hipoa jopa 4090.
Kaksi vuotta kulunut korttien julkistuksesta ja vieläkin kuvitellaan, ettei AMD:llä ole/ollut vastinetta 3000-sarjalle Ei ole mitään syytä epäillä etteikö RDNA3 tarjoaisi yhtä hyvää, ellei jopa parempaa kilpailua. Vai oliko nuo jotain omia mutuiluja, jotka perustuvat aikaan ennen RDNA2-kortteja?Eiköhän siellä ole tiedossa, että AMD:llä ei ole mitään lyödä nokittamaan 4090:aa. Epäilisin ettei välttämättä edes 4080 16 mallia. Ehkä sitten kilpailevat hinnalla ja wateilla tuosta alespäin. Hintatietoinen hipsteripelaaja toki ostaa ennemmin €/W teholta paremman kortin vaikka se häviäisi tehoissa ja sen merkitys sähkölaskussa koko 2v omistusajalta on luokkaa 50€.
Sellasta se on kun ei ole kilpailua niin voidaan pyytää mitä tykkää. Bisnestä nää firmat tekee eikä hyväntekeväisyyttä. 3080 @ 750€ on nvidialta hyvin ikävä floppi julkaisu bisneksen kannalta kun luulivat, että AMD:llä olisi ollut vastaavaa tarjota. Tällä kertaa on varmaankin viisastuttu ja kalastettu tiedot paremmin ettei tartte liian halpoja kortteja pistää myyntiin.
Nyt niillä on koko hinta haitarille korttia. Ikävä vaan, että se halvinkin pökäle 3050 maksaa jo 300€, mutta koska kilpailijankin vastaavat RX6500 ja 6600 osuu väliin 250-350€ niin miksi myydä halvemmalla?